• 实验 3:Mininet 实验——测量路径的损耗率


    一、实验目的

    在实验 2 的基础上进一步熟悉 Mininet 自定义拓扑脚本,以及与损耗率相关的设定;初步了解 Mininet 安装时自带的 POX 控制器脚本编写,测试路径损耗率

    二、实验任务

    • h0 向 h1 发送数据包,由于在 Mininet 脚本中设置了连接损耗率,在传输过程中会丢失一些包,本次实验的目的是展示如何通过控制器计算路径损耗速率(h0s0-s1-h1)。这里假设控制器预先知道网络拓扑。控制器将向 s0 和 s1 发送 flow_stats_request ,当控制器接收到来自 s0 的 response 时,将特定流的数据包数保存在 input_pkts 中,当控制器接收到来自 s1 的 response 时,将接收到特定流的数据包数保存在 output_pkts 中,差值就是丢失的数据包数量。
    • 基于上述拓扑,编写 Mininet 脚本,设置特定的交换机间的路径损耗速率,然后编写 POX 控制器脚本,实现对路径的损耗率的测量

    三、实验步骤

    1.实验环境

    安装了 Ubuntu 18.04.5 Desktop amd64 的虚拟机

    2.实验过程

    SDNLAB 实验参考资料:https://www.sdnlab.com/15100.html

    (1)新建并编辑 pox 脚本 flow_stats.py

    在 pox 安装目录下(Mininet 完整安装包含了 pox)执行以下命令运行 pox 脚本

    $ ./pox.py flow_stats
    

    现在一起看下 flow_stats.py 的关键代码:

    第七行开始,让 h0 ping h1,监测 s0 和 s1 之间的链路

    • 如果匹配到以太网类型的包头(0x0800),并且数据包的目的 IP 地址是192.168.123.2(对照后面 Mininet 的脚本发现是 h1), 并且连接到控制器的数据平面设备 id 是 s0(h0 ping h1,链路 s0-s1 上数据包是从 s0 流向 s1,s0 为源,s1 为目的地), 执行 input_pkts = f.packet_count,把数据包数量存入input_pkts

    • 同理,如果连接到控制器的数据平面设备 id 是 s1,执行 output_pkts = f.packet_count,把数据包数量存入 output_pkts。

    • 最后求 input_pkts 和 output_pkts 的差值。一般情况下差值为正,说明链路上数据包有损耗

    def _handle_flowstats_received (event): 
       #stats = flow_stats_to_list(event.stats) 
       #log.debug("FlowStatsReceived from %s: %s", dpidToStr(event.connection.dpid), stats) 
       global src_dpid, dst_dpid, input_pkts, output_pkts 
       #print "src_dpid=", dpidToStr(src_dpid), "dst_dpid=", dpidToStr(dst_dpid) 
       for f in event.stats: 
         if f.match.dl_type==0x0800 and f.match.nw_dst==IPAddr("192.168.123.2") and f.match.nw_tos==0x64 
    and event.connection.dpid==src_dpid:  
           #print "input: ", f.byte_count, f.packet_count 
           input_pkts = f.packet_count 
         if f.match.dl_type==0x0800 and f.match.nw_dst==IPAddr("192.168.123.2") and f.match.nw_tos==0x64 
    and event.connection.dpid==dst_dpid: 
           #print "output: ", f.byte_count, f.packet_count   
           output_pkts = f.packet_count 
           if input_pkts !=0: 
             print getTheTime(), "Path Loss Rate =", (input_pkts-output_pkts)*1.0/input_pkts*100, "%" 
    

    (2)编辑 Mininet 脚本 Mininet-pox.py

    参照拓扑图,新建并编辑 Mininet 脚本 Mininet-pox.py,控制器因为安装在本机,
    所以需修改参考资料代码中的控制器地址为 127.0.0.1:6633

    switch.cmd( 'ovs-vsctl set-controller dp0 tcp:127.0.0.1:6633' ) 
    switch1.cmd( 'ovs-vsctl set-controller dp1 tcp:127.0.0.1:6633' ) 
    

    设置 s0 和 s1 之间链路的丢包率为 0

    info( "*** Creating links
    " )     
    linkopts0=dict(bw=100, delay='1ms', loss=0)     
    linkopts1=dict(bw=100, delay='1ms', loss=0)     
    link0=TCLink( h0, switch, **linkopts0)     
    link1 = TCLink( switch, switch1, **linkopts1)          
    link2 = TCLink( h1, switch1, **linkopts0)
    

    再执行命令运行 Mininet 脚本 Mininet-pox.py

    $ sudo python Mininet-pox.py
    

    Ping 默认是每 1 秒钟测一次,ping 的结果会显示一个丢包率,这里的丢包率是根据 ping 不通的次数占总次数的百分比计算得到的。上图中由于一共 ping 了 20次,每次都能通,所以丢包率是 0。

    观察 pox 侧的实时状态更新

    平均丢包率为 0,结果符合 Mininet 脚本中设置的损耗率,也有可能出现负值,可以认为没有丢包

    如果修改代码中 s0 和 s1 之间链路的丢包率为 10

    info( "*** Creating links
    " )     
    linkopts0=dict(bw=100, delay='1ms', loss=0)     
    linkopts1=dict(bw=100, delay='1ms', loss=10)     
    link0=TCLink( h0, switch, **linkopts0)     
    link1 = TCLink( switch, switch1, **linkopts1)          
    link2 = TCLink( h1, switch1, **linkopts0)
    

    POX 端重新测试,会发现出现丢包现象,但是实际测量出的丢包率会有浮动,链路的性能总体受到了限制。

    总结

    • 进一步熟悉 Mininet 自定义拓扑脚本,以及与损耗率相关的设定
      初步了解 Mininet 安装时自带的 POX 控制器脚本编写,测试路径损耗率
    • 实验过程中遇到的问题
      • pox 文件图标带锁,无法在在 pox 文件夹内新建 flow_stats.py 文件
        解决方法:
    $ sudo chmod -R 777 pox
    
    • 输入 ./pox.py flow_stats 时多加了个 .py 导致出现错误
  • 相关阅读:
    转:qcow2、raw、vmdk等镜像格式
    openstack配置xen
    透过 Linux 内核看无锁编程
    转:查看进程所消耗的内存
    Ubuntu安装内核源码
    How to mark volume groups as active or inactive
    Failed to access IIS metabase(IIS Exception Problem)
    Android电子书下载:Google Android SDK开发范例大全(第2版)pdf+源码
    几个C++单元测试框架
    JavaScript命名空间namespace的实现方法
  • 原文地址:https://www.cnblogs.com/SistineFibel/p/13683901.html
Copyright © 2020-2023  润新知