• 基于solarflare的openonload技术以TCPDirect方法加速epoll


    【前言】基于solarflare的onload模式加速,官方文档给出TCPDirect模式可以实现从300ns到30ns的延迟缩减。我们需要测试在我们的交易模型框架中他的延时,有人给出了tcpdirect加速大约会比onload模式快300ns左右,不是倍数关系,是一个数量差。虽未达如此高速交易,但量化交易,分秒必争。但是tcpdirect有一个缺点就是必须使用它的接口,不像onload只需要安装好加速环境,使用onload模式就可以了。TCPDirect需要拿到源码,并重写底层。

      我们实现一个类epoll-socket,TCPDirect使用了muxer,实现叫做zocket,进行RTT测试。

    一、server端

      对应epoll,我们使用muxer实现,和epoll接口类似。

      1、注意后面要释放掉创建的zf_muxer_free(muxer);

      2、因为我们使用内核旁路技术,不要使用zf_recv()函数,虽然他有返回接收数据的大小,但是他是基于copy的,使用zf_zc_recv()。

      3、每次在使用接口有数据交换或者使用硬件时,要使用zf_reactor_perform(stack);,因为我们的zocket是运行在一个初始化的stack上的,每次都要用此接口来进行“初始化”,文档这样写的,我也不清楚。

      4、其他的和epoll不同之处要悉心,比如无需绑定,用zft_listen()绑定,zf_zc_recv和zf_send的存储的数据结构也不相同,下面有我的两种数据的转换存储方式,因为在服务器端需要进行一个转存;

      5、测试时间的核心程序:

    ZF_TRY(zf_muxer_add(muxer, zft_to_waitable(zock), &evs[i]));
     //初始化stack           
    zf_reactor_perform(stack);
    rd1.zcr.iovcnt = 1;
    HP_TIMING_NOW(t0);
    zft_zc_recv(zock, &rd1.zcr, 0);
    if( rd1.zcr.iovcnt == 0 )
        continue;
    if( first_recv ) {
        first_recv = 0;
        siov.iov_len = rd1.zcr.iov[0].iov_len;
        memcpy(buf, ((char*)rd1.zcr.iov[0].iov_base),siov.iov_len);
        }            
    for( int i = 0 ; i < rd1.zcr.iovcnt; ++i ) {
        len3=zft_send(zock, &siov, 1, 0);
        }
        HP_TIMING_NOW(t1);
         //c++11的元组,编译时候可能要加上-std=c++11           
        time_v.push_back(std::make_tuple(len3,t1, t0, (t1 - t0)));
        cout<<"服务器发送:"<<len3<<"数据:"<<buf<<endl;
                
        zft_zc_recv_done(zock, &rd1.zcr);

    二、客户端

      1、初始化的stack可能会用完,要加上ZF_TRY(zft_send_space(tcp,&send_size));,send_size是一个传出参数,返回tcp连接的栈剩余空间,小于目标大小的时候要判断,然后重新分配,我们仅是实现测试,足够我用;

      2、测试结果,就在客户端。我们需要发送和其他模式下同样的数据,到server,然后返回,client再收到所用的时间。

      3、发送和接受和server一样注意,此处无需装换;

      4、输出结果的代码,使用tuple。mongodb那种nosql可以用这种数据组织方式存储。

    std::vector<std::tuple<int, u64_t, u64_t, int>>::iterator it;
    for (it = time_v.begin(); it != time_v.end(); ++it) {
         cout << "len=" << std::get<0>(*it) << " --- recv time = " << std::get<1>(*it) << ", send time = " << std::get<2>(*it)
               << ", gap = " << std::get<3>(*it) << endl;
       if (it != time_v.begin()) {
              sum += std::get<3>(*it);
              ++num;
            }
        }
    #第一个时间是jiffies,要除以本机的cpu主频

     std::cout << "avg gap = " << (sum / (num*1.0) ) << endl;
     std::cout << "avg gap(ns) = " << (sum / (num*3.4)) << endl;

    (关于jiffies和cpu频率的关系:https://www.cnblogs.com/by-dream/p/5143192.html   相除就是时间)

        使用tcpdirect在char类型511字节数据上,进行RTT测试,循环1000次的平均用时3444纳秒(3.5微秒)左右。

      具体和普通socket、使用onload加速的对比:

      当然,这只是个别。我大约测了10次,平均值大约如此。

    三、收获心得

    1、学会了初步的gdb- 对于coredump情况调试方法,学会了一些分析错误的思路。

     2、tcpdump抓包分析,wireshark分析。

  • 相关阅读:
    iOS:UIToolBar、toolbarItems、BarButtonItem的几种关系
    iOS:UIToolBar控件的使用
    iOS:制作九宫格
    iOS:转载:UIControl的使用
    iOS:UIPickerView选择器的使用
    iOS:NSDate的主要几种时间形式
    iOS:步进UIStepper、滑动块UISlider、开关UISwitch的基本使用
    iOS:NSBundle的具体介绍
    h264码流分析及其工具
    零基础学习视频解码之FFMpeg中比较重要的函数以及数据结构
  • 原文地址:https://www.cnblogs.com/huangfuyuan/p/9296335.html
Copyright © 2020-2023  润新知