• boost.ASIO-可能是下一代C++标准的网络库


    曾几何时,Boost中有一个Socket库,但后来没有了下文,C++社区一直在翘首盼望一个标准网络库的出现,网络上开源的网络库也有不少,例如Apache Portable Runtime就是比较著名的一个,也有像ACE这样重量级的网络框架。
    去年,Boost将ASIO纳入了自己的体系,由于Boost的影响力,ASIO有机会成为标准网络库。作者Chris Kohlhoff以ASIO为样本向C++标准委员会提交了一个网络库建议书,里面提到:
    ASIO的覆盖范围:
    � Networking using TCP and UDP, including support for multicast.
    � Client and server applications.
    � Scalability to handle many concurrent connections.
    � Protocol independence between IPv4 and IPv6.
    � Name resolution (i.e. DNS).
    � Timers.
    不在ASIO考虑范围之内的:
    � Protocol implementations such as HTTP, SMTP or FTP.
    � Encryption (e.g. SSL, TLS).
    � Operating system specific demultiplexing APIs.
    � Support for realtime environments.
    � QoS-enabled sockets.
    � Other TCP/IP protocols such as ICMP.
    � Functions and classes for enumerating network interfaces.
    Boost.Asio支持以下平台:
    � Win32 using Visual C++ 7.1 and Visual C++ 8.0.
    � Win32 using Borland C++Builder 6 patch 4.
    � Win32 using MinGW.
    � Win32 using Cygwin.
    � Linux (2.4 or 2.6 kernels) using g++ 3.3 or later.
    � Solaris using g++ 3.3 or later.
    � Mac OS X 10.4 using g++ 3.3 or later.
    � QNX Neutrino 6.3 using g++ 3.3 or later.
    � FreeBSD using g++ 3.3 or later.
    参考ACE的Proactor模式,ASIO采用异步通讯机制,同时参考了Symbian C++ sockets API、Microsoft .NET socket classes和Open Group的Extended Sockets API。
    usidc5 2011-01-18 23:01

    Asio 是一个跨平台的C++开发包用来处理网络和低级I/O编程,通过先进的C++方法为开发人员提供连续异步模型。
    示例代码:
      void handle_read(const asio::error_code& error,
          size_t bytes_transferred)
      {
        if (!error)
        {
          asio::async_write(socket_,
              asio::buffer(data_, bytes_transferred),
              make_custom_alloc_handler(allocator_,
                boost::bind(&session::handle_write,
                  shared_from_this(),
                  asio::placeholders::error)));
        }
      }

      void handle_write(const asio::error_code& error)
      {
        if (!error)
        {
          socket_.async_read_some(asio::buffer(data_),
              make_custom_alloc_handler(allocator_,
                boost::bind(&session::handle_read,
                  shared_from_this(),
                  asio::placeholders::error,
                  asio::placeholders::bytes_transferred)));
        }
      }
    usidc5 2011-06-25 15:36
    boost真是个好东西,每次去逛总会有惊喜。这次的惊喜是发现了asio,一个跨平台的支持异步I/O的网络通讯socket库。

    异步I/O是一种高效的I/O模型,在Windows平台下这种机制的代表就是IOCP完成端口模型。事实上,asio在Windows平台上的实现就是对IOCP的封装。

    其实在网络通讯这一块,已经有许多成熟的框架了,最典型的就是ACE,一个网络通讯设计模式的集大成者。但ACE对我来说太重型了,而且其起源于90年代,与标准库的集成不是太好,比如ACE就有自己的容器类。。。总而言之,ACE是一个庞然大物,威力无穷,但也显得比较笨重。

    C++发展到现在,库的设计风格也越来越趋向于泛型,boost就是一个典型,而且boost社区跟C++标准委员会的密切关系,使得进入boost的程序库有更大的机会加入下一代的C++标准库。

    因此不管从设计风格(我不否认我也喜欢追时髦;)),还是从功利的角度看,学习asio都是一笔不错的投资。

    学习她,首先要安装她。asio要求首先安装boost,下面我把自己的安装过程描述一遍,这确实还是颇费心思的。

    首先要先安装boost,这可是一个漫长而又炎热的夏天。。。万幸的是我以前已经装过了,嘿嘿。我装的是boost_1_33_0,为了完整说明,我这里也简单列了下boost的安装步骤,这也是从网上找来的。

    step1.从www.boost.org下载boost库

    step2 在 toolsuildjam_src目录下 运行build.bat来生成jam

    step3 设置环境变量(后面的%PATH%要加)

    PATH=%boost的绝对路径% oolsuildjam_srcin.ntx86;%PATH% 
    PATH=%boost的绝对路径%;%PATH%

    For Visial Studio 6.0 
    SET MSVC_ROOT="VC6的安装路径" 
    SET VISUALC="VC6的安装路径" 
    Example: 
    SET MSVC_ROOT="c:Program FilesMicrosoft Visual StudioVC98"

    For Visual Studio.net 
    SET VC7_ROOT="vs.NET安装路径" 
    Example: 
    SET VC7_ROOT="C:Program FilesMicrosoft Visual Studio .NETVC7"

    For Visual Studio.net 2003 
    SET VC71_ROOT="vs.NET2003安装路径" 
    Example: 
    set VC71_ROOT="C:Program FilesMicrosoft Visual Studio .NET 2003Vc7"

    step 4 编译boost库 
    bjam "-sTOOLS=%编译器%" install
    Visual Studio 6.0 %编译器%=msvc 
    Visual Studio .NET %编译器%=vc7 
    Visual Studio .NET 2003 %编译器%=vc-7_1

    我用的是VC7.1,照着这个指示,当时编译了好久才完成。不过我在最后一步时,忘了加上install。这也没什么,你可以在boost下新建一个lib文件夹,然后把bin目录下所有的库文件都拷贝进来,然后在你的编译器里进行适当的路径设置(头文件路径,库文件路径),就可以使用boost了。

    安装好boost后(我装在了E:oost_1_33_0),就可以安装asio了,先去http://asio.sourceforge.net下载,现在是最新版本0.3.8。
    注意下载带有boost前缀(boost_asio_0_3_8rc2.zip)的zip文件,解开后可以看到两个目录:boost和libs。把boost里面的所有文件拷贝到E:oost_1_33_0oost下面,注意里面有个detail目录不能直接覆盖,而是要把其中的文件(identifier.hpp)拷贝到E:oost_1_33_0oostdetail中去;同样把libs里面的文件夹都拷贝到E:oost_1_33_0libs下,就可以了。

    好了,接下来就到了激动人心的时刻,让我们来开始编译asio示例,我找了个asio自带的最简单的例子,关于同步定时器的,5秒后超时打印Hello, world!

    #include <iostream>
    #include <boost/asio.hpp>
    #include <boost/date_time/posix_time/posix_time.hpp>

    int main()
    {
           boost::asio::io_service io;

           boost::asio::deadline_timer t(io, boost::posix_time::seconds(5));
           t.wait();

           std::cout << "Hello, world! ";

           return 0;
    }

    先别管具体的代码,开始编译。。。果然不出所料,哪有那么顺畅的事情;)

    正在编译...
    main.cpp
    e:oost_1_33_0oostasiodetailpush_options.hpp(103) : fatal error C1189: #error :       Multithreaded RTL must be selected.

    哦,原来需要多线程库,这好办,在项目属性里:配置属性 -> C/C++ -> 代码生成 -> 运行时库 ->多线程调试(/MTd),再试一下。

    正在编译...
    main.cpp
    Please define _WIN32_WINNT or _WIN32_WINDOWS appropriately
    Assuming _WIN32_WINNT=0x0500 (i.e. Windows 2000 target)
    正在链接...
    LINK : fatal error LNK1104: 无法打开文件“libboost_system-vc71-mt-sgd-1_33.lib”

    好家伙,一下出来俩。第一个是windows版本支持问题,我在项目属性里把宏_WIN32_WINNT加到预处理器中,现在编译通过了,但链接还是不行:

    正在链接...
    LINK : fatal error LNK1104: 无法打开文件“libboost_system-vc71-mt-sgd-1_33.lib”

    找不到system库。我纳闷了一会,因为asio主页上明明写着大部分功能只需要boost头文件即可。因此我又照着asio主页上的说明,把_BOOST_ALL_NO_LIB也加到预处理器中去,但还是不行。

    后来我又到下载的文件中去找,发现system是asio自带的一个库,要想使用asio,就必须先编译这个库,OMG~

    我还没单独编译过boost的一个库,因此又去网上找了找,终于找到了,原来也不是很难。基本步骤还是跟编译整个boost一样,只不过在最后一步时,要换成这样:

    bjam "-sTOOLS=%编译器%" --with-system install

    就可以编译system库了。最后检查下编译器的头文件和库文件路径是否正确,再重新试一遍,终于大功告成!

    我怀着欣喜的心情开始测试asio自带的tutorial程序,前面几个关于定时器的运行的很正常,但到了后来测试daytime1的时候,链接又有问题了。

    正在编译...
    main.cpp
    f:My-SmartWin-Demoasio_demomain.cpp(56) : warning C4267: “参数” : 从“size_t”转换到“std::streamsize”,可能丢失数据
    正在链接...
    main.obj : error LNK2019: 无法解析的外部符号 "public: static class boost::system::error_category __cdecl boost::system::error_code::new_category(int (__cdecl*)(class boost::system::error_code const &),class std::basic_string<char,struct std::char_traits<char>,class std::allocator<char> > (__cdecl*)(class boost::system::error_code const &),class std::basic_string<unsigned short,struct std::char_traits<unsigned short>,class std::allocator<unsigned short> > (__cdecl*)(class boost::system::error_code const &))" (?new_category@error_code@system@boost@@SA?AVerror_category@23@P6AHABV123@@ZP6A?AV?$basic_string@DU?$char_traits@D@std@@V?$allocator@D@2@@std@@0@ZP6A?AV?$basic_string@GU?$char_traits@G@std@@V?$allocator@G@2@@6@0@Z@Z) ,该符号在函数 _$E47 中被引用
    Debug/asio_demo.exe : fatal error LNK1120: 1 个无法解析的外部命令

    前面那个警告不管,后面链接时说一个static函数new_category(...)只有声明没有实现,我找了下,这个函数在system库里error_code.hpp中有声明,error_code.cpp也有实现,而且明明system库我也编译成功,并加入相关路径中,怎么还是会出错?

    郁闷了半天,后来干脆把error_code.cpp加入到daytime1工程中一起编译,终于彻底搞定了。

    真是TMD不容易啊。
    usidc5 2011-06-25 15:39

    对于一个网络程序的服务器端我们需要提供的是服务器的address,和服务开放的端口号port。
    在asio库中首先我们必须使用一个io_service类来支持所有的IO功能。需要注意到是我们必须调用io_service_my.run()函数来开启IO服务的事件循环以使功能都能被正常使用。
    boost::asio::io_service io_service_my;
    现在我们可以基于这个io_service_my来关联构建一下几个类:
    1. boost::asio::ip::tcp::acceptor acceptor_my(io_service_my); 
    因为LPD的实现是基于TCP传输协议,所以也使用了TCP的acceptor来接收client发来的连接。
    2.  boost::asio::ip::tcp::resolver resolver_my(io_service_my);
    boost::asio::ip::tcp::resolver::query query_my(address,port);
    boost::asio::ip::tcp::endpoint endpoint_my = *resolver.resolve(query_my);
    这几个类主要是用来实现对地址的解析和绑定终端节点到相应的开放端口号上。首先构造一个关联到io_service_my的解析器resolver_my。然后让解析器resolver_my执行resolve
    ()函数来解析query_my指定的address和port到一个终端节点endpoint_my上。我们会看到这个endpoint_my终端节点会被绑定到这个acceptor_my接收器上。
    3. boost::asio::ip::tcp::socket socket_my(io_service_my);
    定义一个基于TCP协议的socket关联到io_service_my对象上。
    在这些准备工作做完后我们开始一些实际的动作:
    /*
    * 打开一个使用由endpoint_my指定的协议类型的接收器,这个protocol()函数会自动返回与endpoint_my关联的协
    * 议类型。
    */
    acceptor_my.open(endpoint_my.protocol());

    /*
    * 设置选项允许socket绑定到一个已经正在被使用的地址。
    */
    acceptor_my.set_option(boost::asio::ip::tcp::acceptor::reuse_address(true);

    /*
    * 把接收器绑定到已经被设置过的endpoint_my。
    */
    acceptor_my.bind(endpoint_my);

    /*
    * 接收器开始侦听。
    */
    acceptor_my.listen();

    /*
    * 以同步/异步方式开始接收连接。
    */
    acceptor_my.accept(socket_my) //同步
    acceptor_my.async_accept(socket_my,
      boost::bind(&handle_accept,boost::asio::placeholders::error));//异步
    其中异步的侦听函数原型是:
    template<
        typename SocketService,
        typename AcceptHandler>
    void async_accept(
        basic_socket< protocol_type, SocketService > & peer,
        AcceptHandler handler);
    handler所对应的函数在新连接接收完成后会被调用。这种异步方式实现回调的方法也类似于使用boost::asio::io_service::post(boost::bind(&handle_accept));
    注意到bind函数中的&handle_accept,这是函数handle_accept的入口地址,也就是在接收完成后会调用的函数在这里我们可以继续进行下一步的处理,从socket_my中读取或者写
    入数据。

    /*
    * 调用异步读函数,把接收的数据拷贝到buffer缓存中,其中buffer是由参数buffer_my构造,
    * 而buffer_my本身可以是一个容器例如boost::array<char,8192> buffer_my,表示申请了
    * 一个8K个char字符型空间。也可以使用例外一种方法实现buffer的构造例如
    * boost::asio::buffer(data,size_t);其中data表示指向某种数据类型的指针,
    * size_t则表示包含多少个该数据类型的元素。
    */
    void handle_accept(boost::system::error_code error)
    {
    if(!error)
    {
      boost::array<char, 8192> buffer_my;
      boost::asio::async_read(socket_my, boost::asio::buffer(buffer_my),
       boost::bind(&handle_read, boost::asio::placeholders::error));

    }
    类似的写程序如下
    boost::asio::async_write(socket_my, boost::asio::buffer(buffer_my),
       boost::bind(&handle_write, 
         boost::asio::placeholders::error,
         boost::asio::placeholders::bytes_transferred));

    最后在所有连接完成之后或是服务器停止的时候别忘记关掉连接。例如
    socket_my.close();
    acceptor_my.close();
    至此一个基于boost::asio库的网络程序的框架就出来了,至于具体的设计类实现可以视需求而定。
    usidc5 2011-06-25 15:40
    摘要:本文通过形像而活泼的语言简单地介绍了Boost::asio库的使用,作为asio的一个入门介绍是非常合适的,可以给人一种新鲜的感觉,同时也能让体验到asio的主要内容。本文来自网络,原文在这里。


    目录 [隐藏]
    ASIO的同步方式
    自我介绍
    示例代码
    小结
    ASIO的异步方式
    自我介绍
    示例代码
    小结
    ASIO的“便民措施”
    端点
    超时
    统一读写接口
    基于流的操作
    用ASIO编写UDP通信程序
    用ASIO读写串行口
    演示代码
    Boost.Asio是一个跨平台的网络及底层IO的C++编程库,它使用现代C++手法实现了统一的异步调用模型。


    ASIO的同步方式
    ASIO库能够使用TCP、UDP、ICMP、串口来发送/接收数据,下面先介绍TCP协议的读写操作。对于读写方式,ASIO支持同步和异步两种方式,首先登场的是同步方式,下面请同步方式自我介绍一下。


    自我介绍
    大家好!我是同步方式!


    我的主要特点就是执着!所有的操作都要完成或出错才会返回,不过偶的执着被大家称之为阻塞,实在是郁闷~~(场下一片嘘声),其实这样 也是有好处的,比如逻辑清晰,编程比较容易。


    在服务器端,我会做个socket交给acceptor对象,让它一直等客户端连进来,连上以后再通过这个socket与客户端通信, 而所有的通信都是以阻塞方式进行的,读完或写完才会返回。


    在客户端也一样,这时我会拿着socket去连接服务器,当然也是连上或出错了才返回,最后也是以阻塞的方式和服务器通信。


    有人认为同步方式没有异步方式高效,其实这是片面的理解。在单线程的情况下可能确实如此,我不能利用耗时的网络操作这段时间做别的事 情,不是好的统筹方法。不过这个问题可以通过多线程来避免,比如在服务器端让其中一个线程负责等待客户端连接,连接进来后把socket交给另外的线程去 和客户端通信,这样与一个客户端通信的同时也能接受其它客户端的连接,主线程也完全被解放了出来。


    我的介绍就有这里,谢谢大家!


    示例代码
    好,感谢同步方式的自我介绍,现在放出同步方式的演示代码(起立鼓掌!)。


    服务器端


    #include <iostream>
    #include <boost/asio.hpp>


    int main(int argc, char* argv[])
    {
            using namespace boost::asio;
            // 所有asio类都需要io_service对象
            io_service iosev;
            ip::tcp::acceptor acceptor(iosev, 
            ip::tcp::endpoint(ip::tcp::v4(), 1000));
            for(;;)
            {
                    // socket对象
                    ip::tcp::socket socket(iosev);
                    // 等待直到客户端连接进来
                    acceptor.accept(socket);
                    // 显示连接进来的客户端
                    std::cout << socket.remote_endpoint().address() << std::endl;
                    // 向客户端发送hello world!
                    boost::system::error_code ec;
                    socket.write_some(buffer("hello world!"), ec);


                    // 如果出错,打印出错信息
                    if(ec)
                    {
                            std::cout << 
                                    boost::system::system_error(ec).what() << std::endl;
                            break;
                    }
                    // 与当前客户交互完成后循环继续等待下一客户连接
            }
            return 0;
    }
    客户端


    #include <iostream>
    #include <boost/asio.hpp>


    int main(int argc, char* argv[])
    {
            using namespace boost::asio;


            // 所有asio类都需要io_service对象
            io_service iosev;
            // socket对象
            ip::tcp::socket socket(iosev);
            // 连接端点,这里使用了本机连接,可以修改IP地址测试远程连接
            ip::tcp::endpoint ep(ip::address_v4::from_string("127.0.0.1"), 1000);
            // 连接服务器
            boost::system::error_code ec;
            socket.connect(ep,ec);
            // 如果出错,打印出错信息
            if(ec)
            {
                    std::cout << boost::system::system_error(ec).what() << std::endl;
                    return -1;
            }
            // 接收数据
            char buf[100];
            size_t len=socket.read_some(buffer(buf), ec);
            std::cout.write(buf, len);


            return 0;
    }
    小结
    从演示代码可以得知


    ASIO的TCP协议通过boost::asio::ip名 空间下的tcp类进行通信。
    IP地址(address,address_v4,address_v6)、 端口号和协议版本组成一个端点(tcp:: endpoint)。用于在服务器端生成tcp::acceptor对 象,并在指定端口上等待连接;或者在客户端连接到指定地址的服务器上。
    socket是 服务器与客户端通信的桥梁,连接成功后所有的读写都是通过socket对 象实现的,当socket析 构后,连接自动断 开。
    ASIO读写所用的缓冲区用buffer函 数生成,这个函数生成的是一个ASIO内部使用的缓冲区类,它能把数组、指针(同时指定大 小)、std::vector、std::string、boost::array包装成缓冲区类。
    ASIO中的函数、类方法都接受一个boost::system::error_code类 型的数据,用于提供出错码。它可以转换成bool测试是否出错,并通过boost::system::system_error类 获得详细的出错信息。另外,也可以不向ASIO的函数或方法提供 boost::system::error_code,这时如果出错的话就会直 接抛出异常,异常类型就是boost::system:: system_error(它是从std::runtime_error继承的)。
    ASIO的异步方式
    嗯?异步方式好像有点坐不住了,那就请异步方式上场,大家欢迎...


    自我介绍
    大家好,我是异步方式


    和同步方式不同,我从来不花时间去等那些龟速的IO操作,我只是向系统说一声要做什么,然后就可以做其它事去了。如果系统完成了操作, 系统就会通过我之前给它的回调对象来通知我。


    在ASIO库中,异步方式的函数或方法名称前面都有“async_” 前缀,函数参数里会要求放一个回调函数(或仿函数)。异步操作执行 后不管有没有完成都会立即返回,这时可以做一些其它事,直到回调函数(或仿函数)被调用,说明异步操作已经完成。


    在ASIO中很多回调函数都只接受一个boost::system::error_code参数,在实际使用时肯定是不够的,所以一般 使用仿函数携带一堆相关数据作为回调,或者使用boost::bind来绑定一堆数据。


    另外要注意的是,只有io_service类的run()方法运行之后回调对象才会被调用,否则即使系统已经完成了异步操作也不会有任 务动作。


    示例代码
    好了,就介绍到这里,下面是我带来的异步方式TCP Helloworld 服务器端:


    #include <iostream>
    #include <string>
    #include <boost/asio.hpp>
    #include <boost/bind.hpp>
    #include <boost/smart_ptr.hpp>


    using namespace boost::asio;
    using boost::system::error_code;
    using ip::tcp;


    struct CHelloWorld_Service
    {
            CHelloWorld_Service(io_service &iosev)
                    :m_iosev(iosev),m_acceptor(iosev, tcp::endpoint(tcp::v4(), 1000))
            {}


            void start()
            {
                    // 开始等待连接(非阻塞)
                    boost::shared_ptr<tcp::socket> psocket(new tcp::socket(m_iosev));
                    // 触发的事件只有error_code参数,所以用boost::bind把socket绑定进去
                    m_acceptor.async_accept(*psocket,
                            boost::bind(&CHelloWorld_Service::accept_handler, this, psocket, _1));
            }


            // 有客户端连接时accept_handler触发
            void accept_handler(boost::shared_ptr<tcp::socket> psocket, error_code ec)
            {
                    if(ec) return;
                    // 继续等待连接
                    start();
                    // 显示远程IP
                    std::cout << psocket->remote_endpoint().address() << std::endl;
                    // 发送信息(非阻塞)
                    boost::shared_ptr<std::string> pstr(new std::string("hello async world!"));
                    psocket->async_write_some(buffer(*pstr),
                            boost::bind(&CHelloWorld_Service::write_handler, this, pstr, _1, _2));
            }


            // 异步写操作完成后write_handler触发
            void write_handler(boost::shared_ptr<std::string> pstr, error_code ec,
                    size_t bytes_transferred)
            {
                    if(ec)
                    std::cout<< "发送失败!" << std::endl;
                    else
                    std::cout<< *pstr << " 已发送" << std::endl;
            }


            private:
                    io_service &m_iosev;
                    ip::tcp::acceptor m_acceptor;
    };


    int main(int argc, char* argv[])
    {
            io_service iosev;
            CHelloWorld_Service sev(iosev);
            // 开始等待连接
            sev.start();
            iosev.run();


            return 0;
    }
    小结
    在这个例子中,首先调用sev.start()开 始接受客户端连接。由于async_accept调 用后立即返回,start()方 法 也就马上完成了。sev.start()在 瞬间返回后iosev.run()开 始执行,iosev.run()方法是一个循环,负责分发异步回调事件,只 有所有异步操作全部完成才会返回。


    这里有个问题,就是要保证start()方法中m_acceptor.async_accept操 作所用的tcp::socket对 象 在整个异步操作期间保持有效(不 然系统底层异步操作了一半突然发现tcp::socket没了,不是拿人家开涮嘛-_-!!!),而且客户端连接进来后这个tcp::socket对象还 有用呢。这里的解决办法是使用一个带计数的智能指针boost::shared_ptr,并把这个指针作为参数绑定到回调函数上。


    一旦有客户连接,我们在start()里给的回调函数accept_handler就会被 调用,首先调用start()继续异步等待其 它客户端的连接,然后使用绑定进来的tcp::socket对象与当前客户端通信。


    发送数据也使用了异步方式(async_write_some), 同样要保证在整个异步发送期间缓冲区的有效性,所以也用boost::bind绑定了boost::shared_ptr。


    对于客户端也一样,在connect和read_some方法前加一个async_前缀,然后加入回调即可,大家自己练习写一写。


    ASIO的“便民措施”
    asio中提供一些便利功能,如此可以实现许多方便的操作。


    端点
    回到前面的客户端代码,客户端的连接很简单,主要代码就是两行:


    ...
    // 连接
    socket.connect(endpoint,ec);
    ...
    // 通信
    socket.read_some(buffer(buf), ec);
    不过连接之前我们必须得到连接端点endpoint,也就是服务器地址、端口号以及所用的协议版本。


    前面的客户端代码假设了服务器使用IPv4协议,服务器IP地址为127.0.0.1,端口号为1000。实际使用的情况是,我们经常只能知道服务器网络ID,提供的服务类型,这时我们就得使用ASIO提供的tcp::resolver类来取得服务器的端点了。





    比如我们要取得163网站的首页,首先就要得到“www.163.com”服务器的HTTP端点:


    io_service iosev;
    ip::tcp::resolver res(iosev);
    ip::tcp::resolver::query query("www.163.com","80"); //www.163.com 80端口
    ip::tcp::resolver::iterator itr_endpoint = res.resolve(query);
    这里的itr_endpoint是一个endpoint的迭代器,服务器的同一端口上可能不止一个端点,比如同时有IPv4和IPv6 两种。现在,遍历这些端点,找到可用的:


    // 接上面代码
    ip::tcp::resolver::iterator itr_end; //无参数构造生成end迭代器
    ip::tcp::socket socket(iosev);
    boost::system::error_code ec = error::host_not_found;
    for(;ec && itr_endpoint!=itr_end;++itr_endpoint)
    {
            socket.close();
            socket.connect(*itr_endpoint, ec);
    }
    如果连接上,错误码ec被清空,我们就可以与服务器通信了:


    if(ec)
    {
            std::cout << boost::system::system_error(ec).what() << std::endl;
            return -1;
    }
    // HTTP协议,取根路径HTTP源码
    socket.write_some(buffer("GET <a href="http://www.163.com" title="http://www.163.com">http://www.163.com</a> HTTP/1.0 "));
    for(;;)
    {
            char buf[128];
            boost::system::error_code error;
            size_t len = socket.read_some(buffer(buf), error);
            // 循环取数据,直到取完为止
            if(error == error::eof)
            break;
            else if(error)
            {
                    std::cout << boost::system::system_error(error).what() << std::endl;
                    return -1;
            }


            std::cout.write(buf, len);
    }
    当所有HTTP源码下载了以后,服务器会主动断开连接,这时客户端的错误码得到boost::asio::error::eof,我们 要根据它来判定是否跳出循环。


    ip::tcp::resolver::query的构造函数接受服务器名和服务名。前面的服务名我们直接使用了端口号"80",有时 我们也可以使用别名,用记事本打开%windir%system32driversetcservices文件(Windows环境),可以看到 一堆别名及对应的端口,如:


    echo           7/tcp                 # Echo
    ftp           21/tcp                 # File Transfer Protocol (Control)
    telnet        23/tcp                 # Virtual Terminal Protocol
    smtp          25/tcp                 # Simple Mail Transfer Protocol
    time          37/tcp  timeserver     # Time
    比如要连接163网站的telnet端口(如果有的话),可以这样写:


    ip::tcp::resolver::query query("www.163.com","telnet");
    ip::tcp::resolver::iterator itr_endpoint = res.resolve(query);
    超时
    在网络应用里,常常要考虑超时的问题,不然连接后半天没反应谁也受不了。


    ASIO库提供了deadline_timer类来支持定时触发,它的用法是:


    // 定义定时回调
    void print(const boost::system::error_code& /*e*/)
    {
            std::cout << "Hello, world! ";
    }

    deadline_timer timer;
    // 设置5秒后触发回调
    timer.expires_from_now(boost::posix_time::seconds(5));
    timer.async_wait(print);
    这段代码执行后5秒钟时打印Hello World!


    我们可以利用这种定时机制和异步连接方式来实现超时取消:


    deadline_timer timer;
    // 异步连接
    socket.async_connect(my_endpoint, connect_handler/*连接回调*/);
    // 设置超时
    timer.expires_from_now(boost::posix_time::seconds(5));
    timer.async_wait(timer_handler);
    ...
    // 超时发生时关闭socket
    void timer_handler()
    {
            socket.close();
    }
    最后不要忘了io_service的run()方法。


    统一读写接口
    除了前面例子所用的tcp::socket读写方法(read_some, write_some等)以外,ASIO也提供了几个读写函数,主要有这么几个:


    read、write、read_until、write_until
    当然还有异步版本的


    async_read、async_write、async_read_until、async_write_until
    这些函数可以以统一的方式读写TCP、串口、HANDLE等类型的数据流。


    我们前面的HTTP客户端代码可以这样改写:


    ...
    //socket.write_some(buffer("GET <a href="http://www.163.com" title="http://www.163.com">http://www.163.com</a> HTTP/1.0 "));
    write(socket,buffer("GET <a href="http://www.163.com" title="http://www.163.com">http://www.163.com</a> HTTP/1.0 "));
    ...
    //size_t len = socket.read_some(buffer(buf), error);
    size_t len = read(socket, buffer(buf), transfer_all() ,error);
    if(len) std::cout.write(buf, len);
    这个read和write有多个重载,同样,有错误码参数的不会抛出异常而无错误码参数的若出错则抛出异常。


    本例中read函数里的transfer_all()是一个称为CompletionCondition的对象,表示读取/写入直接缓 冲区装满或出错为止。另一个可选的是transfer_at_least(size_t),表示至少要读取/写入多少个字符。


    read_until和write_until用于读取直到某个条件满足为止,它接受的参数不再是buffer,而是boost::asio:: streambuf。


    比如我们可以把我们的HTTP客户端代码改成这样:


    boost::asio::streambuf strmbuf;
    size_t len = read_until(socket,strmbuf," ",error);
    std::istream is(&strmbuf);
    is.unsetf(std::ios_base::skipws);
    // 显示is流里的内容
    std::copy(std::istream_iterator<char>(is),
        std::istream_iterator<char>(),
        std::ostream_iterator<char>(std::cout));
    基于流的操作
    对于TCP协议来说,ASIO还提供了一个tcp::iostream。用它可以更简单地实现我们的HTTP客户端:


    ip::tcp::iostream stream("www.163.com", "80");
    if(stream)
    {
            // 发送数据
            stream << "GET <a href="http://www.163.com" title="http://www.163.com">http://www.163.com</a> HTTP/1.0 ";
            // 不要忽略空白字符
            stream.unsetf(std::ios_base::skipws);
            // 显示stream流里的内容
            std::copy(std::istream_iterator<char>(stream),
            std::istream_iterator<char>(),
            std::ostream_iterator<char>(std::cout));
    }
    用ASIO编写UDP通信程序
    ASIO的TCP协议通过boost::asio::ip名空间下的tcp类进行通信,举一返三:ASIO的UDP协议通过boost::asio::ip名空间下的udp类进行通信。


    我们知道UDP是基于数据报模式的,所以事先不需要建立连接。就象寄信一样,要寄给谁只要写上地址往门口的邮箱一丢,其它的事各级邮局 包办;要收信用只要看看自家信箱里有没有信件就行(或问门口传达室老大爷)。在ASIO里,就是udp::socket的send_to和receive_from方法(异步版本是async_send_to和asnync_receive_from)。


    下面的示例代码是从ASIO官方文档里拿来的(实在想不出更好的例子了:-P):


    服务器端代码


    //
    // server.cpp
    // ~~~~~~~~~~
    //
    // Copyright (c) 2003-2008 Christopher M. Kohlhoff 
    // (chris at kohlhoff dot com)
    //
    // Distributed under the Boost Software License, Version 1.0. 
    // (See accompanying
    // file LICENSE_1_0.txt or 
    // copy at <a href="http://www.boost.org/LICENSE_1_0.txt" title="http://www.boost.org/LICENSE_1_0.txt">http://www.boost.org/LICENSE_1_0.txt</a>)
    //


    #include <ctime>
    #include <iostream>
    #include <string>
    #include <boost/array.hpp>
    #include <boost/asio.hpp>


    using boost::asio::ip::udp;


    std::string make_daytime_string()
    {
            using namespace std; // For time_t, time and ctime;
            time_t now = time(0);
            return ctime(&now);
    }


    int main()
    {
            try
            {
                    boost::asio::io_service io_service;
                    // 在本机13端口建立一个socket
                    udp::socket socket(io_service, udp::endpoint(udp::v4(), 13));


                    for (;;)
                    {
                            boost::array<char, 1> recv_buf;
                            udp::endpoint remote_endpoint;
                            boost::system::error_code error;
                            // 接收一个字符,这样就得到了远程端点(remote_endpoint)
                            socket.receive_from(boost::asio::buffer(recv_buf),
                            remote_endpoint, 0, error);


                            if (error && error != boost::asio::error::message_size)
                                    throw boost::system::system_error(error);


                            std::string message = make_daytime_string();
                            // 向远程端点发送字符串message(当前时间)    
                            boost::system::error_code ignored_error;
                            socket.send_to(boost::asio::buffer(message),
                            remote_endpoint, 0, ignored_error);
                    }
            }
            catch (std::exception& e)
            {
                    std::cerr << e.what() << std::endl;
            }


            return 0;
    }
    客户端代码


    //
    // client.cpp
    // ~~~~~~~~~~
    //
    // Copyright (c) 2003-2008 Christopher M. Kohlhoff
    // (chris at kohlhoff dot com)
    //
    // Distributed under the Boost Software License, Version 1.0. 
    // (See accompanying file LICENSE_1_0.txt or
    //  copy at <a href="http://www.boost.org/LICENSE_1_0.txt" title="http://www.boost.org/LICENSE_1_0.txt">http://www.boost.org/LICENSE_1_0.txt</a>)
    //


    #include <iostream>
    #include <boost/array.hpp>
    #include <boost/asio.hpp>


    using boost::asio::ip::udp;


    int main(int argc, char* argv[])
    {
            try
            {
                    if (argc != 2)
                    {
                            std::cerr << "Usage: client <host>" << std::endl;
                            return 1;
                    }


                    boost::asio::io_service io_service;
                    // 取得命令行参数对应的服务器端点
                    udp::resolver resolver(io_service);
                    udp::resolver::query query(udp::v4(), argv[1], "daytime");
                    udp::endpoint receiver_endpoint = *resolver.resolve(query);


                    udp::socket socket(io_service);
                    socket.open(udp::v4());
                    // 发送一个字节给服务器,让服务器知道我们的地址
                    boost::array<char, 1> send_buf  = { 0 };
                    socket.send_to(boost::asio::buffer(send_buf), receiver_endpoint);
                    // 接收服务器发来的数据
                    boost::array<char, 128> recv_buf;
                    udp::endpoint sender_endpoint;
                    size_t len = socket.receive_from(
                    boost::asio::buffer(recv_buf), sender_endpoint);


                    std::cout.write(recv_buf.data(), len);
            }
            catch (std::exception& e)
            {
                    std::cerr << e.what() << std::endl;
            }


            return 0;
    }
    用ASIO读写串行口
    ASIO不仅支持网络通信,还能支持串口通信。要让两个设备使用串口通信,关键是要设置好正确的参数,这些参数是:波特率、奇偶校验 位、停止位、字符大小和流量控制。两个串口设备只有设置了相同的参数才能互相交谈。


    ASIO提供了boost::asio::serial_port类,它有一个set_option(const SettableSerialPortOption& option)方法就是用于设置上面列举的这些参数的,其中的option可以是:


    serial_port::baud_rate 波特率,构造参数为unsigned int
    serial_port::parity 奇偶校验,构造参数为serial_port::parity::type,enum类型,可以是none, odd, even。
    serial_port::flow_control 流量控制,构造参数为serial_port::flow_control::type,enum类型,可以是none software hardware
    serial_port::stop_bits 停止位,构造参数为serial_port::stop_bits::type,enum类型,可以是one onepointfive two
    serial_port::character_size 字符大小,构造参数为unsigned int
    演示代码
    #include <iostream>
    #include <boost/asio.hpp>
    #include <boost/bind.hpp>


    using namespace std;
    using namespace boost::asio;


    int main(int argc, char* argv[])
    {
            io_service iosev;
            // 串口COM1, Linux下为“/dev/ttyS0”
            serial_port sp(iosev, "COM1");
            // 设置参数
            sp.set_option(serial_port::baud_rate(19200));
            sp.set_option(serial_port::flow_control(serial_port::flow_control::none));
            sp.set_option(serial_port::parity(serial_port::parity::none));
            sp.set_option(serial_port::stop_bits(serial_port::stop_bits::one));
            sp.set_option(serial_port::character_size(8));
            // 向串口写数据
            write(sp, buffer("Hello world", 12));


            // 向串口读数据
            char buf[100];
            read(sp, buffer(buf));


            iosev.run();
            return 0;
    }
    上面这段代码有个问题,read(sp, buffer(buf))非得读满100个字符才会返回,串口通信有时我们确实能知道对方发过来的字符长度,有时候是不能的。


    如果知道对方发过来的数据里有分隔符的话(比如空格作为分隔),可以使用read_until来读,比如:


    boost::asio::streambuf buf;
    // 一直读到遇到空格为止
    read_until(sp, buf, ' ');
    copy(istream_iterator<char>(istream(&buf)>>noskipws),
            istream_iterator<char>(),
            ostream_iterator<char>(cout));
    另外一个方法是使用前面说过的异步读写+超时的方式,代码如下:


    #include <iostream>
    #include <boost/asio.hpp>
    #include <boost/bind.hpp>


    using namespace std;
    using namespace boost::asio;
    void handle_read(char *buf,boost::system::error_code ec,
    std::size_t bytes_transferred)
    {
            cout.write(buf, bytes_transferred);
    }


    int main(int argc, char* argv[])
    {
            io_service iosev;
            serial_port sp(iosev, "COM1");
            sp.set_option(serial_port::baud_rate(19200));
            sp.set_option(serial_port::flow_control());
            sp.set_option(serial_port::parity());
            sp.set_option(serial_port::stop_bits());
            sp.set_option(serial_port::character_size(8));


            write(sp, buffer("Hello world", 12));


            // 异步读
            char buf[100];
            async_read(sp, buffer(buf), boost::bind(handle_read, buf, _1, _2));
            // 100ms后超时
            deadline_timer timer(iosev);
            timer.expires_from_now(boost::posix_time::millisec(100));
            // 超时后调用sp的cancel()方法放弃读取更多字符
            timer.async_wait(boost::bind(&serial_port::cancel, boost::ref(sp)));


            iosev.run();
            return 0;
    }


    usidc5 2011-07-08 18:32

    asio自带的例子里是用deadline_timer的async_wait方法来实现超时的,这种方法需要单独写一个回调函数,不利于把连接和超时封装到单个函数里。传统的Winsock编程可以先把socket设为非阻塞,然后connect,再用select来判断超时,asio也可以这样做,唯一“非主流”的是asio里没有一个类似select的函数,所以得调用原始的Winsock API,也就牺牲了跨平台:

    1. #include <iostream>  
    2. #include <boost/asio.hpp>  
    3.    
    4. int main()  
    5. {  
    6.     boost::asio::io_service ios;  
    7.     boost::asio::ip::tcp::socket s(ios);  
    8.     boost::system::error_code ec;  
    9.    
    10.     s.open(boost::asio::ip::tcp::v4());  
    11.     // 设为非阻塞  
    12.     s.io_control(boost::asio::ip::tcp::socket::non_blocking_io(true));  
    13.     // connect时必须指定error_code参数,否则会有异常抛出  
    14.     s.connect(  
    15.         boost::asio::ip::tcp::endpoint(  
    16.         boost::asio::ip::address::from_string("192.168.1.1"), 80)  
    17.         , ec);  
    18.     fd_set fdWrite;  
    19.     FD_ZERO(&fdWrite);  
    20.     FD_SET(s.native(), &fdWrite);  
    21.     timeval tv = {5};    // 5秒超时  
    22.     if (select(0, NULL, &fdWrite, NULL, &tv) <= 0   
    23.         || !FD_ISSET(s.native(), &fdWrite))  
    24.     {  
    25.         std::cout << "超时/出错啦" << std::endl;  
    26.         s.close();  
    27.         return 0;  
    28.     }  
    29.     // 设回阻塞  
    30.     s.io_control(boost::asio::ip::tcp::socket::non_blocking_io(false));  
    31.     std::cout << "连接成功" << std::endl;  
    32.     s.close();  
    33.    
    34.     return 0;  
    usidc5 2011-07-08 18:34

    所有的 asio 类都只要包含头文件:   "asio.hpp"


    例子1:   使用一个同步的定时器

    #include <iostream>
    #include <boost/asio.hpp>
    #include <boost/date_time/posix_time/posix_time.hpp>   //使用时间间隔
    int main()
    {
    //所有使用 asio 的程序都必须至少拥有一个 io_service 类型的对象. 
    //它提供 I/O 功能. 
    boost::asio::io_service io;
    //创建一个定时器 deadline_timer 的对象. 
    //这种定时器有两种状态: 超时 和 未超时.
    //在超时的状态下. 调用它的 wait() 函数会立即返回. 
    //在未超时的情况下则阻塞. 直到变为超时状态.
    //它的构造函数参数为: 一个 io_service 对象(asio中主要提供IO的类都用io_service对象做构造函数第一个参数).
    //                     超时时间.
    //从创建开始. 它就进入 "未超时"状态. 且持续指定的时间. 转变到"超时"状态.
    boost::asio::deadline_timer t(io, boost::posix_time::seconds(5));
    //这里等待定时器 t 超时. 所以会阻塞5秒.
    t.wait();
    std::cout << "Hello, world! ";
    return 0;
    }






    例子2: 使用一个异步的定时器
    //一个将被定时器异步调用的函数. 
    void print(const boost::system::error_code& /*e*/)
    {
    std::cout << "Hello, world! ";
    }
    int main()
    {
    boost::asio::io_service io;
    boost::asio::deadline_timer t(io, boost::posix_time::seconds(5));
    //和例子1不同. 这里调用 async_wait() 执行一个异步的等待. 它注册一个可执行体(即此处的print函数).   //这里不懂的是: print的参数怎么传入?
    //实际上. 这个执行体被注册到 deadline_timer 类的 io_service 成员上(即本例的 io 对象). 只有在以后调用 io.run() 时这些注册的执行体才会被真正执行. 
    t.async_wait(print);
    //调用 io对象的 run() 函数执行那些被注册的执行体. 
    //这个函数不会立即返回. 除非和他相关的定时器对象超时并且在定时器超时后执行完所有注册的执行体. 之后才返回. 
    //所以它在这里阻塞一会儿. 等t超时后执行完print. 才返回.
    //这里要注意的是. 调用 io.run() 可以放在其它线程中. 那样所有的回调函数都在别的线程上运行.
    io.run();
    return 0;
    }




    例子3: 向超时回调函数绑定参数

    // 这个例子中. 每次 定时器超时后. 都修改定时器的状态到"未超时". 再注册回调函数. 这样循环 5 次. 所以 print 会被执行 5 次.
    void print(const boost::system::error_code& /*e*/,
        boost::asio::deadline_timer* t, int* count)
    {
    if (*count < 5)
    {
        std::cout << *count << " ";
        ++(*count);
        //可以用 deadline_timer::expires_at() 来 获取/设置 超时的时间点. 
        //在这里我们将超时的时间点向后推迟一秒. 
        t->expires_at(t->expires_at() + boost::posix_time::seconds(1));
        //再次向 t 中的 io_service 对象注册一个回掉函数. 
        // 注意这里绑定时. 指定了绑定到 print 的第一个参数为: boost::asio::placeholders::error //不懂. 这个error是什么东西. 为什么在例子2中不要绑定它?
        t->async_wait(boost::bind(print,
              boost::asio::placeholders::error, t, count));
    }
    }
    int main()
    {
    boost::asio::io_service io;
    int count = 0;
    boost::asio::deadline_timer t(io, boost::posix_time::seconds(1));
    t.async_wait(boost::bind(print,
            boost::asio::placeholders::error, &t, &count));
    io.run();
    std::cout << "Final count is " << count << " ";
    return 0;
    }



    例子4: 多线程处理定时器的回掉函数. 同步的问题.
    前面的例子都只在一个线程中调用 boost::asio::io_service::run() 函数. 
    向定时器注册的回掉函数都是在调用该 run() 的线程中执行.
    但实际上这个 run() 函数可以在多个线程中同时被调用. 例如:
    boost::asio::io_service io; 
    //两个定时器
    boost::asio::deadline_timer t1(io, boost::posix_time::seconds(1));
    t1.async_wait(func1);   
    boost::asio::deadline_timer t2(io, boost::posix_time::seconds(1));
    t2.async_wait(func2); 

    由于向 io 注册了多个cmd. 这里为了效率我们想让这些cmd并行执行:
    boost::thread thread1(bind(&boost::asio::io_service::run, &io);
    boost::thread thread2(bind(&boost::asio::io_service::run, &io);
    thread1.join();
    thread2.join();
    这里在多个线程中调用 io.run() 所以我们注册的cmd可能在任何一个线程中运行. 
    这些线程会一直等待io对象相关的定时器超时并执行相关的 cmd. 直到所有的定时器都超时. run函数才返回. 线程才结束.
    但这里有一个问题: 我们向定时器注册的 func1 和 func2 . 它们可能会同时访问全局的对象(比如 cout ). 
    这时我们希望对 func1 和 func2 的调用是同步的. 即执行其中一个的时候. 另一个要等待.
    这就用到了 boost::asio::strand 类. 它可以把几个cmd包装成同步执行的. 例如前面我们向定时器注册 func1 和 func2 时. 可以改为:
    boost::asio::strand the_strand;
    t1.async_wait(the_strand.wrap(func1));      //包装为同步执行的
    t2.async_wait(the_strand.wrap(func2)); 
    这样就保证了在任何时刻. func1 和 func2 都不会同时在执行.
    usidc5 2011-07-08 18:35
     
     
    • // test.cpp : 定义控制台应用程序的入口点。  
     
    • //  
     
    •   
     
    • #include "stdafx.h"  
     
    • #include <boost/asio.hpp>  
     
    • #include <boost/bind.hpp>  
     
    • #include <boost/date_time/posix_time/posix_time_types.hpp>  
     
    • #include <iostream>  
     
    •   
     
    • using namespace boost::asio;  
     
    • using boost::asio::ip::tcp;  
     
    •   
     
    • class connect_handler  
     
    • {  
     
    • public:  
     
    •     connect_handler(io_service& ios)  
     
    •         : io_service_(ios),  
     
    •         timer_(ios),  
     
    •         socket_(ios)  
     
    •     {  
     
    •         socket_.async_connect(  
     
    •             tcp::endpoint(boost::asio::ip::address_v4::loopback(), 3212),  
     
    •             boost::bind(&connect_handler::handle_connect, this,  
     
    •             boost::asio::placeholders::error));  
     
    •   
     
    •         timer_.expires_from_now(boost::posix_time::seconds(5));  
     
    •         timer_.async_wait(boost::bind(&connect_handler::close, this));  
     
    •     }  
     
    •   
     
    •     void handle_connect(const boost::system::error_code& err)  
     
    •     {  
     
    •         if (err)  
     
    •         {  
     
    •             std::cout << "Connect error: " << err.message() << " ";  
     
    •         }  
     
    •         else  
     
    •         {  
     
    •             std::cout << "Successful connection ";  
     
    •         }  
     
    •     }  
     
    •   
     
    •     void close()  
     
    •     {  
     
    •         socket_.close();  
     
    •     }  
     
    •   
     
    • private:  
     
    •     io_service& io_service_;  
     
    •     deadline_timer timer_;  
     
    •     tcp::socket socket_;  
     
    • };  
     
    •   
     
    • int main()  
     
    • {  
     
    •     try  
     
    •     {  
     
    •         io_service ios;  
     
    •         tcp::acceptor a(ios, tcp::endpoint(tcp::v4(), 32123), 1);  
     
    •   
     
    •         // Make lots of connections so that at least some of them will block.  
     
    •         connect_handler ch1(ios);  
     
    •         //connect_handler ch2(ios);  
     
    •         //connect_handler ch3(ios);  
     
    •         //connect_handler ch4(ios);  
     
    •         //connect_handler ch5(ios);  
     
    •         //connect_handler ch6(ios);  
     
    •         //connect_handler ch7(ios);  
     
    •         //connect_handler ch8(ios);  
     
    •         //connect_handler ch9(ios);  
     
    •   
     
    •         ios.run();  
     
    •     }  
     
    •     catch (std::exception& e)  
     
    •     {  
     
    •         std::cerr << "Exception: " << e.what() << " ";  
     
    •     }  
     
    •   
     
    •     return 0;  
     
    • }  
     
    usidc5 2011-07-08 19:49
    服务器代码:


    Servier.cpp
    #include <boost/asio.hpp>
    #include <boost/bind.hpp>
    #include <boost/shared_ptr.hpp>
    #include <boost/enable_shared_from_this.hpp>
    #include <iostream>
    using boost::asio::ip::tcp;
    #define max_len 1024
    class clientSession
    :public boost::enable_shared_from_this<clientSession>
    {
    public:
    clientSession(boost::asio::io_service& ioservice)
    :m_socket(ioservice)
    {
    memset(data_,‘′,sizeof(data_));
    }
    ~clientSession()
    {}
    tcp::socket& socket()
    {
    return m_socket;
    }
    void start()
    {
    boost::asio::async_write(m_socket,
    boost::asio::buffer(“link successed!”),
    boost::bind(&clientSession::handle_write,shared_from_this(),
    boost::asio::placeholders::error));
    /*async_read跟客户端一样,还是不能进入handle_read函数,如果你能找到问题所在,请告诉我,谢谢*/
    // --已经解决,boost::asio::async_read(...)读取的字节长度不能大于数据流的长度,否则就会进入
    // ioservice.run()线程等待,read后面的就不执行了。
    //boost::asio::async_read(m_socket,boost::asio::buffer(data_,max_len),


    //         boost::bind(&clientSession::handle_read,shared_from_this(),


    //         boost::asio::placeholders::error));
    //max_len可以换成较小的数字,就会发现async_read_some可以连续接收未收完的数据


    m_socket.async_read_some(boost::asio::buffer(data_,max_len),
    boost::bind(&clientSession::handle_read,shared_from_this(),
    boost::asio::placeholders::error));
    }
    private:
    void handle_write(const boost::system::error_code& error)
    {
    if(error)
    {
    m_socket.close();
    }
    }
    void handle_read(const boost::system::error_code& error)
    {
    if(!error)
    {
    std::cout << data_ << std::endl;
    //boost::asio::async_read(m_socket,boost::asio::buffer(data_,max_len),


    //     boost::bind(&clientSession::handle_read,shared_from_this(),


    //     boost::asio::placeholders::error));


    m_socket.async_read_some(boost::asio::buffer(data_,max_len),
    boost::bind(&clientSession::handle_read,shared_from_this(),
    boost::asio::placeholders::error));
    }
    else
    {
    m_socket.close();
    }
    }
    private:
    tcp::socket m_socket;
    char data_[max_len];
    };
    class serverApp
    {
    typedef boost::shared_ptr<clientSession> session_ptr;
    public:
    serverApp(boost::asio::io_service& ioservice,tcp::endpoint& endpoint)
    :m_ioservice(ioservice),
    acceptor_(ioservice,endpoint)
    {
    session_ptr new_session(new clientSession(ioservice));
    acceptor_.async_accept(new_session->socket(),
    boost::bind(&serverApp::handle_accept,this,boost::asio::placeholders::error,
    new_session));
    }
    ~serverApp()
    {
    }
    private:
    void handle_accept(const boost::system::error_code& error,session_ptr& session)
    {
    if(!error)
    {
    std::cout << “get a new client!” << std::endl;
    //实现对每个客户端的数据处理


    session->start();
    //在这就应该看出为什么要封session类了吧,每一个session就是一个客户端


    session_ptr new_session(new clientSession(m_ioservice));
    acceptor_.async_accept(new_session->socket(),
    boost::bind(&serverApp::handle_accept,this,boost::asio::placeholders::error,
    new_session));
    }
    }
    private:
    boost::asio::io_service& m_ioservice;
    tcp::acceptor acceptor_;
    };
    int main(int argc , char* argv[])
    {
    boost::asio::io_service myIoService;
    short port = 8100/*argv[1]*/;
    //我们用的是inet4


    tcp::endpoint endPoint(tcp::v4(),port);
    //终端(可以看作sockaddr_in)完成后,就要accept了


    serverApp sa(myIoService,endPoint);
    //数据收发逻辑


    myIoService.run();
    return 0;
    }
    客户端代码:
    #include <boost/asio.hpp>
    #include <boost/bind.hpp>
    #include <boost/shared_ptr.hpp>
    using boost::asio::ip::tcp;
    class client
    {
    public:
    client(boost::asio::io_service& io_service,tcp::endpoint& endpoint)
    : socket(io_service)//这里就把socket实例化了
    {
    //连接服务端 connect
    socket.async_connect(endpoint,
    boost::bind(&client::handle_connect,this,boost::asio::placeholders::error)
    );
    memset(getBuffer,‘′,1024);
    }
    ~client()
    {}
    private:
    void handle_connect(const boost::system::error_code& error)
    {
    if(!error)
    {
    //一连上,就向服务端发送信息
    boost::asio::async_write(socket,boost::asio::buffer(“hello,server!”),
    boost::bind(&client::handle_write,this,boost::asio::placeholders::error));
    /**读取服务端发下来的信息
    *这里很奇怪,用async_read根本就不能进入handle_read函数
    **/
    // --已经解决,boost::asio::async_read(...)读取的字节长度不能大于数据流的长度,否则就会进入
    // ioservice.run()线程等待,read后面的就不执行了。
    //boost::asio::async_read(socket,
    //     boost::asio::buffer(getBuffer,1024),
    //     boost::bind(&client::handle_read,this,boost::asio::placeholders::error)
    //    );
    socket.async_read_some(boost::asio::buffer(getBuffer,1024),
    boost::bind(&client::handle_read,this,boost::asio::placeholders::error)
    );
    }
    else
    {
    socket.close();
    }
    }
    void handle_read(const boost::system::error_code& error)
    {
    if(!error)
    {
    std::cout << getBuffer << std::endl;
    //boost::asio::async_read(socket,
    //         boost::asio::buffer(getBuffer,1024),
    //         boost::bind(&client::handle_read,this,boost::asio::placeholders::error)
    //        );
    //这样就可以实现循环读取了,相当于while(1)
    //当然,到了这里,做过网络的朋友就应该相当熟悉了,一些逻辑就可以自行扩展了
    //想做聊天室的朋友可以用多线程来实现
    socket.async_read_some(
    boost::asio::buffer(getBuffer,1024),
    boost::bind(&client::handle_read,this,boost::asio::placeholders::error)
    );
    }
    else
    {
    socket.close();
    }
    }
    void handle_write(const boost::system::error_code& error)
    {
    }
    private:
    tcp::socket socket;
    char getBuffer[1024];
    };
    int main(int argc,char* argv[])
    {
    //if(argc != 3)
    //{
    // std::cerr << “Usage: chat_client <host> <port> ”;
    //    return 1;
    //}
    //我觉IO_SERVICE是一个基本性的接口,基本上通常用到的类实例都需要通过它来构造
    //功能我们可以看似socket
    boost::asio::io_service io_service;
    //这个终端就是服务器
    //它的定义就可以看作时sockaddr_in,我们用它来定义IP和PORT
    tcp::endpoint endpoint(boost::asio::ip::address_v4::from_string("192.168.1.119"/*argv[1]*/),8100/*argv[2]*/);
    //既然socket和sockaddr_in已经定义好了,那么,就可以CONNECT了
    //之所以为了要把连接和数据处理封成一个类,就是为了方便管理数据,这点在服务端就会有明显的感觉了
    boost::shared_ptr<client> client_ptr(new client(io_service,endpoint));
    //执行收发数据的函数
    io_service.run();
    return 0;
    }
    修改192.168.1.119为127.0.0.1,然后先运行server,再运行client,一切ok.
    usidc5 2011-07-08 19:50
    理论基础
    许多应用程序以某种方式和外界交互,例如文件,网络,串口或者终端。某些情况下例如网络,独立IO操作需要很长时间才能完成,这对程序开发形成了一个特殊的挑战。


    Boost.Asio库提供管理这些长时间操作的工具,并且不需要使用基于线程的并发模型和显式的锁。


    Asio库致力于如下几点:


    移植性


    高负载


    效率


    基于已知API例如BSD sockets的模型概念


    易于使用


    作为进一步抽象的基础


    虽然asio主要关注网络,它的异步概念也扩展到了其他系统资源,例如串口,文件等等。


    主要概念和功能
    基本架构(略)
    Proactor设计模式:无需额外线程的并发机制(略)
    这种模型感觉很像aio或者iocp,而select,epoll则应该类似于Reactor。


    线程和Asio


    线程安全


    一般来说,并发使用不同的对象是安全的。但并发使用同一个对象是不安全的。不过io_service等类型的并发使用是安全的。


    线程池


    多个线程可以同时调用io_service::run,多个线程是平等的。


    内部线程


    为了某些特定功能,asio内部使用了thread以模拟异步,这些thread对用户而言是不可见的。它们都符合如下原则:


    它们不会直接调用任何用户代码
    他们不会被任何信号中断。
    注意,如下几种情况违背了原则1。


    ip::basic_resolver::async_resolve() 所有平台


    basic_socket::async_connect() windows平台


    涉及null_buffers()的任何操作 windows平台


    以上是容易理解的,asio本身尽可能不创建thread,某些情况下,例如connect,由于windows 2k平台下并不提供异步connect,所以asio只能用select模拟,这种情况下不得不创建新线程。windows xp下提供connectex,但考虑到兼容性,asio似乎并未使用。


    asio完全保证然后异步完成函数都仅在运行io_service::run的线程中被调用。


    同时,创建并且管理运行io_service::run的线程是用户的责任。


    Strands:使用多线程且无需显式锁


    有3种方式可以显式或隐式使用锁。


    只在一个线程中调用io_service::run,那么所有异步完成函数都会在该线程中串行化调用
    应用逻辑保证
    直接使用strand
    strand::wrap可以创建一个包裹handler用于post或其他异步调用。


    Buffers
    Asio支持多个buffer同时用于读写,类似于WSARecv里面的WSABUF数组。mutable_buffer和const_buffer类似于WSABUF,MutableBufferSequence和ConstBufferSequence类似于WSABUF的容器。


    Buffer本身不分配释放内存,该数据结构很简单。


    vc8及以上的编译器在debug编译时缺省支持检查越界等问题。其他编译器可以用BOOST_ASIO_DISABLE_BUFFER_DEBUGGING打开这个开关。


    流,不完全读和不完全写
    许多io对象是基于流的,这意味着:


    没有消息边界,数据是连续的字节。
    读或者写操作可能仅传送了要求的部分字节,这称之为不完全读/写。
    read_some,async_read_some,write_some,async_write_some则为这种不完全读/写。


    系统API一般均为这种不完全读写。例如WSASend,WSARecv等等。


    一般来说都需要读/写特定的字节。可以用read,async_read,write,async_write。这些函数在未完成任务之前会持续调用不完全函数。


    EOF
    read,async_read,read_until,async_read_until在遇到流结束时会产生一个错误。这是很合理的,例如要求读4个字节,但仅读了1个字节socket就关闭了。在handle_read中error_code将提示一个错误。


    Reactor类型的操作
    有些应用程序必须集成第3方的库,这些库希望自己执行io操作。


    这种操作类似于select,考察select和aio的区别,前者是得到完成消息,然后再执行同步读操作,aio是预发异步读操作,在完成消息到来时,读操作已经完成。


    null_buffer设计用来实现这类操作。


    ip::tcp::socket socket(my_io_service);
    ...
    ip::tcp::socket::non_blocking nb(true);
    socket.io_control(nb);
    ...
    socket.async_read_some(null_buffers(), read_handler);
    ...
    void read_handler(boost::system::error_code ec)
    {
      if (!ec)
      {
        std::vector<char> buf(socket.available());
        socket.read_some(buffer(buf));
      }
    }
    注意一般asio的用法和这明显不同。以上代码非常类似select的方式。
    常规代码是:
    boost::asio::async_read(socket_,boost::asio::buffer(data,length),handle_read);
    void handle_read(){…}
    行操作
    许多应用协议都是基于行的,例如HTTP,SMTP,FTP。为了简化这类操作,Asio提供read_until以及async_read_until。
    例如:
    class http_connection
    {
      ...


      void start()
      {
        boost::asio::async_read_until(socket_, data_, "/r/n",
            boost::bind(&http_connection::handle_request_line, this, _1));
      }


      void handle_request_line(boost::system::error_code ec)
      {
        if (!ec)
        {
          std::string method, uri, version;
          char sp1, sp2, cr, lf;
          std::istream is(&data_);
          is.unsetf(std::ios_base::skipws);
          is >> method >> sp1 >> uri >> sp2 >> version >> cr >> lf;
          ...
        }
      }


      ...


      boost::asio::ip::tcp::socket socket_;
      boost::asio::streambuf data_;
    };
    read_until,async_read_until支持的判断类型可以是char,string以及boost::regex,它还支持自定义匹配函数。
    以下例子是持续读,一直到读到空格为止:
    typedef boost::asio::buffers_iterator<
        boost::asio::streambuf::const_buffers_type> iterator;


    std::pair<iterator, bool>
    match_whitespace(iterator begin, iterator end)
    {
      iterator i = begin;
      while (i != end)
        if (std::isspace(*i++))
          return std::make_pair(i, true);
      return std::make_pair(i, false);
    }
    ...
    boost::asio::streambuf b;
    boost::asio::read_until(s, b, match_whitespace);



    以下例子是持续读,直到读到特定字符为止:
    class match_char
    {
    public:
      explicit match_char(char c) : c_(c) {}


      template <typename Iterator>
      std::pair<Iterator, bool> operator()(
          Iterator begin, Iterator end) const
      {
        Iterator i = begin;
        while (i != end)
          if (c_ == *i++)
            return std::make_pair(i, true);
        return std::make_pair(i, false);
      }


    private:
      char c_;
    };


    namespace boost { namespace asio {
      template <> struct is_match_condition<match_char>
        : public boost::true_type {};
    } } // namespace boost::asio
    ...
    boost::asio::streambuf b;
    boost::asio::read_until(s, b, match_char('a'));



    自定义内存分配
    Asio很多地方都需要复制拷贝handlers,缺省情况下,使用new/delete,如果handlers提供


    void* asio_handler_allocate(size_t, ...);
    void asio_handler_deallocate(void*, size_t, ...);
    则会调用这两个函数来进行分配和释放。
    The implementation guarantees that the deallocation will occur before the associated handler is invoked, which means the memory is ready to be reused for any new asynchronous operations started by the handler.


    如果在完成函数中再发起一个异步请求,那么这块内存可以重用,也就是说,如果永远仅有一个异步请求在未完成的状态,那么仅需要一块内存就足够用于asio的handler copy了。


    The custom memory allocation functions may be called from any user-created thread that is calling a library function. The implementation guarantees that, for the asynchronous operations included the library, the implementation will not make concurrent calls to the memory allocation functions for that handler. The implementation will insert appropriate memory barriers to ensure correct memory visibility should allocation functions need to be called from different threads.


    以上这段不很清楚,不明白多线程环境下,asio_handler_allocate是否要考虑同步问题。


    Custom memory allocation support is currently implemented for all asynchronous operations with the following exceptions:


    ip::basic_resolver::async_resolve() on all platforms.
    basic_socket::async_connect() on Windows.
    Any operation involving null_buffers() on Windows, other than an asynchronous read performed on a stream-oriented socket.
    usidc5 2011-07-08 22:50
    boost::asio是一个高性能的网络开发库,Windows下使用IOCP,Linux下使用epoll。与ACE不同的是,它并没有提供一个网络框架,而是采取组件的方式来提供应用接口。但是对于常见的情况,采用一个好用的框架还是能够简化开发过程,特别是asio的各个异步接口的用法都相当类似。
      受到 SP Server 框架的影响,我使用asio大致实现了一个多线程的半异步半同步服务器框架,以下是利用它来实现一个Echo服务器:

    1. 实现回调:

      static void onSessionStarted(RequestPtr const& request, ResponsePtr const& response) {   request->setReadMode(Session::READ_LN); // 设置为行读取}static void onSession(RequestPtr const& request, ResponsePtr const& response) {   print(request->message()); //打印收到的消息   response->addReply(request->message()); //回送消息   response->close();}

    复制代码
    说明:close()是一个关闭请求,它并不马上关闭Session,而是等待所有与该Session相关的异步操作全部结束后才关闭。

    2. 一个单线程的Echo服务器:
      void server_main() {unsigned short port = 7;AsioService svc;AsioTcpServer tcp(svc, port);svc.callbacks().sessionStarted = &onSessionStarted;svc.callbacks().sessionHandle = &onSession;svc.run();}

    复制代码
    3. 一个多线程的Echo服务器(半异步半同步:一个主线程,4个工作者线程)
      void server_main2() {unsigned short port = 7;int num_threads = 4;AsioService svc;AsioService worker(AsioService::HAS_WORK);AsioTcpServer tcp(svc, port);svc.callbacks().sessionStarted = worker.wrap(&onSessionStarted);svc.callbacks().sessionHandle = worker.wrap(&onSession);AsioThreadPool thr(worker, num_threads);svc.run();}

    复制代码
      有了这样一个思路,实现起来就很容易了。重点是以下两点:
      1。缓冲区的管理与内存池的使用
      2。为了保证Session的线程安全,必须要设置一个挂起状态。
          
         还有一个好处,就是完全隔绝了asio的应用接口,不用再忍受asio漫长的编译时间了。代码就不贴在这里了,有兴趣的可以通过email 探讨。(说明,这里只提出一个思路,不再提供源代码,请各位见谅)
    usidc5 2011-07-08 22:54
    2. 同步Timer
    本章介绍asio如何在定时器上进行阻塞等待(blocking wait). 
    实现,我们包含必要的头文件. 
    所有的asio类可以简单的通过include "asio.hpp"来调用.
    #include <iostream>
    #include <boost/asio.hpp>
    此外,这个示例用到了timer,我们还要包含Boost.Date_Time的头文件来控制时间.
    #include <boost/date_time/posix_time/posix_time.hpp>
    使用asio至少需要一个boost::asio::io_service对象.该类提供了访问I/O的功能.我们首先在main函数中声明它.
    int main()
    {
        boost::asio::io_service io;
    下一步我们声明boost::asio::deadline_timer对象.这个asio的核心类提供I/O的功能(这里更确切的说是定时功能),总是把一个io_service对象作为他的第一个构造函数,而第二个构造函数的参数设定timer会在5秒后到时(expired).
    boost::asio::deadline_timer t(io, boost::posix_time::seconds(5));
    这个简单的示例中我们演示了定时器上的一个阻塞等待.就是说,调用boost::asio::deadline_timer::wait()的在创建后5秒内(注意:不是等待开始后),timer到时之前不会返回任何值. 
    一个deadline_timer只有两种状态:到时,未到时. 
    如果boost::asio::deadline_timer::wait()在到时的timer对象上调用,会立即return.
    t.wait();
    最后,我们输出理所当然的"Hello, world!"来演示timer到时了.
        std::cout << "Hello, world! ";
        return 0;
    }
    完整的代码:
    #include <iostream>
    #include <boost/asio.hpp>
    #include <boost/date_time/posix_time/posix_time.hpp>
    int main()
    {
        boost::asio::io_service io;
        boost::asio::deadline_timer t(io, boost::posix_time::seconds(5));
        t.wait();
        std::cout << "Hello, world! ";
        return 0;
    }

    3. 异步Timer
    #include <iostream>
    #include <asio.hpp>
    #include <boost/date_time/posix_time/posix_time.hpp>
    asio的异步函数会在一个异步操作完成后被回调.这里我们定义了一个将被回调的函数.
    void print(const asio::error& /*e*/)
    {
        std::cout << "Hello, world! ";
    }
    int main()
    {
        asio::io_service io;
        asio::deadline_timer t(io, boost::posix_time::seconds(5));
    这里我们调用asio::deadline_timer::async_wait()来异步等待
    t.async_wait(print);
    最后,我们必须调用asio::io_service::run(). 
    asio库只会调用那个正在运行的asio::io_service::run()的回调函数. 
    如果asio::io_service::run()不被调用,那么回调永远不会发生. 
    asio::io_service::run()会持续工作到点,这里就是timer到时,回调完成. 
    别忘了在调用 asio::io_service::run()之前设置好io_service的任务.比如,这里,如果我们忘记先调用asio::deadline_timer::async_wait()则asio::io_service::run()会在瞬间return.
        io.run();
        return 0;
    }
    完整的代码:
    #include <iostream>
    #include <asio.hpp>
    #include <boost/date_time/posix_time/posix_time.hpp>
    void print(const asio::error& /*e*/)
    {
        std::cout << "Hello, world! ";
    }
    int main()
    {
        asio::io_service io;
        asio::deadline_timer t(io, boost::posix_time::seconds(5));
        t.async_wait(print);
        io.run();
        return 0;
    }
    4. 回调函数的参数
    这里我们将每秒回调一次,来演示如何回调函数参数的含义
    #include <iostream>
    #include <asio.hpp>
    #include <boost/bind.hpp>
    #include <boost/date_time/posix_time/posix_time.hpp>
    首先,调整一下timer的持续时间,开始一个异步等待.显示,回调函数需要访问timer来实现周期运行,所以我们再介绍两个新参数
    指向timer的指针
    一个int*来指向计数器
    void print(const asio::error& /*e*/,
        asio::deadline_timer* t, int* count)
    {
    我们打算让这个函数运行6个周期,然而你会发现这里没有显式的方法来终止io_service.不过,回顾上一节,你会发现当 asio::io_service::run()会在所有任务完成时终止.这样我们当计算器的值达到5时(0为第一次运行的值),不再开启一个新的异步等待就可以了.
        if (*count < 5)
        {
            std::cout << *count << " ";
            ++(*count);
    ...
    然后,我们推迟的timer的终止时间.通过在原先的终止时间上增加延时,我们可以确保timer不会在处理回调函数所需时间内的到期. 
    (原文:By calculating the new expiry time relative to the old, we can ensure that the timer does not drift away from the whole-second mark due to any delays in processing the handler.)
    t->expires_at(t->expires_at() + boost::posix_time::seconds(1));
    然后我们开始一个新的同步等待.如您所见,我们用把print和他的多个参数用boost::bind函数合成一个的形为void(const asio::error&)回调函数(准确的说是function object). 
    在这个例子中, boost::bind的asio::placeholders::error参数是为了给回调函数传入一个error对象.当进行一个异步操作,开始 boost::bind时,你需要使用它来匹配回调函数的参数表.下一节中你会学到回调函数不需要error参数时可以省略它.
         t->async_wait(boost::bind(print,
            asio::placeholders::error, t, count));
        }
    }
    int main()
    {
        asio::io_service io;
        int count = 0;
        asio::deadline_timer t(io, boost::posix_time::seconds(1));
    和上面一样,我们再一次使用了绑定asio::deadline_timer::async_wait()
    t.async_wait(boost::bind(print,
        asio::placeholders::error, &t, &count));
    io.run();
    在结尾,我们打印出的最后一次没有设置timer的调用的count的值
        std::cout << "Final count is " << count << " ";
        return 0;
    }
    完整的代码:
    #include <iostream>
    #include <asio.hpp>
    #include <boost/bind.hpp>
    #include <boost/date_time/posix_time/posix_time.hpp>
    void print(const asio::error& /*e*/,
      bsp;     asio::deadline_timer* t, int* count)
    {
        if (*count < 5)
        {
            std::cout << *count << " ";
            ++(*count);
            t->expires_at(t->expires_at() + boost::posix_time::seconds(1));
            t->async_wait(boost::bind(print,
                        asio::placeholders::error, t, count));
        }
    }
    int main()
    {
        asio::io_service io;
        int count = 0;
        asio::deadline_timer t(io, boost::posix_time::seconds(1));
        t.async_wait(boost::bind(print,
                    asio::placeholders::error, &t, &count));
        io.run();
        std::cout << "Final count is " << count << " ";
        return 0;
    }

    5. 成员函数作为回调函数
    本例的运行结果和上一节类似
    #include <iostream>
    #include <boost/asio.hpp>
    #include <boost/bind.hpp>
    #include <boost/date_time/posix_time/posix_time.hpp>
    我们先定义一个printer类
    class printer
    {
    public:
    //构造函数有一个io_service参数,并且在初始化timer_时用到了它.用来计数的count_这里同样作为了成员变量
        printer(boost::asio::io_service& io)
            : timer_(io, boost::posix_time::seconds(1)),
                count_(0)
        {
    boost::bind 同样可以出色的工作在成员函数上.众所周知,所有的非静态成员函数都有一个隐式的this参数,我们需要把this作为参数bind到成员函数上.和上一节类似,我们再次用bind构造出void(const boost::asio::error&)形式的函数. 
    注意,这里没有指定boost::asio::placeholders::error占位符,因为这个print成员函数没有接受一个error对象作为参数.
    timer_.async_wait(boost::bind(&printer::print, this));

    在类的折构函数中我们输出最后一次回调的count的值
    ~printer()
    {
        std::cout << "Final count is " << count_ << " ";
    }


    print函数于上一节的十分类似,但是用成员变量取代了参数.
        void print()
        {
            if (count_ < 5)
            {
                std::cout << count_ << " ";
                ++count_;
                timer_.expires_at(timer_.expires_at() + boost::posix_time::seconds(1));
                timer_.async_wait(boost::bind(&printer::print, this));
            }
        }
    private:
        boost::asio::deadline_timer timer_;
        int count_;
    };

    现在main函数清爽多了,在运行io_service之前只需要简单的定义一个printer对象.
    int main()
    {
        boost::asio::io_service io;
        printer p(io);
        io.run();
        return 0;
    }
    完整的代码:
    #include <iostream>
    #include <boost/asio.hpp>
    #include <boost/bind.hpp>
    #include <boost/date_time/posix_time/posix_time.hpp>
    class printer
    {
        public:
            printer(boost::asio::io_service& io)
                : timer_(io, boost::posix_time::seconds(1)),
                count_(0)
        {
            timer_.async_wait(boost::bind(&printer::print, this));
        }
            ~printer()
            {
                std::cout << "Final count is " << count_ << " ";
            }
            void print()
            {
                if (count_ < 5)
                {
                    std::cout << count_ << " ";
                    ++count_;
                    timer_.expires_at(timer_.expires_at() + boost::posix_time::seconds(1));
                    timer_.async_wait(boost::bind(&printer::print, this));
                }
            }
        private:
            boost::asio::deadline_timer timer_;
            int count_;
    };
    int main()
    {
        boost::asio::io_service io;
        printer p(io);
        io.run();
        return 0;
    }


    6. 多线程回调同步
    本节演示了使用boost::asio::strand在多线程程序中进行回调同步(synchronise). 
    先前的几节阐明了如何在单线程程序中用boost::asio::io_service::run()进行同步.如您所见,asio库确保 仅当当前线程调用boost::asio::io_service::run()时产生回调.显然,仅在一个线程中调用 boost::asio::io_service::run() 来确保回调是适用于并发编程的. 
    一个基于asio的程序最好是从单线程入手,但是单线程有如下的限制,这一点在服务器上尤其明显:
    当回调耗时较长时,反应迟钝.
    在多核的系统上无能为力
    如果你发觉你陷入了这种困扰,可以替代的方法是建立一个boost::asio::io_service::run()的线程池.然而这样就允许回调函数并发执行.所以,当回调函数需要访问一个共享,线程不安全的资源时,我们需要一种方式来同步操作.
    #include <iostream>
    #include <boost/asio.hpp>
    #include <boost/thread.hpp>
    #include <boost/bind.hpp>
    #include <boost/date_time/posix_time/posix_time.hpp>
    在上一节的基础上我们定义一个printer类,此次,它将并行运行两个timer
    class printer
    {
    public:
    除了声明了一对boost::asio::deadline_timer,构造函数也初始化了类型为boost::asio::strand的strand_成员. 
    boost::asio::strand 可以分配的回调函数.它保证无论有多少线程调用了boost::asio::io_service::run(),下一个回调函数仅在前一个回调函数完成后开始,当然回调函数仍然可以和那些不使用boost::asio::strand分配,或是使用另一个boost::asio::strand分配的回调函数一起并发执行.
    printer(boost::asio::io_service& io)
        : strand_(io),
        timer1_(io, boost::posix_time::seconds(1)),
        timer2_(io, boost::posix_time::seconds(1)),
        count_(0)
    {
    当一个异步操作开始时,用boost::asio::strand来 "wrapped(包装)"回调函数.boost::asio::strand::wrap()会返回一个由boost::asio::strand分配的新的handler(句柄),这样,我们可以确保它们不会同时运行.
        timer1_.async_wait(strand_.wrap(boost::bind(&printer::print1, this)));
        timer2_.async_wait(strand_.wrap(boost::bind(&printer::print2, this)));
    }
    ~printer()
    {
        std::cout << "Final count is " << count_ << " ";
    }


    多线程程序中,回调函数在访问共享资源前需要同步.这里共享资源是std::cout 和count_变量. 
        void print1()
        {
            if (count_ < 10)
            {
                std::cout << "Timer 1: " << count_ << " ";
                ++count_;
                timer1_.expires_at(timer1_.expires_at() + boost::posix_time::seconds(1));
                timer1_.async_wait(strand_.wrap(boost::bind(&printer::print1, this)));
            }
        }
        void print2()
        {
            if (count_ < 10)
            {
                std::cout << "Timer 2: " << count_ << " ";
                ++count_;
                timer2_.expires_at(timer2_.expires_at() + boost::posix_time::seconds(1));
                timer2_.async_wait(strand_.wrap(boost::bind(&printer::print2, this)));
            }
        }
    private:
        boost::asio::strand strand_;
        boost::asio::deadline_timer timer1_;
        boost::asio::deadline_timer timer2_;
        int count_;
    };
    main函数中boost::asio::io_service::run()在两个线程中被调用:主线程、一个boost::thread线程. 
    正如单线程中那样,并发的boost::asio::io_service::run()会一直运行直到完成任务.后台的线程将在所有异步线程完成后终结. 
    int main()
    {
        boost::asio::io_service io;
        printer p(io);
        boost::thread t(boost::bind(&boost::asio::io_service::run, &io));
        io.run();
        t.join();
        return 0;
    }
    完整的代码:
    #include <iostream>
    #include <boost/asio.hpp>
    #include <boost/thread.hpp>
    #include <boost/bind.hpp>
    #include <boost/date_time/posix_time/posix_time.hpp>
    class printer
    {
    public:
            printer(boost::asio::io_service& io)
                : strand_(io),
                timer1_(io, boost::posix_time::seconds(1)),
                timer2_(io, boost::posix_time::seconds(1)),
                count_(0)
        {
            timer1_.async_wait(strand_.wrap(boost::bind(&printer::print1, this)));
            timer2_.async_wait(strand_.wrap(boost::bind(&printer::print2, this)));
        }
            ~printer()
            {
                std::cout << "Final count is " << count_ << " ";
            }
            void print1()
            {
                if (count_ < 10)
                {
                    std::cout << "Timer 1: " << count_ << " ";
                    ++count_;
                    timer1_.expires_at(timer1_.expires_at() + boost::posix_time::seconds(1));
                    timer1_.async_wait(strand_.wrap(boost::bind(&printer::print1, this)));
                }
            }
            void print2()
            {
                if (count_ < 10)
                {
                    std::cout << "Timer 2: " << count_ << " ";
                    ++count_;
                    timer2_.expires_at(timer2_.expires_at() + boost::posix_time::seconds(1));
                    timer2_.async_wait(strand_.wrap(boost::bind(&printer::print2, this)));
                }
            }
    private:
            boost::asio::strand strand_;
            boost::asio::deadline_timer timer1_;
            boost::asio::deadline_timer timer2_;
            int count_;
    };
    int main()
    {
        boost::asio::io_service io;
        printer p(io);
        boost::thread t(boost::bind(&boost::asio::io_service::run, &io));
        io.run();
        t.join();
        return 0;
    }



    7. TCP客户端:对准时间
    #include <iostream>
    #include <boost/array.hpp>
    #include <boost/asio.hpp>
    本程序的目的是访问一个时间同步服务器,我们需要用户指定一个服务器(如time-nw.nist.gov),用IP亦可. 
    (译者注:日期查询协议,这种时间传输协议不指定固定的传输格式,只要求按照ASCII标准发送数据。)
    using boost::asio::ip::tcp;
    int main(int argc, char* argv[])
    {
        try
        {
            if (argc != 2)
            {
                std::cerr << "Usage: client <host>" << std::endl;
                return 1;
                }
    用asio进行网络连接至少需要一个boost::asio::io_service对象
    boost::asio::io_service io_service;


    我们需要把在命令行参数中指定的服务器转换为TCP上的节点.完成这项工作需要boost::asio::ip::tcp::resolver对象
    tcp::resolver resolver(io_service);


    一个resolver对象查询一个参数,并将其转换为TCP上节点的列表.这里我们把argv[1]中的sever的名字和要查询字串daytime关联.
    tcp::resolver::query query(argv[1], "daytime");


    节点列表可以用 boost::asio::ip::tcp::resolver::iterator 来进行迭代.iterator默认的构造函数生成一个end iterator.
    tcp::resolver::iterator endpoint_iterator = resolver.resolve(query);
    tcp::resolver::iterator end;
    现在我们建立一个连接的sockert,由于获得节点既有IPv4也有IPv6的.所以,我们需要依次尝试他们直到找到一个可以正常工作的.这步使得我们的程序独立于IP版本
    tcp::socket socket(io_service);
    boost::asio::error error = boost::asio::error::host_not_found;
    while (error && endpoint_iterator != end)
    {
        socket.close();
        socket.connect(*endpoint_iterator++, boost::asio::assign_error(error));
    }
    if (error)
        throw error;
    连接完成,我们需要做的是读取daytime服务器的响应. 
    我们用boost::array来保存得到的数据,boost::asio::buffer()会自动根据array的大小暂停工作,来防止缓冲溢出.除了使用boost::array,也可以使用char [] 或std::vector.
    for (;;)
    {
        boost::array<char, 128> buf;
        boost::asio::error error;
        size_t len = socket.read_some(
            boost::asio::buffer(buf), boost::asio::assign_error(error));
    当服务器关闭连接时,boost::asio::ip::tcp::socket::read_some()会用boost::asio::error::eof标志完成, 这时我们应该退出读取循环了.
    if (error == boost::asio::error::eof)
        break; // Connection closed cleanly by peer.
    else if (error)
        throw error; // Some other error.
    std::cout.write(buf.data(), len);

    如果发生了什么异常我们同样会抛出它
    }
    catch (std::exception& e)
    {
        std::cerr << e.what() << std::endl;
    }


    运行示例:在windowsXP的cmd窗口下 
    输入:upload.exe time-a.nist.gov
    输出:54031 06-10-23 01:50:45 07 0 0 454.2 UTC(NIST) *
    完整的代码:
    #include <iostream>
    #include <boost/array.hpp>
    #include <asio.hpp>
    using asio::ip::tcp;
    int main(int argc, char* argv[])
    {
        try
        {
            if (argc != 2)
            {
                std::cerr << "Usage: client <host>" << std::endl;
                return 1;
            }
            asio::io_service io_service;
            tcp::resolver resolver(io_service);
            tcp::resolver::query query(argv[1], "daytime");
            tcp::resolver::iterator endpoint_iterator = resolver.resolve(query);
            tcp::resolver::iterator end;
            tcp::socket socket(io_service);
            asio::error error = asio::error::host_not_found;
            while (error && endpoint_iterator != end)
            {
                socket.close();
                socket.connect(*endpoint_iterator++, asio::assign_error(error));
            }
            if (error)
                throw error;
            for (;;)
            {
                boost::array<char, 128> buf;
                asio::error error;
                size_t len = socket.read_some(
                        asio::buffer(buf), asio::assign_error(error));
                if (error == asio::error::eof)
                    break; // Connection closed cleanly by peer.
                else if (error)
                    throw error; // Some other error.
                std::cout.write(buf.data(), len);
            }
        }
        catch (std::exception& e)
        {
            std::cerr << e.what() << std::endl;
        }
        return 0;
    }

    8. TCP同步时间服务器
    #include <ctime>
    #include <iostream>
    #include <string>
    #include <asio.hpp>
    using asio::ip::tcp;
    我们先定义一个函数返回当前的时间的string形式.这个函数会在我们所有的时间服务器示例上被使用.
    std::string make_daytime_string()
    {
        using namespace std; // For time_t, time and ctime;
        time_t now = time(0);
        return ctime(&now);
    }
    int main()
    {
        try
        {
            asio::io_service io_service;
    新建一个asio::ip::tcp::acceptor对象来监听新的连接.我们监听TCP端口13,IP版本为V4
    tcp::acceptor acceptor(io_service, tcp::endpoint(tcp::v4(), 13));


    这是一个iterative server,也就是说同一时间只能处理一个连接.建立一个socket来表示一个和客户端的连接, 然后等待客户端的连接.
    for (;;)
    {
        tcp::socket socket(io_service);
        acceptor.accept(socket);
    当客户端访问服务器时,我们获取当前时间,然后返回它.
            std::string message = make_daytime_string();
            asio::write(socket, asio::buffer(message),
                asio::transfer_all(), asio::ignore_error());
        }
    }
    最后处理异常
    catch (std::exception& e)
        {
            std::cerr << e.what() << std::endl;
        }
        return 0;

    运行示例:运行服务器,然后运行上一节的客户端,在windowsXP的cmd窗口下 
    输入:client.exe 127.0.0.1 
    输出:Mon Oct 23 09:44:48 2006
    完整的代码:
    #include <ctime>
    #include <iostream>
    #include <string>
    #include <asio.hpp>
    using asio::ip::tcp;
    std::string make_daytime_string()
    {
        using namespace std; // For time_t, time and ctime;
        time_t now = time(0);
        return ctime(&now);
    }
    int main()
    {
        try
        {
            asio::io_service io_service;
            tcp::acceptor acceptor(io_service, tcp::endpoint(tcp::v4(), 13));
            for (;;)
            {
                tcp::socket socket(io_service);
                acceptor.accept(socket);
                std::string message = make_daytime_string();
                asio::write(socket, asio::buffer(message),
                        asio::transfer_all(), asio::ignore_error());
            }
        }
        catch (std::exception& e)
        {
            std::cerr << e.what() << std::endl;
        }
        return 0;
    }
    usidc5 2011-07-08 22:55


    构造函数


    构造函数的主要动作就是调用CreateIoCompletionPort创建了一个初始iocp。


    Dispatch和post的区别


    Post一定是PostQueuedCompletionStatus并且在GetQueuedCompletionStatus 之后执行。


    Dispatch会首先检查当前thread是不是io_service.run/runonce/poll/poll_once线程,如果是,则直接运行。


    poll和run的区别


    两者代码几乎一样,都是首先检查是否有outstanding的消息,如果没有直接返回,否则调用do_one()。唯一的不同是在调用size_t do_one(bool block, boost::system::error_code& ec)时前者block = false,后者block = true。


    该参数的作用体现在:


    BOOL ok = ::GetQueuedCompletionStatus(iocp_.handle, &bytes_transferred,


    &completion_key, &overlapped, block ? timeout : 0);


    因此可以看出,poll处理的是已经完成了的消息,也即GetQueuedCompletionStatus立刻能返回的。而run则会导致等待。


    poll 的作用是依次处理当前已经完成了的消息,直到所有已经完成的消息处理完成为止。如果没有已经完成了得消息,函数将退出。poll不会等待。这个函数有点类似于PeekMessage。鉴于PeekMessage很少用到,poll的使用场景我也有点疑惑。poll的一个应用场景是如果希望handler的处理有优先级,也即,如果消息完成速度很快,同时可能完成多个消息,而消息的处理过程可能比较耗时,那么可以在完成之后的消息处理函数中不真正处理数据,而是把handler保存在队列中,然后按优先级统一处理。代码如下:


    while (io_service.run_one()) { 
        // The custom invocation hook adds the handlers to the priority queue 
        // rather than executing them from within the poll_one() call. 
        while (io_service.poll_one())      ;
        pri_queue.execute_all(); }


    循环执行poll_one让已经完成的消息的wrap_handler处理完毕,也即插入一个队列中,然后再统一处理之。这里的wrap_handler是一个class,在post的时候,用如下代码:


    io_service.post(pri_queue.wrap(0, low_priority_handler));或者 acceptor.async_accept(server_socket, pri_queue.wrap(100, high_priority_handler));


    template <typename Handler> wrapped_handler<Handler> handler_priority_queue::wrap(int priority, Handler handler) 
    {    return wrapped_handler<Handler>(*this, priority, handler); }


    参见boost_asio/example/invocation/prioritised_handlers.cpp


    这个sample也同时表现了wrap的使用场景。


    也即把handler以及参数都wrap成一个object,然后把object插入一个队列,在pri_queue.execute_all中按优先级统一处理。


    run的作用是处理消息,如果有消息未完成将一直等待到所有消息完成并处理之后才退出。


    reset和stop


    文档中reset的解释是重置io_service以便下一次调用。


    当 run,run_one,poll,poll_one是被stop掉导致退出,或者由于完成了所有任务(正常退出)导致退出时,在调用下一次 run,run_one,poll,poll_one之前,必须调用此函数。reset不能在run,run_one,poll,poll_one正在运行时调用。如果是消息处理handler(用户代码)抛出异常,则可以在处理之后直接继续调用 io.run,run_one,poll,poll_one。 例如:


    boost::asio::io_service io_service;  
    ...  
    for (;;){  
      try 
      {  
        io_service.run();  
        break; // run() exited normally  
      }  
      catch (my_exception& e)  
      {  
        // Deal with exception as appropriate.  
      }  

    在抛出了异常的情况下,stopped_还没来得及被asio设置为1,所以无需调用reset。
    reset函数的代码仅有一行:


    void reset()  
    {  
    ::InterlockedExchange(&stopped_, 0);  

    也即,当io.stop时,会设置stopped_=1。当完成所有任务时,也会设置。


    总的来说,单线程情况下,不管io.run是如何退出的,在下一次调用io.run之前调用一次reset没有什么坏处。例如:


    for(;;)  
    {  
    try 
    {  
    io.run();  
    }  
    catch(…)  
    {  
    }  
    io.reset();  
    }  

    如果是多线程在运行io.run,则应该小心,因为reset必须是所有的run,run_one,poll,poll_one退出后才能调用。


    文档中的stop的解释是停止io_service的处理循环。


    此函数不是阻塞函数,也即,它仅仅只是给iocp发送一个退出消息而并不是等待其真正退出。因为poll和poll_one本来就不等待(GetQueuedCompletionStatus时timeout = 0),所以此函数对poll和poll_one无意义。对于run_one来说,如果该事件还未完成,则run_one会立刻返回。如果该事件已经完成,并且还在处理中,则stop并无特殊意义(会等待handler完成后自然退出)。对于run来说,stop的调用会导致run中的 GetQueuedCompletionStatus立刻返回。并且由于设置了stopped = 1,此前完成的消息的handlers也不会被调用。考虑一下这种情况:在io.stop之前,有1k个消息已经完成但尚未处理,io.run正在依次从 GetQueuedCompletionStatus中获得信息并且调用handlers,调用io.stop设置stopped=1将导致后许 GetQueuedCompletionStatus返回的消息直接被丢弃,直到收到退出消息并退出io.run为止。


    void stop()  
    {  
    if (::InterlockedExchange(&stopped_, 1) == 0)  
    {  
    if (!::PostQueuedCompletionStatus(iocp_.handle, 0, 0, 0))  
    {  
    DWORD last_error = ::GetLastError();  
    boost::system::system_error e(  
    boost::system::error_code(last_error,  
    boost::asio::error::get_system_category()),  
    "pqcs");  
    boost::throw_exception(e);  
    }  
    }  

    注意除了让当前代码退出之外还有一个副作用就是设置了stopped_=1。这个副作用导致在stop之后如果不调用reset,所有run,run_one,poll,poll_one都将直接退出。


    另一个需要注意的是,stop会导致所有未完成的消息以及完成了但尚未处理得消息都直接被丢弃,不会导致handlers倍调用。


    注意这两个函数都不会CloseHandle(iocp.handle_),那是析构函数干的事情。


    注意此处有个细节:一次PostQueuedCompletionStatus仅导致一次 GetQueuedCompletionStatus返回,那么如果有多个thread此时都在io.run,并且block在 GetQueuedCompletionStatus时,调用io.stop将PostQueuedCompletionStatus并且导致一个 thread的GetQueuedCompletionStatus返回。那么其他的thread呢?进入io_service的do_one(由run 函数调用)代码可以看到,当GetQueuedCompletionStatus返回并且发现是退出消息时,会再发送一次 PostQueuedCompletionStatus。代码如下:


    else 
    {  
        // Relinquish responsibility for dispatching timers. If the io_service  
        // is not being stopped then the thread will get an opportunity to  
        // reacquire timer responsibility on the next loop iteration.  
        if (dispatching_timers)  
        {  
          ::InterlockedCompareExchange(&timer_thread_, 0, this_thread_id);  
        }  
        // The stopped_ flag is always checked to ensure that any leftover  
        // interrupts from a previous run invocation are ignored.  

        if (::InterlockedExchangeAdd(&stopped_, 0) != 0)  
        {  
          // Wake up next thread that is blocked on GetQueuedCompletionStatus.  
          if (!::PostQueuedCompletionStatus(iocp_.handle, 0, 0, 0))  
          {  
            last_error = ::GetLastError();  
            ec = boost::system::error_code(last_error,  
                boost::asio::error::get_system_category());  
            return 0;  
          }  
          ec = boost::system::error_code();  
          return 0;  
        }  
    }  

    Wrap


    这个函数是一个语法糖。


    Void func(int a);


    io_service.wrap(func)(a);


    相当于io_service.dispatch(bind(func,a));


    可以保存io_service.wrap(func)到g,以便在稍后某些时候调用g(a);


    例如:


    socket_.async_read_some(boost::asio::buffer(buffer_),      strand_.wrap( 
            boost::bind(&connection::handle_read, shared_from_this(), 
              boost::asio::placeholders::error, 
              boost::asio::placeholders::bytes_transferred)));


    这是一个典型的wrap用法。注意async_read_some要求的参数是一个handler,在read_some结束后被调用。由于希望真正被调用的handle_read是串行化的,在这里再post一个消息给io_service。以上代码类似于:


    void A::func(error,bytes_transferred)  
    {  
    strand_.dispatch(boost::bind(handle_read,shared_from_this(),error,bytes_transferred);  
    }  
    socket_.async_read_some(boost::asio::buffer(buffer_), func); 
    注意1点:


    io_service.dispatch(bind(func,a1,…an)),这里面都是传值,无法指定bind(func,ref(a1)…an)); 所以如果要用ref语义,则应该在传入wrap时显式指出。例如:


    void func(int& i){i+=1;}  
    void main()  
    {  
    int i = 0;  
    boost::asio::io_service io;  
    io.wrap(func)(boost::ref(i));  
    io.run();  
    printf("i=%d/n");  

    当然在某些场合下,传递shared_ptr也是可以的(也许更好)。


    从handlers抛出的异常的影响


    当handlers抛出异常时,该异常会传递到本线程最外层的io.run,run_one,poll,poll_one,不会影响其他线程。捕获该异常是程序员自己的责任。


    例如:





    boost::asio::io_service io_service;  

    Thread1,2,3,4()  
    {  
    for (;;)  
    {  
    try 
    {  
    io_service.run();  
    break; // run() exited normally  
    }  
    catch (my_exception& e)  
    {  
    // Deal with exception as appropriate.  
    }  
    }  
    }  

    Void func(void)  
    {  
    throw 1;  
    }  

    Thread5()  
    {  
    io_service.post(func);  

    注意这种情况下无需调用io_service.reset()。


    这种情况下也不能调用reset,因为调用reset之前必须让所有其他线程正在调用的io_service.run退出。(reset调用时不能有任何run,run_one,poll,poll_one正在运行)


    Work


    有些应用程序希望在没有pending的消息时,io.run也不退出。比如io.run运行于一个后台线程,该线程在程序的异步请求发出之前就启动了。


    可以通过如下代码实现这种需求:


    main()  
    {  
    boost::asio::io_service io_service;  
    boost::asio::io_service::work work(io_service);  
    Create thread 
    Getchar();  
    }  

    Thread()  
    {  
    Io_service.run();  

    这种情况下,如果work不被析构,该线程永远不会退出。在work不被析构得情况下就让其退出,可以调用io.stop。这将导致 io.run立刻退出,所有未完成的消息都将丢弃。已完成的消息(但尚未进入handler的)也不会调用其handler函数(由于在stop中设置了 stopped_= 1)。


    如果希望所有发出的异步消息都正常处理之后io.run正常退出,work对象必须析构,或者显式的删除。


    boost::asio::io_service io_service;  
    auto_ptr<boost::asio::io_service::work> work(  
    new boost::asio::io_service::work(io_service));  

    ...  

    work.reset(); // Allow run() to normal exit. 
    work是一个很小的辅助类,只支持构造函数和析构函数。(还有一个get_io_service返回所关联的io_service)


    代码如下:


    inline io_service::work::work(boost::asio::io_service& io_service)  
    : io_service_(io_service)  
    {  
    io_service_.impl_.work_started();  
    }  

    inline io_service::work::work(const work& other)  
    : io_service_(other.io_service_)  
    {  
    io_service_.impl_.work_started();  
    }  

    inline io_service::work::~work()  
    {  
    io_service_.impl_.work_finished();  
    }  

    void work_started()  
    {  
    ::InterlockedIncrement(&outstanding_work_);  
    }  

    // Notify that some work has finished.  
    void work_finished()  
    {  
    if (::InterlockedDecrement(&outstanding_work_) == 0)  
    stop();  
    }  
    可以看出构造一个work时,outstanding_work_+1,使得io.run在完成所有异步消息后判断outstanding_work_时不会为0,因此会继续调用GetQueuedCompletionStatus并阻塞在这个函数上。


    而析构函数中将其-1,并判断其是否为0,如果是,则post退出消息给GetQueuedCompletionStatus让其退出。


    因此work如果析构,则io.run会在处理完所有消息之后正常退出。work如果不析构,则io.run会一直运行不退出。如果用户直接调用io.stop,则会让io.run立刻退出。


    特别注意的是,work提供了一个拷贝构造函数,因此可以直接在任意地方使用。对于一个io_service来说,有多少个work实例关联,则outstanding_work_就+1了多少次,只有关联到同一个io_service的work全被析构之后,io.run才会在所有消息处理结束之后正常退出。


    strand


    strand是另一个辅助类,提供2个接口dispatch和post,语义和io_service的dispatch和post类似。区别在于,同一个strand所发出的dispatch和post绝对不会并行执行,dispatch和post所包含的handlers也不会并行。因此如果希望串行处理每一个tcp连接,则在accept之后应该在该连接的数据结构中构造一个strand,并且所有dispatch/post(recv /send)操作都由该strand发出。strand的作用巨大,考虑如下场景:有多个thread都在执行async_read_some,那么由于线程调度,很有可能后接收到的包先被处理,为了避免这种情况,就只能收完数据后放入一个队列中,然后由另一个线程去统一处理。


    void connection::start()   
    {   
    socket_.async_read_some(boost::asio::buffer(buffer_),   
    strand_.wrap(   
    boost::bind(&connection::handle_read, shared_from_this(),   
    boost::asio::placeholders::error,   
    boost::asio::placeholders::bytes_transferred)));   

    不使用strand的处理方式:


    前端tcp iocp收包,并且把同一个tcp连接的包放入一个list,如果list以前为空,则post一个消息给后端vnn iocp。后端vnn iocp收到post的消息后循环从list中获取数据,并且处理,直到list为空为止。处理结束后重新调用 GetQueuedCompletionStatus进入等待。如果前端tcp iocp发现list过大,意味着处理速度小于接收速度,则不再调用iocpRecv,并且设置标志,当vnn iocp thread处理完了当前所有积压的数据包后,检查这个标志,重新调用一次iocpRecv。


    使用strand的处理方式:


    前端tcp iocp收包,收到包后直接通过strand.post(on_recved)发给后端vnn iocp。后端vnn iocp处理完之后再调用一次strand.async_read_some。


    这两种方式我没看出太大区别来。如果对数据包的处理的确需要阻塞操作,例如db query,那么使用后端iocp以及后端thread是值得考虑的。这种情况下,前端iocp由于仅用来异步收发数据,因此1个thread就够了。在确定使用2级iocp的情况下,前者似乎更为灵活,也没有增加什么开销。


    值得讨论的是,如果后端多个thread都处于db query状态,那么实际上此时依然没有thread可以提供数据处理服务,因此2级iocp意义其实就在于在这种情况下,前端tcp iocp依然可以accept,以及recv第一次数据,不会导致用户connect不上的情况。在后端thread空闲之后会处理这期间的recv到的数据并在此async_read_some。


    如果是单级iocp(假定handlers没有阻塞操作),多线程,那么strand的作用很明显。这种情况下,很明显应该让一个tcp连接的数据处理过程串行化。


    Strand的实现原理


    Strand内部实现机制稍微有点复杂。每次发出strand请求(例如 async_read(strand_.wrap(funobj1))),strand再次包裹了一次成为funobj2。在async_read完成时,系统调用funobj2,检查是否正在执行该strand所发出的完成函数(检查该strand的一个标志位),如果没有,则直接调用 funobj2。如果有,则检查是否就是当前thread在执行,如果是,则直接调用funobj2(这种情况可能发生在嵌套调用的时候,但并不产生同步问题,就像同一个thread可以多次进入同一个critical_session一样)。如果不是,则把该funobj2插入到strand内部维护的一个队列中。

    usidc5 2011-07-13 18:18


    最近在设计一个多线程分块支持续传的http的异步客户端时, 测试部门经常发现http下载模
    块退出时偶尔会卡住, 在win7系统上由为明显. 反复检查代码, 并未明显问题, 于是专门写
    了一个反复退出的单元测试, 立即发现问题, 并定位在io_service的析构函数中, 奇怪的是, 
    我的投递io的所有socket都早已经关闭, run线程也已经退出, 按理说, 这时的io_service的
    outstanding_work_应该为0才是, 可我一看它却是1, 于是始终在win_iocp_io_service.hpp的
    shutdown_service里一直循环调用GetQueuedCompletionStatus, 从而导致无法正常退出...
    很明显, 这是asio对outstanding_work_计数维护的有问题, 为了解决
    问题, 于是我很快想到不使用iocp, 添加宏BOOST_ASIO_DISABLE_IOCP一切就正常了...
    由于自己使用的是boost.1.45版本, 于是换了个boost.1.46.1再试试, 结果一样. 难道这么严
    重的bug跨在了这两个非常重要的发行版本上而没人知道?
    在官方的邮件列表中细节检查, 终于看到了某人的bug报告和我描述的情况差不多, 而且
    在那个人报告了bug的第二天, asio作者就发布了补丁, 但这个补丁并未更新到boost.1.45
    和boost.1.46中, 唉, 这两个版本可是大版本啊, 估计受害人不少...
    不过幸运的是, 我在boost的主分枝中看到了修正的代码.
    下面是这个补丁内容:


    From 81a6a51c0cb66de6bc77e1fa5dcd46b2794995e4 Mon Sep 17 00:00:00 2001
    From: Christopher Kohlhoff <chris@kohlhoff.com>
    Date: Wed, 23 Mar 2011 15:03:56 +1100
    Subject: [PATCH] On Windows, ensure the count of outstanding work is decremented for
    abandoned operations (i.e. operations that are being cleaned up within
    the io_service destructor).


    ---
    asio/include/asio/detail/impl/dev_poll_reactor.ipp |    2 ++
    asio/include/asio/detail/impl/epoll_reactor.ipp    |    2 ++
    asio/include/asio/detail/impl/kqueue_reactor.ipp   |    2 ++
    asio/include/asio/detail/impl/select_reactor.ipp   |    2 ++
    .../asio/detail/impl/signal_set_service.ipp        |    2 ++
    asio/include/asio/detail/impl/task_io_service.ipp  |    7 +++++++
    .../asio/detail/impl/win_iocp_io_service.ipp       |   11 +++++++++++
    asio/include/asio/detail/task_io_service.hpp       |    4 ++++
    asio/include/asio/detail/win_iocp_io_service.hpp   |    4 ++++
    9 files changed, 36 insertions(+), 0 deletions(-)


    diff --git a/asio/include/asio/detail/impl/dev_poll_reactor.ipp b/asio/include/asio/detail/impl/dev_poll_reactor.ipp
    index 06d89ea..2a01993 100644
    --- a/asio/include/asio/detail/impl/dev_poll_reactor.ipp
    +++ b/asio/include/asio/detail/impl/dev_poll_reactor.ipp
    @@ -63,6 +63,8 @@ void dev_poll_reactor::shutdown_service()
         op_queue_.get_all_operations(ops);

       timer_queues_.get_all_timers(ops);
    +
    +  io_service_.abandon_operations(ops);


    // Helper class to re-register all descriptors with /dev/poll.
    diff --git a/asio/include/asio/detail/impl/epoll_reactor.ipp b/asio/include/asio/detail/impl/epoll_reactor.ipp
    index 22f567a..d08dedb 100644
    --- a/asio/include/asio/detail/impl/epoll_reactor.ipp
    +++ b/asio/include/asio/detail/impl/epoll_reactor.ipp
    @@ -84,6 +84,8 @@ void epoll_reactor::shutdown_service()
       }

       timer_queues_.get_all_timers(ops);
    +
    +  io_service_.abandon_operations(ops);
    }

    void epoll_reactor::fork_service(asio::io_service::fork_event fork_ev)
    diff --git a/asio/include/asio/detail/impl/kqueue_reactor.ipp b/asio/include/asio/detail/impl/kqueue_reactor.ipp
    index f0cdf73..45aff60 100644
    --- a/asio/include/asio/detail/impl/kqueue_reactor.ipp
    +++ b/asio/include/asio/detail/impl/kqueue_reactor.ipp
    @@ -74,6 +74,8 @@ void kqueue_reactor::shutdown_service()
       }

       timer_queues_.get_all_timers(ops);
    +
    +  io_service_.abandon_operations(ops);
    }

    void kqueue_reactor::fork_service(asio::io_service::fork_event fork_ev)
    diff --git a/asio/include/asio/detail/impl/select_reactor.ipp b/asio/include/asio/detail/impl/select_reactor.ipp
    index f4e0314..00fd9fc 100644
    --- a/asio/include/asio/detail/impl/select_reactor.ipp
    +++ b/asio/include/asio/detail/impl/select_reactor.ipp
    @@ -81,6 +81,8 @@ void select_reactor::shutdown_service()
         op_queue_.get_all_operations(ops);

       timer_queues_.get_all_timers(ops);
    +
    +  io_service_.abandon_operations(ops);
    }

    void select_reactor::fork_service(asio::io_service::fork_event fork_ev)
    diff --git a/asio/include/asio/detail/impl/signal_set_service.ipp b/asio/include/asio/detail/impl/signal_set_service.ipp
    index f0f0e78..4cde184 100644
    --- a/asio/include/asio/detail/impl/signal_set_service.ipp
    +++ b/asio/include/asio/detail/impl/signal_set_service.ipp
    @@ -145,6 +145,8 @@ void signal_set_service::shutdown_service()
           reg = reg->next_in_table_;
         }
       }
    +
    +  io_service_.abandon_operations(ops);
    }

    void signal_set_service::fork_service(
    diff --git a/asio/include/asio/detail/impl/task_io_service.ipp b/asio/include/asio/detail/impl/task_io_service.ipp
    index cb585d5..0a2c6fa 100644
    --- a/asio/include/asio/detail/impl/task_io_service.ipp
    +++ b/asio/include/asio/detail/impl/task_io_service.ipp
    @@ -230,6 +230,13 @@ void task_io_service::post_deferred_completions(
       }
    }

    +void task_io_service::abandon_operations(
    +    op_queue<task_io_service::operation>& ops)
    +{
    +  op_queue<task_io_service::operation> ops2;
    +  ops2.push(ops);
    +}
    +
    std::size_t task_io_service::do_one(mutex::scoped_lock& lock,
         task_io_service::idle_thread_info* this_idle_thread)
    {
    diff --git a/asio/include/asio/detail/impl/win_iocp_io_service.ipp b/asio/include/asio/detail/impl/win_iocp_io_service.ipp
    index ca3125e..7aaa6b8 100644
    --- a/asio/include/asio/detail/impl/win_iocp_io_service.ipp
    +++ b/asio/include/asio/detail/impl/win_iocp_io_service.ipp
    @@ -262,6 +262,17 @@ void win_iocp_io_service::post_deferred_completions(
       }
    }

    +void win_iocp_io_service::abandon_operations(
    +    op_queue<win_iocp_operation>& ops)
    +{
    +  while (win_iocp_operation* op = ops.front())
    +  {
    +    ops.pop();
    +    ::InterlockedDecrement(&outstanding_work_);
    +    op->destroy();
    +  }
    +}
    +
    void win_iocp_io_service::on_pending(win_iocp_operation* op)
    {
       if (::InterlockedCompareExchange(&op->ready_, 1, 0) == 1)
    diff --git a/asio/include/asio/detail/task_io_service.hpp b/asio/include/asio/detail/task_io_service.hpp
    index 285d83e..654f83c 100644
    --- a/asio/include/asio/detail/task_io_service.hpp
    +++ b/asio/include/asio/detail/task_io_service.hpp
    @@ -105,6 +105,10 @@ public:
       // that work_started() was previously called for each operation.
       ASIO_DECL void post_deferred_completions(op_queue<operation>& ops);

    +  // Process unfinished operations as part of a shutdown_service operation.
    +  // Assumes that work_started() was previously called for the operations.
    +  ASIO_DECL void abandon_operations(op_queue<operation>& ops);
    +
    private:
       // Structure containing information about an idle thread.
       struct idle_thread_info;
    diff --git a/asio/include/asio/detail/win_iocp_io_service.hpp b/asio/include/asio/detail/win_iocp_io_service.hpp
    index a562834..b5d7f0b 100644
    --- a/asio/include/asio/detail/win_iocp_io_service.hpp
    +++ b/asio/include/asio/detail/win_iocp_io_service.hpp
    @@ -126,6 +126,10 @@ public:
       ASIO_DECL void post_deferred_completions(
           op_queue<win_iocp_operation>& ops);

    +  // Enqueue unfinished operation as part of a shutdown_service operation.
    +  // Assumes that work_started() was previously called for the operations.
    +  ASIO_DECL void abandon_operations(op_queue<operation>& ops);
    +
       // Called after starting an overlapped I/O operation that did not complete
       // immediately. The caller must have already called work_started() prior to
       // starting the operation.
    -- 
    1.7.0.1


    注: 在boost.asio中, 使用这个补丁时, 需要将ASIO_DECL 改成 BOOST_ ASIO_DECL 


    这是我第二次在使用asio的过程中, 发现的比较严重的bug了, 不过幸运的是, 每一次都能在官方的论坛 
    或邮件列表中找到解决方案. 


    结论, 再牛的人写的代码也会有bug, 个人非常崇拜asio的作者. 

    usidc5 2011-09-30 22:59
    在win32平台上,asio是基于IOCP技术实现的,我以前也用过IOCP,却没想到居然能扩展成这样,真是神奇!在其他平台下还会有别的方法去实现,具体见io_service类下面这部分的源码:
      // The type of the platform-specific implementation.
    #if defined(BOOST_ASIO_HAS_IOCP)
       typedef detail::win_iocp_io_service impl_type;
       friend class detail::win_iocp_overlapped_ptr;
    #elif defined(BOOST_ASIO_HAS_EPOLL)
       typedef detail::task_io_service<detail::epoll_reactor<false> > impl_type;
    #elif defined(BOOST_ASIO_HAS_KQUEUE)
       typedef detail::task_io_service<detail::kqueue_reactor<false> > impl_type;
    #elif defined(BOOST_ASIO_HAS_DEV_POLL)
       typedef detail::task_io_service<detail::dev_poll_reactor<false> > impl_type;
    #else
       typedef detail::task_io_service<detail::select_reactor<false> > impl_type;
    #endif
    这部分代码其实就在boost::asio::io_service类声明中的最前面几行,可以看见在不同平台下,io_service类的实现将会不同。很显然,windows平台下当然是win_iocp_io_service类为实现了(不过我一开始还以为win_iocp_io_service是直接拿出来用的呢,还在疑惑这样怎么有移植性呢?官方文档也对该类只字不提,其实我卡壳就是卡在这里了,差点就直接用这个类了^_^!)。

    那么就分析一下win_iocp_io_service的代码吧,这里完全是用IOCP来路由各种任务,大家使用post来委托任务,内部调用的其实是IOCP的PostQueuedCompletionStatus函数,然后线程们用run来接受任务,内部其实是阻塞在IOCP的GetQueuedCompletionStatus函数上,一旦有了任务就立即返回,执行完后再一个循环,继续阻塞在这里等待下一个任务的到来,这种设计思想堪称神奇,对线程、服务以及任务完全解耦,灵活度达到了如此高度,不愧为boost库的东西!我只能有拜的份了...

    说一下总体的设计思想,其实io_service就像是劳工中介所,而一个线程就是一个劳工,而调用post的模块相当于富人们,他们去中介所委托任务,而劳工们就听候中介所的调遣去执行这些任务,任务的内容就写在富人们给你的handler上,也就是函数指针,指针指向具体实现就是任务的实质内容。其实在整个过程中,富人们都不知道是哪个劳工帮他们做的工作,只知道是中介所负责完成这些就可以了。这使得逻辑上的耦合降到了最低。不过这样的比喻也有个不恰当的地方,如果硬要这样比喻的话,我只能说:其实劳工里面也有很多富人的^o^! 。很多劳工在完成任务的过程中自己也托给中介所一些任务,然后这些任务很可能还是自己去完成。这也难怪,运行代码的总是这些线程,那么调用post的肯定也会有这些线程了,不过不管怎么说,如此循环往复可以解决问题就行,比喻不见得就得恰当,任何事物之间都不可能完全相同,只要能阐述思想就行。

    最后还要说明的一点就是:委托的任务其实可以设定执行的时间的,很不错的设定,内部实现则是通过定时器原理,GetQueuedCompletionStatus有一个等待时间的参数似乎被用在这方面,还有源码中的定时器线程我并没有过多的去理解,总之大体原理已基本掌握,剩下的就是使劲的用它了!!!

    另外为了方便人交流,在这里插入一些代码可能更容易让人理解吧,
    下面这个是启动服务时的代码:
    void ServerFramework::run()
    {
         boost::thread_group workers;
        for (uint32 i = 0; i < mWorkerCount; ++i)
             workers.create_thread(
                 boost::bind(&boost::asio::io_service::run, &mIoService));
         workers.join_all();
    }

    在打开前就得分配好任务,否则线程们运行起来就退出了,阻塞不住,任务的分配就交给open函数了,它是分配了监听端口的任务,一旦有了连接就会抛出一个任务,其中一个线程就会开始行动啦。
    void ServerFramework::open(const String& address, const String& port, uint32 nWorkers /*= DEFAULT_WORKER_COUNT*/)
    {
        // Open the acceptor with the option to reuse the address (i.e. SO_REUSEADDR).
         boost::asio::ip::tcp::resolver resolver(mIoService);
         boost::asio::ip::tcp::resolver::query query(address, port);
         boost::asio::ip::tcp::endpoint endpoint = *resolver.resolve(query);

         mAcceptor.open(endpoint.protocol());
         mAcceptor.set_option(boost::asio::ip::tcp::acceptor::reuse_address(true));
         mAcceptor.bind(endpoint);
         mAcceptor.listen();

         mNextConnection = new Connection(this);
         mAcceptor.async_accept(mNextConnection->getSocket(),
             boost::bind(&ServerFramework::__onConnect, this,
             boost::asio::placeholders::error));

         mWorkerCount = nWorkers;
        if (mWorkerCount == DEFAULT_WORKER_COUNT)
        {
             mWorkerCount = 4;
         }
    }

    open函数中给io_service的一个任务就是在有链接访问服务器端口的情况下执行ServerFramework::__onConnect函数,有一点需要格外注意的,io_service必须时刻都有任务存在,否则线程io_service::run函数将返回,于是线程都会结束并销毁,程序将退出,所以,你必须保证无论何时都有任务存在,这样线程们即使空闲了也还是会继续等待,不会销毁。所以,我在ServerFramework::__onConnect函数中又一次给了io_service相同的任务,即:继续监听端口,有链接了还是调用ServerFramework::__onConnect函数。如果你在ServerFramework::__onConnect执行完了还没有给io_service任务的话,那么一切都晚了...... 代码如下:
    void ServerFramework::__onConnect(const BoostSysErr& e)
    {
        if (e)
        {
             MOELOG_DETAIL_WARN(e.message().c_str());
         }

         Connection* p = mNextConnection;
         mNextConnection = new Connection(this);

        // 再次进入监听状态
         mAcceptor.async_accept(mNextConnection->getSocket(),
             boost::bind(&ServerFramework::__onConnect, this,
             boost::asio::placeholders::error));

        // 处理当前链接
         __addConnection(p);
         p->start();
    }


    最后,展示一下这个类的所有成员变量吧:

        // 用于线程池异步处理的核心对象
         boost::asio::io_service mIoService;

        // 网络链接的接收器,用于接收请求进入的链接
         boost::asio::ip::tcp::acceptor mAcceptor;

        // 指向下一个将要被使用的链接对象
         Connection* mNextConnection;

        // 存储服务器链接对象的容器
         ConnectionSet mConnections;

        //// 为链接对象容器准备的strand,防止并行调用mConnections
        //boost::asio::io_service::strand mStrand_mConnections;

        // 为链接对象容器准备的同步锁,防止并行调用mConnections
         boost::mutex mMutex4ConnSet;

        // 为控制台输出流准备的strand,防止并行调用std::cout
         AsioService::strand mStrand_ConsoleIostream;

        // 工作线程的数量
         uint32 mWorkerCount;
    usidc5 2013-10-07 16:41
    花了足足3天时间,外加1天心情休整,终于在第5天编写出了一个能运行的基于asio和thread_group的框架,差点没气晕过去,把源码都看懂了才感觉会用了。
    测试了一下,debug下一万次回应耗时800+毫秒,release下是200+毫秒,机器配置双核2.5G英特尔,4个线程并行工作,无错的感觉真好,再也不用担心iocp出一些奇怪的问题啦,因为是巨人们写的实现,呵呵。


    进入正题,简要说一下asio的实现原理吧。在win32平台上,asio是基于IOCP技术实现的,我以前也用过IOCP,却没想到居然能扩展成这样,真是神奇!在其他平台下还会有别的方法去实现,具体见io_service类下面这部分的源码:
      // The type of the platform-specific implementation.
    #if defined(BOOST_ASIO_HAS_IOCP)
      typedef detail::win_iocp_io_service impl_type;
      friend class detail::win_iocp_overlapped_ptr;
    #elif defined(BOOST_ASIO_HAS_EPOLL)
      typedef detail::task_io_service<detail::epoll_reactor<false> > impl_type;
    #elif defined(BOOST_ASIO_HAS_KQUEUE)
      typedef detail::task_io_service<detail::kqueue_reactor<false> > impl_type;
    #elif defined(BOOST_ASIO_HAS_DEV_POLL)
      typedef detail::task_io_service<detail::dev_poll_reactor<false> > impl_type;
    #else
      typedef detail::task_io_service<detail::select_reactor<false> > impl_type;
    #endif


    这部分代码其实就在boost::asio::io_service类声明中的最前面几行,可以看见在不同平台下,io_service类的实现将会不同。很显然,windows平台下当然是win_iocp_io_service类为实现了(不过我一开始还以为win_iocp_io_service是直接拿出来用的呢,还在疑惑这样怎么有移植性呢?官方文档也对该类只字不提,其实我卡壳就是卡在这里了,差点就直接用这个类了^_^!)。


    那么就分析一下win_iocp_io_service的代码吧,这里完全是用IOCP来路由各种任务,大家使用post来委托任务,内部调用的其实是IOCP的PostQueuedCompletionStatus函数,然后线程们用run来接受任务,内部其实是阻塞在IOCP的GetQueuedCompletionStatus函数上,一旦有了任务就立即返回,执行完后再一个循环,继续阻塞在这里等待下一个任务的到来,这种设计思想堪称神奇,对线程、服务以及任务完全解耦,灵活度达到了如此高度,不愧为boost库的东西!我只能有拜的份了...


    说一下总体的设计思想,其实io_service就像是劳工中介所,而一个线程就是一个劳工,而调用post的模块相当于富人们,他们去中介所委托任务,而劳工们就听候中介所的调遣去执行这些任务,任务的内容就写在富人们给你的handler上,也就是函数指针,指针指向具体实现就是任务的实质内容。其实在整个过程中,富人们都不知道是哪个劳工帮他们做的工作,只知道是中介所负责完成这些就可以了。这使得逻辑上的耦合降到了最低。不过这样的比喻也有个不恰当的地方,如果硬要这样比喻的话,我只能说:其实劳工里面也有很多富人的^o^! 。很多劳工在完成任务的过程中自己也托给中介所一些任务,然后这些任务很可能还是自己去完成。这也难怪,运行代码的总是这些线程,那么调用post的肯定也会有这些线程了,不过不管怎么说,如此循环往复可以解决问题就行,比喻不见得就得恰当,任何事物之间都不可能完全相同,只要能阐述思想就行。


    最后还要说明的一点就是:委托的任务其实可以设定执行的时间的,很不错的设定,内部实现则是通过定时器原理,GetQueuedCompletionStatus有一个等待时间的参数似乎被用在这方面,还有源码中的定时器线程我并没有过多的去理解,总之大体原理已基本掌握,剩下的就是使劲的用它了!!!


    另外为了方便人交流,在这里插入一些代码可能更容易让人理解吧,
    下面这个是启动服务时的代码:
    void ServerFramework::run()
    {
        boost::thread_group workers;
        for (uint32 i = 0; i < mWorkerCount; ++i)
            workers.create_thread(
                boost::bind(&boost::asio::io_service::run, &mIoService));
        workers.join_all();
    }


    在打开前就得分配好任务,否则线程们运行起来就退出了,阻塞不住,任务的分配就交给open函数了,它是分配了监听端口的任务,一旦有了连接就会抛出一个任务,其中一个线程就会开始行动啦。
    void ServerFramework::open(const String& address, const String& port, uint32 nWorkers /*= DEFAULT_WORKER_COUNT*/)
    {
        // Open the acceptor with the option to reuse the address (i.e. SO_REUSEADDR).
        boost::asio::ip::tcp::resolver resolver(mIoService);
        boost::asio::ip::tcp::resolver::query query(address, port);
        boost::asio::ip::tcp::endpoint endpoint = *resolver.resolve(query);


        mAcceptor.open(endpoint.protocol());
        mAcceptor.set_option(boost::asio::ip::tcp::acceptor::reuse_address(true));
        mAcceptor.bind(endpoint);
        mAcceptor.listen();


        mNextConnection = new Connection(this);
        mAcceptor.async_accept(mNextConnection->getSocket(),
            boost::bind(&ServerFramework::__onConnect, this,
            boost::asio::placeholders::error));


        mWorkerCount = nWorkers;
        if (mWorkerCount == DEFAULT_WORKER_COUNT)
        {
            mWorkerCount = 4;
        }
    }


    open函数中给io_service的一个任务就是在有链接访问服务器端口的情况下执行ServerFramework::__onConnect函数,有一点需要格外注意的,io_service必须时刻都有任务存在,否则线程io_service::run函数将返回,于是线程都会结束并销毁,程序将退出,所以,你必须保证无论何时都有任务存在,这样线程们即使空闲了也还是会继续等待,不会销毁。所以,我在ServerFramework::__onConnect函数中又一次给了io_service相同的任务,即:继续监听端口,有链接了还是调用ServerFramework::__onConnect函数。如果你在ServerFramework::__onConnect执行完了还没有给io_service任务的话,那么一切都晚了...... 代码如下:
    void ServerFramework::__onConnect(const BoostSysErr& e)
    {
        if (e)
        {
            MOELOG_DETAIL_WARN(e.message().c_str());
        }


        Connection* p = mNextConnection;
        mNextConnection = new Connection(this);


        // 再次进入监听状态
        mAcceptor.async_accept(mNextConnection->getSocket(),
            boost::bind(&ServerFramework::__onConnect, this,
            boost::asio::placeholders::error));


        // 处理当前链接
        __addConnection(p);
        p->start();
    }


    最后,展示一下这个类的所有成员变量吧:
        // 用于线程池异步处理的核心对象
        boost::asio::io_service mIoService;


        // 网络链接的接收器,用于接收请求进入的链接
        boost::asio::ip::tcp::acceptor mAcceptor;


        // 指向下一个将要被使用的链接对象
        Connection* mNextConnection;


        // 存储服务器链接对象的容器
        ConnectionSet mConnections;


        //// 为链接对象容器准备的strand,防止并行调用mConnections
        //boost::asio::io_service::strand mStrand_mConnections;


        // 为链接对象容器准备的同步锁,防止并行调用mConnections
        boost::mutex mMutex4ConnSet;


        // 为控制台输出流准备的strand,防止并行调用std::cout
        AsioService::strand mStrand_ConsoleIostream;


        // 工作线程的数量
        uint32 mWorkerCount;
    usidc5 2013-10-07 16:41
    boost的官方例子,有单线程的网络框架,httpserver2是线程池的。下面参照网上某人的代码修改了一点(忘了哪位大仙的代码了)
    测试工具,适用stressmark,测试效果非常好, 9000个/s
    复制代码
    #include <stdio.h>
    #include "AuthenHandle.h"
    #include "configure.h"
    #ifdef WIN32 //for windows nt/2000/xp


    #include <winsock.h>
    #include <windows.h>
    #include "gelsserver.h"
    #pragma comment(lib,"Ws2_32.lib")
    #else         //for unix




    #include <sys/socket.h>
    //    #include <sys/types.h>


    //    #include <sys/signal.h>


    //    #include <sys/time.h>


    #include <netinet/in.h>     //socket


    //    #include <netdb.h>


    #include <unistd.h>            //gethostname


    // #include <fcntl.h>


    #include <arpa/inet.h>


    #include <string.h>            //memset


    typedef int SOCKET;
    typedef struct sockaddr_in SOCKADDR_IN;
    typedef struct sockaddr SOCKADDR;
    #ifdef M_I386
    typedef int socklen_t;
    #endif


    #define BOOL             int
    #define INVALID_SOCKET    -1
    #define SOCKET_ERROR     -1
    #define TRUE             1
    #define FALSE             0
    #endif        //end #ifdef WIN32








    static int count111 = 0;
    static time_t oldtime = 0, nowtime = 0;




    #include <cstdlib>
    #include <iostream>
    #include <stdexcept>
    #include <boost/bind.hpp>
    #include <boost/asio.hpp>
    #include <boost/lexical_cast.hpp>
    #include <boost/thread.hpp>


    using namespace std;
    using boost::asio::ip::tcp;


    class io_service_pool
        : public boost::noncopyable
    {
    public:


        explicit io_service_pool(std::size_t pool_size)
            : next_io_service_(0)
        { 
            for (std::size_t i = 0; i < pool_size; ++ i)
            {
                io_service_sptr io_service(new boost::asio::io_service);
                work_sptr work(new boost::asio::io_service::work(*io_service));
                io_services_.push_back(io_service);
                work_.push_back(work);
            }
        }


        void start()
        { 
            for (std::size_t i = 0; i < io_services_.size(); ++ i)
            {
                boost::shared_ptr<boost::thread> thread(new boost::thread(
                    boost::bind(&boost::asio::io_service::run, io_services_)));
                threads_.push_back(thread);
            }
        }


        void join()
        {
            for (std::size_t i = 0; i < threads_.size(); ++ i)
            {
                threads_->join();
            } 
        }


        void stop()
        { 
            for (std::size_t i = 0; i < io_services_.size(); ++ i)
            {
                io_services_->stop();
            }
        }


        boost::asio::io_service& get_io_service()
        {
            boost::mutex::scoped_lock lock(mtx);
            boost::asio::io_service& io_service = *io_services_[next_io_service_];
            ++ next_io_service_;
            if (next_io_service_ == io_services_.size())
            {
                next_io_service_ = 0;
            }
            return io_service;
        }


    private:
        typedef boost::shared_ptr<boost::asio::io_service> io_service_sptr;
        typedef boost::shared_ptr<boost::asio::io_service::work> work_sptr;
        typedef boost::shared_ptr<boost::thread> thread_sptr;


        boost::mutex mtx;


        std::vector<io_service_sptr> io_services_;
        std::vector<work_sptr> work_;
        std::vector<thread_sptr> threads_; 
        std::size_t next_io_service_;
    };


    boost::mutex cout_mtx;
    int packet_size = 0;
    enum {MAX_PACKET_LEN = 4096};


    class session
    {
    public:
        session(boost::asio::io_service& io_service)
            : socket_(io_service)
            , recv_times(0)
        {
        }


        virtual ~session()
        {
            boost::mutex::scoped_lock lock(cout_mtx);
        }


        tcp::socket& socket()
        {
            return socket_;
        }


        inline void start()
        {


            socket_.async_read_some(boost::asio::buffer(data_, MAX_PACKET_LEN),
                boost::bind(&session::handle_read, this,
                boost::asio::placeholders::error,
                boost::asio::placeholders::bytes_transferred));
        }


        void handle_read(const boost::system::error_code& error, size_t bytes_transferred)
        {
            if (!error)
            {
                ++ recv_times;




                count111 ++;


                struct tm *today;
                time_t ltime;
                time( &nowtime );


                if(nowtime != oldtime){
                    printf("%d ", count111);
                    oldtime = nowtime;
                    count111 = 0;
                }




                boost::asio::async_write(socket_, boost::asio::buffer(data_, bytes_transferred),
                    boost::bind(&session::handle_write, this, boost::asio::placeholders::error));






            }
            else
            {
                delete this;
            }
        }


        void handle_write(const boost::system::error_code& error)
        {
            if (!error)
            {
                start();
            }
            else
            {
                delete this;
            }
        }


    private:
        tcp::socket socket_;
        char data_[MAX_PACKET_LEN];
        int recv_times;
    };


    class server
    {
    public:
        server(short port, int thread_cnt)
            : io_service_pool_(thread_cnt)
            , acceptor_(io_service_pool_.get_io_service(), tcp::endpoint(tcp::v4(), port))
        {
            session* new_session = new session(io_service_pool_.get_io_service());
            acceptor_.async_accept(new_session->socket(),
                boost::bind(&server::handle_accept, this, new_session, boost::asio::placeholders::error));
        }


        void handle_accept(session* new_session, const boost::system::error_code& error)
        {
            if (!error)
            {
                new_session->start();
            }
            else
            {
                delete new_session;
            }


            new_session = new session(io_service_pool_.get_io_service());
            acceptor_.async_accept(new_session->socket(),
                boost::bind(&server::handle_accept, this, new_session, boost::asio::placeholders::error));
        }


        void run()
        {
            io_service_pool_.start();
            io_service_pool_.join();
        }


    private:


        io_service_pool io_service_pool_;
        tcp::acceptor acceptor_;
    };






    int main()
    {


        //boost


        server s(port, 50);
        s.run();


        while(true)
        {
            sleep(1000);




         }


        return 0;
    }
    复制代码


    usidc5 2013-10-07 16:42
    网上大部分人都讲boost.asio用完成端口实现,并且实现了线程池,所以效率非常的高。
          我在应用asio的时候发现完成端口是有,但是线程池确并不存在,而且在现有的架构下,要想用线程池来实现对数据的处理,可能写出来不是很好看。
    asio通过开启线程调用io_service::run再调用win_iocp_io_service::run来处理收到的事件。
      size_t run(boost::system::error_code& ec)
      {
        if (::InterlockedExchangeAdd(&outstanding_work_, 0) == 0)
        {
          ec = boost::system::error_code();
          return 0;
        }

        call_stack<win_iocp_io_service>::context ctx(this);

        size_t n = 0;
        while (do_one(true, ec))
          if (n != (std::numeric_limits<size_t>::max)())
            ++n;
        return n;
      }
    do_one里面为
    BOOL ok = ::GetQueuedCompletionStatus(iocp_.handle, &bytes_transferred,
              &completion_key, &overlapped, block ? timeout : 0);
            operation* op = static_cast<operation*>(overlapped);
            op->do_completion(last_error, bytes_transferred);
    实际上如果op->do_completion里面有时间比较长的操作,这个线程同样为死在这个地方。
    因为只有一个线程在驱动前面的run函数。
    当然你也可以通过同时启动几个线程来调用run函数,这样是可行的,但是这种手法确很笨拙,因为你可能一下启动10个线程,却只有一个线程比较忙,
    或者你的10个线程根本就忙不过来,这根有没有使用iocp完全没什么两样。
         做事情要力求完美,不要以为NB的大师不提供的东西,你就不能自已弄一个。其实我觉得asio里面c++的运用,非常的完美,但是从实用的角度来说,
    还不如我以前一个同事写的iocp写得好。

    我们怎么对asio这部分进行改良,让他支持线程池的方式呢。
    实际上我们只需要对win_iocp_io_service进行一些加工即可。
    在do_one里面
    op->do_completion(last_error, bytes_transferred);
    之前auto_work work(*this);
    这个地方,实际上就是来计算当前有多少工作要做,
    这个地方调用work_started
      ::InterlockedIncrement(&outstanding_work_);
    只需要在这按照你的需求加入一个线程就可以了。
    算法自已想吧,还存在work_finished函数,可以用来减少线程。
    需要给win_iocp_io_service类增加一个thread_group成员变量,供上面使用。
    改良的方式不是很好,也比较不好看,
    唉,完美只存在心里,适可而止吧。
    usidc5 2013-10-07 16:43
    正如其名字,asio是一个异步网络库。但第一次使用它却是把它作为一个线程池的实现。下面是一段实验代码。


    #include <iostream>
    #include <boost/asio.hpp>
    #include <boost/bind.hpp>
    #include <boost/thread/thread.hpp>
    void foo() {
      sleep(1);
      printf("foo: %d ", (int)pthread_self());
    }




    class TaskPool {
      typedef boost::shared_ptr<boost::thread> Thread;
      public:
      TaskPool(std::size_t num_workers) : num_workers_(num_workers) {
      }
      void Start() {
        manage_thread_.reset(new boost::thread(boost::bind(TaskPool::_Start, this)));
      }
      void Post() {
        ios_.post(foo);
      }
      private:
        static void _Start(TaskPool* pool) {
        for (std::size_t i = 0; i < pool->num_workers_; ++i) {
          pool->workers_.push_back(Thread(new boost::thread(boost::bind(&boost::asio::io_service::run, &pool->ios_))));
        }
        for (std::size_t i = 0; i < pool->workers_.size(); ++i) {
          pool->workers_->join();
        }


      }
      private:
      std::size_t num_workers_;
      boost::asio::io_service ios_;
      std::vector<Thread> workers_;
      Thread manage_thread_;
    };


    int main()
    {
      TaskPool pool(8);
      pool.Start();
      for (int i = 0; i < 1000; ++i) {
      pool.Post();
      }
      printf("post finished ");
      sleep(10);
      return 0;
    }
    usidc5 2013-11-16 22:52
    ACE是一个很成熟的中间件产品,为自适应通讯环境,但它过于宏大,一堆的设计模式,架构是一层又一层,对初学者来说,有点困难。
    ASIO是基本Boost开发的异步IO库,封装了Socket,简化基于socket程序的开发。


    最近分析ASIO的源代码,让我无不惊呀于它设计。在ACE中开发中的内存管理一直让人头痛,ASIO的出现,让我看到新的曙光,成为我新的好伙伴。简单地与ACE做个比较。


    1.层次架构:
    ACE底层是C风格的OS适配层,上一层基于C++的wrap类,再上一层是一些框架(Accpetor, Connector,Reactor等),最上一层是框架上服务。
    ASIO与之类似,底层是OS的适配层,上一层一些模板类,再上一层模板类的参数化(TCP/UDP),再上一层是服务,它只有一种框架为io_service。


    2.涉及范围:
    ACE包含了日志,IPC,线程,共享内存,配置服务等。
    ASIO只涉及到Socket,提供简单的线程操作。


    3.设计模式:
    ACE主要应用了Reactor,Proactor等。
    而ASIO主要应用了Proactor。


    4.线程调度:
    ACE的Reactor是单线程调度,Proactor支持多线程调度。
    ASIO支持单线程与多线程调度。


    5.事件分派处理:
    ACE主要是注册handler类,当事件分派时,调用其handler的虚挂勾函数。实现ACE_Handler/ACE_Svc_Handler/ACE_Event_handler等类的虚函数。
    ASIO是基于函数对象的hanlder事件分派。任何函数都可能成功hanlder,少了一堆虚表的维护,调度上优于ACE。


    6.发布方式:
    ACE是开源免费的,不依赖于第3方库, 一般应用使用它时,以动态链接的方式发布动态库。
    ASIO是开源免费的,依赖Boost,应用使用时只要include头文件,不需动态库。


    7.可移植性:
    ACE支持多种平台,可移植性不存在问题,据说socket编程在linux下有不少bugs。
    ASIO支持多种平台,可移植性不存在问题。


    8.开发难度:
    基于ACE开发应用,对程序员要求比较高,要用好它,必须非常了解其框架。在其框架下开发,往往new出一个对象,不知在什么地方释放好。
    基于ASIO开发应用,要求程序员熟悉函数对象,函数指针,熟悉boost库中的boost::bind。内存管理控制方便。




    我个人觉得,如果应用socket编程,使用ASIO开发比较好,开发效率比较高。ACE适合于理论研究,它本来就是源于Douglas的学术研究。
    usidc5 2013-11-16 22:53
    在使用IOCP时,最重要的几个API就是GetQueueCompeltionStatus、WSARecv、WSASend,数据的I/O及其完成状态通过这几个接口获取并进行后续处理。


    GetQueueCompeltionStatus attempts to dequeue an I/O completion packet from the specified I/O completion port. If there is no completion packet queued, the function waits for a pending I/O operation associated with the completion port to complete.


    BOOL WINAPI GetQueuedCompletionStatus(
      __in   HANDLE CompletionPort,
      __out  LPDWORD lpNumberOfBytes,
      __out  PULONG_PTR lpCompletionKey,
      __out  LPOVERLAPPED *lpOverlapped,
      __in   DWORD dwMilliseconds
    );
    If the function dequeues a completion packet for a successful I/O operation from the completion port, the return value is nonzero. The function stores information in the variables pointed to by the lpNumberOfBytes, lpCompletionKey, and lpOverlapped parameters.


    除了关心这个API的in & out(这是MSDN开头的几行就可以告诉我们的)之外,我们更加关心不同的return & out意味着什么,因为由于各种已知或未知的原因,我们的程序并不总是有正确的return & out。


    If *lpOverlapped is NULL and the function does not dequeue a completion packet from the completion port, the return value is zero. The function does not store information in the variables pointed to by the lpNumberOfBytes and lpCompletionKey parameters. To get extended error information, call GetLastError. If the function did not dequeue a completion packet because the wait timed out, GetLastError returns WAIT_TIMEOUT.


    假设我们指定dwMilliseconds为INFINITE。


    这里常见的几个错误有:


    WSA_OPERATION_ABORTED (995): Overlapped operation aborted.


    由于线程退出或应用程序请求,已放弃I/O 操作。


    MSDN: An overlapped operation was canceled due to the closure of the socket, or the execution of the SIO_FLUSH command in WSAIoctl. Note that this error is returned by the operating system, so the error number may change in future releases of Windows.


    成因分析:这个错误一般是由于peer socket被closesocket或者WSACleanup关闭后,针对这些socket的pending overlapped I/O operation被中止。


    解决方案:针对socket,一般应该先调用shutdown禁止I/O操作后再调用closesocket关闭。


    严重程度:轻微易处理。


    WSAENOTSOCK (10038): Socket operation on nonsocket.


    MSDN: An operation was attempted on something that is not a socket. Either the socket handle parameter did not reference a valid socket, or for select, a member of an fd_set was not valid.


    成因分析:在一个非套接字上尝试了一个操作。


    使用closesocket关闭socket之后,针对该invalid socket的任何操作都会获得该错误。


    解决方案:如果是多线程存在对同一socket的操作,要保证对socket的I/O操作逻辑上的顺序,做好socket的graceful disconnect。


    严重程度:轻微易处理。


    WSAECONNRESET (10054): Connection reset by peer.


    远程主机强迫关闭了一个现有的连接。


    MSDN: An existing connection was forcibly closed by the remote host. This normally results if the peer application on the remote host is suddenly stopped, the host is rebooted, the host or remote network interface is disabled, or the remote host uses a hard close (see setsockopt for more information on the SO_LINGER option on the remote socket). This error may also result if a connection was broken due to keep-alive activity detecting a failure while one or more operations are in progress. Operations that were in progress fail with WSAENETRESET. Subsequent operations fail with WSAECONNRESET.


    成因分析:在使用WSAAccpet、WSARecv、WSASend等接口时,如果peer application突然中止(原因如上所述),往其对应的socket上投递的operations将会失败。


    解决方案:如果是对方主机或程序意外中止,那就只有各安天命了。但如果这程序是你写的,而你只是hard close,那就由不得别人了。至少,你要知道这样的错误已经出现了,就不要再费劲的继续投递或等待了。


    严重程度:轻微易处理。


    WSAECONNREFUSED (10061): Connection refused.


    由于目标机器积极拒绝,无法连接。


    MSDN: No connection could be made because the target computer actively refused it. This usually results from trying to connect to a service that is inactive on the foreign host—that is, one with no server application running.


    成因分析:在使用connect或WSAConnect时,服务器没有运行或者服务器的监听队列已满;在使用WSAAccept时,客户端的连接请求被condition function拒绝。


    解决方案:Call connect or WSAConnect again for the same socket. 等待服务器开启、监听空闲或查看被拒绝的原因。是不是长的丑或者钱没给够,要不就是服务器拒绝接受天价薪酬自主创业去了?


    严重程度:轻微易处理。


    WSAENOBUFS (10055): No buffer space available.


    由于系统缓冲区空间不足或列队已满,不能执行套接字上的操作。


    MSDN: An operation on a socket could not be performed because the system lacked sufficient buffer space or because a queue was full.


    成因分析:这个错误是我查看错误日志后,最在意的一个错误。因为服务器对于消息收发有明确限制,如果缓冲区不足应该早就处理了,不可能待到send/recv失败啊。而且这个错误在之前的版本中几乎没有出现过。这也是这篇文章的主要内容。像connect和accept因为缓冲区空间不足都可以理解,而且危险不高,但如果send/recv造成拥堵并恶性循环下去,麻烦就大了,至少说明之前的验证逻辑有疏漏。


    WSASend失败的原因是:The Windows Sockets provider reports a buffer deadlock. 这里提到的是buffer deadlock,显然是由于多线程I/O投递不当引起的。


    解决方案:在消息收发前,对最大挂起的消息总的数量和容量进行检验和控制。


    严重程度:严重。


    本文主要参考MSDN。

    usidc5 2013-11-16 22:59
    1:在IOCP中投递WSASend返回WSA_IO_PENDING的时候,表示异步投递已经成功,但是稍后发送才会完成。这其中涉及到了三个缓冲区。
    网卡缓冲区,TCP/IP层缓冲区,程序缓冲区。
    情况一:调用WSASend发送正确的时候(即立即返回,且没有错误),TCP/IP将数据从程序缓冲区中拷贝到TCP/IP层缓冲区中,然后不锁定该程序缓冲区,由上层程序自己处理。TCP/IP层缓冲区在网络合适的时候,将其数据拷贝到网卡缓冲区,进行真正的发送。
    情况二:调用WSASend发送错误,但是错误码是WSA_IO_PENDING的时候,表示此时TCP/IP层缓冲区已满,暂时没有剩余的空间将程序缓冲区的数据拷贝出来,这时系统将锁定用户的程序缓冲区,按照书上说的WSASend指定的缓冲区将会被锁定到系统的非分页内存中。直到TCP/IP层缓冲区有空余的地方来接受拷贝我们的程序缓冲区数据才拷贝走,并将给IOCP一个完成消息。
    情况三:调用WSASend发送错误,但是错误码不是WSA_IO_PENDING,此时应该是发送错误,应该释放该SOCKET对应的所有资源。


    2:在IOCP中投递WSARecv的时候,情况相似。
    情况一:调用WSARecv正确,TCP/IP将数据从TCP/IP层缓冲区拷贝到缓冲区,然后由我们的程序自行处理了。清除TCP/IP层缓冲区数据。
    情况二:调用WSARecv错误,但是返回值是WSA_IO_PENDING,此时是因为TCP/IP层缓冲区中没有数据可取,系统将会锁定我们投递的WSARecv的buffer,直到TCP/IP层缓冲区中有新的数据到来。
    情况三:调用WSARecv错误,错误值不是WSA_IO_PENDING,此时是接收出错,应该释放该SOCKET对应的所有资源。


    在以上情况中有几个非常要注意的事情:
    系统锁定非分页内存的时候,最小的锁定大小是4K(当然,这个取决于您系统的设置,也可以设置小一些,在注册表里面可以改,当然我想这些数值微软应该比我们更知道什么合适了),所以当我们投递了很多WSARecv或者WSASend的时候,不管我们投递的Buffer有多大(0除外),系统在出现IO_PENGDING的时候,都会锁定我们4K的内存。这也就是经常有开发者出现WSANOBUF的情况原因了。


    我们在解决这个问题的时候,要针对WSASend和WSARecv做处理
    1:投递WSARecv的时候,可以采用一个巧妙的设计,先投递0大小Buf的WSARecv,如果返回,表示有数据可以接收,我们开启真正的recv将数据从TCP/IP层缓冲区取出来,直到WSA_IO_PENGDING.
    2:对投递的WSARecv以及WSASend进行计数统计,如果超过了我们预定义的值,就不进行WSASend或者WSARecv投递了。
    3:现在我们应该就可以明白为什么WSASend会返回小于我们投递的buffer空间数据值了,是因为TCP/IP层缓冲区小于我们要发送的缓冲区,TCP/IP只会拷贝他剩余可被Copy的缓冲区大小的数据走,然后给我们的WSASend的已发送缓冲区设置为移走的大小,下一次投递的时候,如果TCP/IP层还未被发送,将返回WSA_IO_PENGDING。
    4:在很多地方有提到,可以关闭TCP/IP层缓冲区,可以提高一些效率和性能,这个从上面的分析来看,有这个可能,要实际的网络情况去实际分析了。







    ==================


    关于数据包在应用层乱序问题就不多说了(IOCP荒废了TCP在传输层辛辛苦苦保证的有序)。


    这无关紧要,因为iocp要管理上千个SOCKET,每个SOCKET的读请求、写请求分别保证串行即可。





    =============


    关于GetQueuedCompletionStatus的返回值判断:


    我给超时值传的是0,直接测试,无须等待。


    这里我们关心这几个值:


    第二个参数所传回的byte值


    第三个参数所传回的complete key值 ——PER HANDLE DATA


    第四个参数所传回的OVERLAPPED结构指针 ——PER IO DATA


    系统设置的ERROR值。





    在超时情况下,byte值返回0,per handle data值是-1,per io data为NULL





    1.如果返回FALSE


        one : iocp句柄在外部被关闭。


       WSAGetLastError返回6(无效句柄),byte值返回0,per handle data值是-1,per io data为NULL





        two: 我们主动close一个socket句柄,或者CancelIO(socket)(且此时有未决的操作)


        WSAGetLastError返回995(由于线程退出或应用程序请求,已放弃 I/O 操作)


       byte值为0,


       per handle data与per io data正确传回。





       three:对端强退(且此时本地有未决的操作)


       WSAGetLastError返回64(指定的网络名不再可用)


      byte值为0,per handle data与per io data正确传回 





    2.如果返回TRUE【此时一定得到了你投递的OVERLAP结构】


        one:  我接收到对端数据,然后准备再投递接收请求;但此期间,对端关闭socket。


       WSARecv返回错误码10054:远程主机强迫关闭了一个现有的连接。


    TODO TODO


       从网上搜到一个做法,感觉很不错:


    如果返回FALSE, 那么:如果OVERLAP为空,那一定是发生了错误(注意:请排除TIMEOUT错误);


    如果OVERLAP不为空,有可能发生错误。不用管它,这里直接投递请求;如果有错,WSARecv将返回错误。关闭连接即可。








    ============


    关于closesocket操作:





    The closesocket function will initiate cancellation on the outstanding I/O operations, but that does not mean that an application will receive I/O completion for these I/O operations by the time the closesocket function returns. Thus, an application should not cleanup any resources (WSAOVERLAPPED structures, for example) referenced by the outstanding I/O requests until the I/O requests are indeed completed.





    在IOCP模式下,如果调用closesocket时有未决的pending   IO,将导致socket被重置,所以有时会出现数据丢失。正统的解决方式是使用shutdown函数(指定SD_SEND标志),注意这时可能有未完成的发送pengding   IO,所以你应该监测是否该连接的所有是否已完成(也许你要用一个计数器来跟踪这些pending   IO),仅在所有send   pending   IO完成后调用shutdown。





    MSDN推荐的优雅关闭socket:




    Call WSAAsyncSelect to register for FD_CLOSE notification.
    Call shutdown with how=SD_SEND.
    When FD_CLOSE received, call recv until zero returned, or SOCKET_ERROR.
    Call closesocket.



    FD_CLOSE being posted after all data is read from a socket. An application should check for remaining data upon receipt of FD_CLOSE to avoid any possibility of losing data.


























    对每个使用AcceptEx接受的连接套结字使用setsockopt设置SO_UPDATE_ACCEPT_CONTEXT选项,这个选项原义是把listen套结字一些属性(包括socket内部接受/发送缓存大小等等)拷贝到新建立的套结字,却可以使后续的shutdown调用成功。



    /* SO_UPDATE_ACCEPT_CONTEXT is required for shutdown() to work fine*/
           setsockopt( sockClient,
                                SOL_SOCKET,
                                SO_UPDATE_ACCEPT_CONTEXT,
                                (char*)&m_sockListen,
                                sizeof(m_sockListen) ) ;
    如果是调用AcceptEX接收的连接 不设置该选项的话,随后的shutdown调用
    将返回失败, WSAGetLastError() returns 10057 -- WSANOTCONN 




    2012.10.24


    用智能指针重构了网络库,替换了裸指针。


    但是发现IOCP如下一个问题:




    1. 收到14字节数据
    2012-10-25[02_02_05_906[DBG]:OnRecv : Worker thread [6268], socket = 11256, bytes = 14


    2.再次投递RECV请求,发生错误,因为对端已经关闭
    2012-10-25[02_02_05_906[DBG]:Fatal error when post recv, error 10054, socket = 11256
    2012-10-25[02_02_05_906[DBG]:Socket is set invalid 11256


    3.于是准备回收资源,结束RECV请求;
    2012-10-25[02_02_05_906[DBG]:EndRecv : Worker thread [6268], socket = 11256


    4.但此时overlap结构仍然是挂起状态?
    2012-10-25[02_02_05_906[DBG]:2EndRecv socket 11256, now recv overlappe is complete ? 0

  • 相关阅读:
    LightOJ 1341 Aladdin and the Flying Carpet 数学
    NOIP2013 花匠 DP 线段树优化
    LightOJ 1370 Bi-shoe and Phi-shoe 欧拉函数+线段树
    BZOJ2818: Gcd 欧拉函数求前缀和
    SPOJ3267 D-query 离线+树状数组 在线主席树
    BZOJ 2588: Spoj 10628. Count on a tree 主席树+lca
    拓展欧几里得算法
    POJ1845Sumdiv(求所有因子和 + 唯一分解定理)
    UVA1635 Irrelevant Elements(唯一分解定理 + 组合数递推)
    codeforce 626E(二分)
  • 原文地址:https://www.cnblogs.com/wlmbz/p/4919246.html
Copyright © 2020-2023  润新知