• 什么是netty--通俗易懂


     

    一.Netty介绍

    1.什么是netty

    Netty 是由 JBOSS 提供的一个 Java 开源框架。Netty 提供异步的、基于事件驱动的网络应用程序框架,用以快速开发高性能、高可靠性的网络 IO 程序,是目前最流行的 NIO 框架,Netty 在互联网领域、大数据分布式计算领域、游戏行业、通信行业等获得了广泛的应用,知名的 Elasticsearch Dubbo 框架内部都采用了 Netty

    2.为什么要用netty

    原生 NIO 存在问题:

    1.NIO 的类库和 API 繁杂

    2.需要熟悉 Java 多线程编程,因为 NIO 编程涉及到 Reactor 模式,必须对多线程和网络编程非常熟悉, 才能编写出高质量的 NIO 程序

    3.开发工作量和难度都非常大。例如客户端面临断连重连、网络闪断、半包读写、失败缓存、网络拥塞和异常  流的处理等等处理起来难度会比较大。

    4.JDK NIO Bug:例如臭名昭著的 Epoll Bug,它会导致 Selector 空轮询,最终导致 CPU 100%。直到 JDK 1.7 版本该问题仍旧存在,没有被根本解决。

    3.Netty的优点

    Netty JDK 自带的 NIO API 进行了封装,解决了上述问题。

    1.设计优雅:适用于各种传输类型的统一 API 阻塞和非阻塞 Socket;基于灵活且可扩展的事件模型,可以清晰地分离关注点;高度可定制的线程模型 - 单线程,一个或多个线程池.

    2.使用方便:详细记录的 Javadoc,用户指南和示例;没有其他依赖项,JDK 5Netty 3.x)或 6Netty 4.x)就足够了。

    3.高性能、吞吐量更高:延迟更低;减少资源消耗;最小化不必要的内存复制。

    4.安全:完整的 SSL/TLS StartTLS 支持。

    5.社区活跃、不断更新:社区活跃,版本迭代周期短,发现的 Bug 可以被及时修复,同时更多的新功能会被加入

    二.Reactor三种线程模型

    1.现有的三种线程模型

    不同的线程模式,对程序的性能有很大影响,目前存在的线程模型有:

    .传统阻塞 I/O 服务模型

    Reactor 模式

    Reactor 模式又有 3 种典型的实现

    Reactor 单线程;

    Reactor 多线程;

    主从 Reactor 多线程

    Netty 的线程模型是主要是基于主从 Reactor 多线程模型改成了主从 Reactor 多线程模型有多个 Reactor模式

    2.传统阻塞 I/O 服务模型介绍

    特点:

    采用阻塞IO模式获取输入的数据

    每个连接都需要创建单独的线程完成数据的输入,业务处理数据返回

    缺点:

    当并发数很大,就会创建大量的线程,占用很大系统资源,在线程开销和上下文切换上降低处理性能

    连接创建后,如果当前线程暂时没有数据可读,该线程会阻塞在read 操作,造成线程资源浪费

     

    黄色的框表示对象, 蓝色的框表示线程 白色的框表示方法(API)

    3. Reactor 模式

    针对传统阻塞 I/O 服务模型的 2 个缺点,解决方案:

    I/O 复用模型:多个连接共用一个阻塞对象,应用程序只需要在一个阻塞对象上等待,无需阻塞等待所有连接。当某个连接有新的数据可以处理时,操作系统通知应用程序,线程从阻塞状态返回,开始进行业务处理。

    Reactor 对应的叫法: 1. 反应器模式 2. 分发者模式(Dispatcher) 3. 通知者模式(notifier)

    基于线程池复用线程资源模式:不必再为每个连接创建线程,将连接完成后的业务处理任务分配给线程进行处理,一个线程可以处理多个连接的业务。

    I/O 复用结合线程池,就是 Reactor 模式基本设计思想

     

    Reactor 模式,通过一个或多个输入同时传递给服务处理器的模式,(基于事件驱动)

    服务器端程序处理传入的多个请求,并将它们同步分派到相应的处理线程, 因此Reactor模式也叫 Dispatcher模式

    Reactor 模式使用IO复用监听事件, 收到事件后,分发给某个线程(进程), 这点就是网络服务器高并发处理关键

    4.单 Reactor 单线程

    1.工作原理:

    ①Select 是前面 I/O 复用模型介绍的标准网络编程 API,可以实现应用程序通过一个阻塞对象监听多路连接请求

    ②Reactor 对象通过 Select 监控客户端请求事件,收到事件后通过 Dispatch 进行分发

    如果是建立连接请求事件,则由 Acceptor 通过 Accept 处理连接请求,然后创建一个 Handler 对象处理连接完成后的后续业务处理

    如果不是建立连接事件,则 Reactor 会分发调用连接对应的 Handler 来响应

    ⑤Handler 会完成 Read→业务处理→Send 的完整业务流程

    2.优点:

    模型简单,没有多线程、进程通信、竞争的问题,全部都在一个线程中完成

    3.缺点:

    性能问题,只有一个线程,无法完全发挥多核 CPU 的性能。

    可靠性问题,线程意外终止,或者进入死循环,会导致整个系统通信模块不可用,不能接收和处理外部消息,造成节点故障

    服务器端用一个线程通过多路复用搞定所有的 IO 操作(包括连接,读、写等),编码简单,清晰明了,但是如果客户端连接数量较多时,当对应多个读时,还是会出现阻塞现象,当这种情况发生时将无法支撑高并发的场景。

    4.应用场景:

    客户端的数量有限,业务处理非常快速(比如 Redis在业务处理的时间复杂度 O(1) 的情况)

     

    5.Reactor多线程

    1.工作原理:

    ①Reactor 对象通过select 监控客户端请求事件, 收到事件后,通过dispatch进行分发

    ②如果是建立连接请求, 由Acceptor 通过accept 处理连接请求, 然后创建一个Handler对象处理完成连接后的各种事件

    ③如果不是连接请求,则由Reactor分发调用连接对应的handler 来处理

    ④handler 只负责响应事件,不做具体的业务处理, 通过read 读取数据后,会分发给后面的worker线程池的某个线程处理业务

    ⑤worker 线程池会分配独立线程完成真正的业务,并将结果返回给handler,handler收到响应后,通过send 将结果返回给client.

    2.优点:

    可以充分的利用多核cpu 的处理能力

    3.缺点:

    多线程数据共享和访问比较复杂,Reactor处理所有的事件的监听和响应,在单线程运行时,在高并发场景容易出现性能瓶颈.

     

    6.主从 Reactor 多线程

    1.工作原理:

    ①Reactor主线程 MainReactor 对象通过select 监听连接事件, 收到事件后,通过Acceptor 处理连接事件

    Acceptor  处理连接事件后,MainReactor 将连接分配给SubReactor

    ③subReactor 将连接加入到连接队列进行监听,并创建handler进行各种事件处理

    当有新事件发生时, subreactor 就会调用对应的handler处理

    ⑤handler 通过read 读取数据,分发给后面的worker 线程处理

    ⑥worker 线程池分配独立的worker 线程进行业务处理,并返回结果

    ⑦handler 收到响应的结果后,再通过send 将结果返回给client

    ⑧Reactor 主线程可以对应多个Reactor 子线程, MainRecator 可以关联多个SubReactor

     

    三.Netty线程模型

    1.工作原理

    Netty抽象出两组线程池 BossGroup 专门负责接收客户端的连接, WorkerGroup 专门负责网络的读写

    BossGroup WorkerGroup 类型都是 NioEventLoopGroup

    NioEventLoopGroup 相当于一个事件循环组, 这个组中含有多个事件循环 ,每一个事件循环是 NioEventLoop

    NioEventLoop 表示一个不断循环的执行处理任务的线程, 每个NioEventLoop 都有一个selector , 用于监听绑定在该通道上的socket的网络通讯

    NioEventLoopGroup 可以有多个线程, 即可以含有多个NioEventLoop

    每个Boss NioEventLoop 循环执行的步骤有3

    轮询accept 事件

    处理accept 事件 , client端建立连接 , 生成NioScocketChannel , 并将其注册到某个worker NIOEventLoop 上的 selector

    处理任务队列的任务 runAllTasks

    每个 Worker NIOEventLoop 循环执行的步骤

    轮询read, write 事件

    处理i/o事件, 即read , write 事件,在对应NioScocketChannel 处理

    处理任务队列的任务 runAllTasks

    每个Worker NIOEventLoop  处理业务时,会使用pipeline(管道), pipeline 中包含了boss groupNioEventLoop注册到worker selector channel , 即通过pipeline 可以获取到对应通道, 管道中维护了很多的处理器

     

    四.Netty入门

    1.引入java包

    (JDK 5(Netty 3.x)或 6(Netty 4.x))
    <dependency>
            <groupId>io.netty</groupId>
            <artifactId>netty-all</artifactId>
            <version>4.1.20.Final</version>
    </dependency>

    2.hello world 编写

    入门的编写一共需要4个类

    netty server

    netty server handler

    netty client

    netty client handler

    2.1.netty server 端编写

    package com.zpb.netty.netty.helloWorld;
    
    import io.netty.bootstrap.ServerBootstrap;
    import io.netty.channel.ChannelFuture;
    import io.netty.channel.ChannelInitializer;
    import io.netty.channel.ChannelOption;
    import io.netty.channel.EventLoopGroup;
    import io.netty.channel.nio.NioEventLoop;
    import io.netty.channel.nio.NioEventLoopGroup;
    import io.netty.channel.socket.SocketChannel;
    import io.netty.channel.socket.nio.NioServerSocketChannel;
    import io.netty.channel.socket.nio.NioSocketChannel;
    
    /**
     * @dec : netty入门
     * @Date: 2019/11/24
     * @Auther: pengbo.zhao
     * @version: 1.0
     * @demand:
     *
     *    {@link #main(String[] args)}
     *
     */
    public class NettyServer {
    
            public static void main(String[] args) throws  Exception{
    
            //1.创建BossGroup 和 WorkerGroup
            //1.1 创建2个线程组
            //bossGroup只处理连接请求
            //workerGroup 处理客户端的业务逻辑
            //2个都是无限循环
            EventLoopGroup bossGroup = new NioEventLoopGroup();
            EventLoopGroup workerGroup = new NioEventLoopGroup();
    
            //2.创建服务端的启动对象,可以为服务端启动配置一些服务参数
            ServerBootstrap bootStrap = new ServerBootstrap();
    
            //2.1使用链式编程来配置服务参数
            bootStrap.group(bossGroup,workerGroup)                          //设置2个线程组
                    .channel(NioServerSocketChannel.class)                 //使用NioServerSocketChannel作为服务器的通道
                    .option(ChannelOption.SO_BACKLOG,128)            //设置线程等待的连接个数
                    .childOption(ChannelOption.SO_KEEPALIVE,Boolean.TRUE) //设置保持活动连接状态
                    .childHandler(new ChannelInitializer<SocketChannel>() {
                        //给PipeLine设置处理器
                        @Override
                        protected void initChannel(SocketChannel socketChannel) throws Exception {
                            //通过socketChannel得到pipeLine,然后向pipeLine中添加处理的handle
                            socketChannel.pipeline().addLast(new NettyServerHandle());
                        }
                    }); //给workerGroup 的EventLoop对应的管道设置处理器(可以自定义/也可使用netty的)
            System.err.println("server is ready......");
    
            //启动服务器,并绑定1个端口且同步生成一个ChannelFuture 对象
            ChannelFuture channelFuture = bootStrap.bind(8888).sync();
    
            //对关闭通道进行监听(netty异步模型)
            //当通道进行关闭时,才会触发这个关闭动作
            channelFuture.channel().closeFuture().sync();
    
        }
    }

    2.2.netty server handler编写

    package com.zpb.netty.netty.helloWorld;
    
    import io.netty.buffer.ByteBuf;
    import io.netty.buffer.Unpooled;
    import io.netty.channel.Channel;
    import io.netty.channel.ChannelHandlerContext;
    import io.netty.channel.ChannelInboundHandlerAdapter;
    import io.netty.channel.ChannelPipeline;
    import io.netty.util.CharsetUtil;
    
    /**
     * @dec :
     * @Date: 2019/11/24
     * @Auther: pengbo.zhao
     * @version: 1.0
     * @demand:
     */
    public class NettyServerHandle extends ChannelInboundHandlerAdapter {
        /**
         * 读取数据
         *
         * @param: 1.ChannelHandlerContext ctx:上下文对象, 含有 管道 pipeline , 通道 channel, 地址
         * @param: 2. Object msg: 就是客户端发送的数据 默认 Object
         */
        @Override
        public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
            System.err.println("服务器读取线程 " + Thread.currentThread().getName());
            System.out.println("server ctx =" + ctx);
            System.out.println("看看 channel 和 pipeline 的关系");
    
            Channel channel = ctx.channel();
            ChannelPipeline pipeline = ctx.pipeline(); //本质是一个双向链接, 出站入站
    
            //将 msg 转成一个 ByteBuf,ByteBuf 是 Netty 提供的,不是 NIO 的 ByteBuffer.
            ByteBuf buf = (ByteBuf) msg;
            System.out.println("客户端发送消息是:" + buf.toString(CharsetUtil.UTF_8));
            System.out.println("客户端地址:" + channel.remoteAddress());
        }
    
        /**
         * 读取数据完成后
         *
         * @param:
         * @return:
         * @auther:
         * @date:
         */
        @Override
        public void channelReadComplete(ChannelHandlerContext ctx) throws Exception {
            //writeAndFlush 是 write + flush
            //将数据写入到缓存,并刷新
            //一般讲,我们对这个发送的数据进行编码
            ctx.writeAndFlush(Unpooled.copiedBuffer("hello, 客户端~(>^ω^<)喵", CharsetUtil.UTF_8));
        }
    
        //处理异常, 一般是需要关闭通道
        @Override
        public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
            ctx.close();
        }
    }

    2.3.netty client端编写

    package com.zpb.netty.netty.helloWorld;
    
    import io.netty.bootstrap.Bootstrap;
    import io.netty.channel.ChannelFuture;
    import io.netty.channel.ChannelInitializer;
    import io.netty.channel.EventLoopGroup;
    import io.netty.channel.nio.NioEventLoopGroup;
    import io.netty.channel.socket.SocketChannel;
    import io.netty.channel.socket.nio.NioSocketChannel;
    
    
    /**
     * @dec :
     * @Date: 2019/11/24
     * @Auther: pengbo.zhao
     * @version: 1.0
     * @demand:
     */
    public class NettyClient {
    
        public static void main(String[] args) throws Exception {
    
            //1.客户端定义一个循环事件组
            EventLoopGroup group = new NioEventLoopGroup();
    
            try {
    
                //2.创建客户端启动对象
                Bootstrap bootstrap = new Bootstrap();
                bootstrap.group(group)                      //设置线程组
                        .channel(NioSocketChannel.class)   //设置客户端通道实现类
                        .handler(new ChannelInitializer<SocketChannel>() {
                            @Override
                            protected void initChannel(SocketChannel socketChannel) throws Exception {
                                socketChannel.pipeline().addLast(new NettyClientHandle());
                            }
                        });
                System.err.println("client is ready......");
    
                //3.启动客户端去连接服务端
                ChannelFuture channelFuture = bootstrap.connect("127.0.0.1", 8888).sync();
    
                //4.设置通道关闭监听(当监听到通道关闭时,关闭client)
                channelFuture.channel().closeFuture().sync();
            } finally {
                group.shutdownGracefully();
            }
        }
    }

    2.4.netty client handler端编写

    package com.zpb.netty.netty.helloWorld;
    
    import io.netty.buffer.ByteBuf;
    import io.netty.buffer.Unpooled;
    import io.netty.channel.ChannelHandlerContext;
    import io.netty.channel.ChannelInboundHandlerAdapter;
    import io.netty.util.CharsetUtil;
    
    /**
     * @dec :
     * @Date: 2019/11/24
     * @Auther: pengbo.zhao
     * @version: 1.0
     * @demand:
     */
    public class NettyClientHandle extends ChannelInboundHandlerAdapter{
    
        //如果client 端服务启动完成后
        @Override
        public void channelActive(ChannelHandlerContext ctx) throws Exception {
    
            System.err.println("client "+ctx);
            ctx.writeAndFlush(Unpooled.copiedBuffer("hello,netty server...",CharsetUtil.UTF_8));
        }
    
        //当通道有读事件时
        @Override
        public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
    
            ByteBuf byteBuf = (ByteBuf) msg;
            System.err.println("服务器端回复消息:"+byteBuf.toString(CharsetUtil.UTF_8));
            System.err.println("服务器端地址是:"+ctx.channel().remoteAddress());
        }
    
        //当通道有异常时
    
        @Override
        public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
            cause.printStackTrace();
            ctx.close();
        }
    }

    五.Netty三种任务队列的使用

    当我们在处理的handle中如果出现了阻塞的情况,或者处理业务逻辑比较耗时,我们不能让程序处于阻塞,

    当有客户端请求时,我们想让程序定时的去执行业务逻辑,

    当需要对一些用户需要进行推送活动时,根据用户标识,找到对应的 Channel 引用,向该用户推送特定消息时

    可以采用以下三种任务队列:

    1.提交到execute(Runnable command)中时

    ctx.channel().eventLoop().execute(new Runnable() { })
    
    业务逻辑交给线程去处理,线程不会阻塞在这里,而是直接返回,直到有数据才返回给客户端,如果有多个线程runnable需要处理,那么只能等上一个处理完才会处理下一个,(假如第1个任务需要10S,第2个需要20s,执行完共需30S)

    2.提交到 scheduledTaskQueue中

    schedule(Runnable command, long delay, TimeUnit unit)
    
    ①Runnable command:执行业务逻辑处理的线程
    
    long delay:定时时长
    
    ③TimeUnit unit:定时类型
    
    业务逻辑交给定时线程去处理。

    3.通过传输的内容的标识

    在解码客户端发送的内容中,读取到客户端的特殊标识,利用这个标识来进行推送消息处理,这个在粘包、拆包中进行说明
  • 相关阅读:
    druid + mybatis-spring使用注解方式整合
    druid+dbutils+spring整合web项目
    spring继承注入和自动注入
    spring命名空间注入
    spring入门学习第二篇
    spring入门学习第一篇
    mybatis插入数据返回主键
    北京充电桩数据的获取与展示
    有关“GIS讲堂”升级与更改logo的通知
    一个GISER 6.7的祝福
  • 原文地址:https://www.cnblogs.com/MrRightZhao/p/11925307.html
Copyright © 2020-2023  润新知