zoukankan      html  css  js  c++  java
  • Netty应用

    Netty是什么?为什么要用Netty

    Netty是由JBOSS提供的一个java开源框架。 Netty提供异步的、事件驱动的网络应用程序框架和工具, 用以快速开发高性能、高可靠性的网络服务器和客户端程序。

    互联网公司必备 http://netty.io/wiki/adopters.html

    为什么要用Netty

    1、虽然JAVA NIO框架提供了 多路复用IO的支持,但是并没有提供上层“信息格式”的良好封装。例如前两者并没有提供针对 Protocol BufferJSON这些信息格式的封装,但是Netty框架提供了这些数据格式封装(基于责任链模式的编码和解码功能);

    2NIO的类库和API相当复杂,使用它来开发,需要非常熟练地掌握SelectorByteBufferServerSocketChannelSocketChannel等,需要很多额外的编程技能来辅助使用NIO,例如,因为NIO涉及了Reactor线程模型,所以必须必须对多线程和网络编程非常熟悉才能写出高质量的NIO程序

    3、要编写一个可靠的、易维护的、高性能的NIO服务器应用。除了框架本身要兼容实现各类操作系统的实现外。更重要的是它应该还要处理很多上层特有服务,例如:客户端的权限、还有上面提到的信息格式封装、简单的数据读取,断连重连,半包读写,心跳等等,这些Netty框架都提供了响应的支持。

    4JAVA NIO框架存在一个poll/epoll bugSelector doesnt block on Selector.select(timeout),不能block意味着CPU的使用率会变成100%(这是底层JNI的问题,上层要处理这个异常实际上也好办)。当然这个bug只有在Linux内核上才能重现。

    这个问题在JDK 1.7版本中还没有被完全解决,但是Netty已经将这个bug进行了处理。

    个Bug与操作系统机制有关系的,JDK虽然仅仅是一个兼容各个操作系统平台的软件,但在JDK5JDK6最初的版本中(严格意义上来将,JDK部分版本都是),这个问题并没有解决,而将这个帽子抛给了操作系统方,这也就是这个bug最终一直到2013年才最终修复的原因(JDK7JDK8之间)

    为什么不用Netty5

    1. netty5 中使用了 ForkJoinPool,增加了代码的复杂度,但是对性能的改善却不明显

    2. 多个分支的代码同步工作量很大

    3. 作者觉得当下还不到发布一个新版本的时候

    4. 在发布版本之前,还有更多问题需要调查一下,比如是否应该废弃 exceptionCaught, 是否暴露EventExecutorChooser等等。

    为什么Netty使用NIO而不是AIO

    Netty不看重Windows上的使用,在Linux系统上,AIO的底层实现仍使用EPOLL,没有很好实现AIO,因此在性能上没有明显的优势,而且被JDK封装了一层不容易深度优化。

    AIO还有个缺点是接收数据需要预先分配缓存, 而不是NIO那种需要接收时才需要分配缓存, 所以对连接数量非常大但流量小的情况, 内存浪费很多。

    据说LinuxAIO不够成熟,处理回调结果速度跟不上处理需求,有点像外卖员太少,顾客太多,供不应求,造成处理速度有瓶颈。

    作者原话:

    Not faster than NIO (epoll) on unix systems (which is true)

    There is no daragram suppport

    Unnecessary threading model (too much abstraction without usage)

    Netty组件

    Channel

    Channel 是Java NIO 的一个基本构造。

    它代表一个到实体(如一个硬件设备、一个文件、一个网络套接字或者一个能够执行一个或者多个不同的I/O操作的程序组件)的开放连接,如读操作和写操作

    目前,可以把Channel 看作是传入(入站)或者传出(出站)数据的载体。因此,它可以被打开或者被关闭,连接或者断开连接。

    回调和Future

    一个回调其实就是一个方法,一个指向已经被提供给另外一个方法的方法的引用。这使得后者可以在适当的时候调用前者。回调在广泛的编程场景中都有应用,而且也是在操作完成后通知相关方最常见的方式之一。

    Netty 在内部使用了回调来处理事件;当一个回调被触发时,相关的事件可以被一个interface-ChannelHandler 的实现处理。

    Future 提供了另一种在操作完成时通知应用程序的方式。这个对象可以看作是一个异步操作的结果的占位符;它将在未来的某个时刻完成,并提供对其结果的访问。

    JDK 预置了interface java.util.concurrent.Future,但是其所提供的实现,只允许手动检查对应的操作是否已经完成,或者一直阻塞直到它完成。这是非常繁琐的,所以Netty提供了它自己的实现——ChannelFuture,用于在执行异步操作的时候使用。

    ChannelFuture提供了几种额外的方法,这些方法使得我们能够注册一个或者多个ChannelFutureListener实例。监听器的回调方法operationComplete(),将会在对应的操作完成时被调用。然后监听器可以判断该操作是成功地完成了还是出错了。如果是后者,我们可以检索产生的Throwable。简而言之,由ChannelFutureListener提供的通知机制消除了手动检查对应的操作是否完成的必要。

    每个Netty 的出站I/O 操作都将返回一个ChannelFuture。

    事件和ChannelHandler

    Netty 使用不同的事件来通知我们状态的改变或者是操作的状态。这使得我们能够基于已经发生的事件来触发适当的动作。

    Netty事件是按照它们与入站或出站数据流的相关性进行分类的。

    可能由入站数据或者相关的状态更改而触发的事件包括:

    n 连接已被激活或者连接失活; 数据读取;n 用户事件;n 错误事件。

    出站事件是未来将会触发的某个动作的操作结果,这些动作包括:

    n 打开或者关闭到远程节点的连接;n 将数据写到或者冲刷到套接字。

    每个事件都可以被分发给ChannelHandler 类中的某个用户实现的方法。

    可以认为每个ChannelHandler 的实例都类似于一种为了响应特定事件而被执行的回调。

    Netty 提供了大量预定义的可以开箱即用的ChannelHandler 实现,包括用于各种协议(如HTTP 和SSL/TLS)的ChannelHandler。

     

    Netty组件再了解

    ChannelEventLoop(Group)ChannelFuture

    Netty 网络抽象的代表:

    Channel—Socket;

    EventLoop—控制流、多线程处理、并发;

    ChannelFuture—异步通知。

    Channel和EventLoop关系如图:

     

    Channel 接口

    基本的I/O 操作(bind()、connect()、read()和write())依赖于底层网络传输所提供的原语。在基于Java 的网络编程中,其基本的构造是类Socket。Netty 的Channel 接口所提供的API,被用于所有的I/O 操作。大大地降低了直接使用Socket 类的复杂性。此外,Channel 也是拥有许多预定义的、专门化实现的广泛类层次结构的根。

    由于Channel 是独一无二的,所以为了保证顺序将Channel 声明为java.lang.Comparable 的一个子接口。因此,如果两个不同的Channel 实例都返回了相同的散列码,那么AbstractChannel 中的compareTo()方法的实现将会抛出一个Error。

    Channel 的生命周期状态

    ChannelUnregistered Channel 已经被创建,但还未注册到EventLoop

    ChannelRegistered Channel 已经被注册到了EventLoop

    ChannelActive Channel 处于活动状态(已经连接到它的远程节点)。它现在可以接收和发送数据了

    ChannelInactive Channel 没有连接到远程节点

    当这些状态发生改变时,将会生成对应的事件。这些事件将会被转发给ChannelPipeline 中的ChannelHandler,其可以随后对它们做出响应。

    最重要Channel 的方法

    eventLoop: 返回分配给Channel EventLoop

    pipeline: 返回分配给Channel ChannelPipeline

    isActive: 如果Channel 是活动的,则返回true。活动的意义可能依赖于底层的传输。例如,一个Socket 传输一旦连接到了远程节点便是活动的,而一个Datagram 传输一旦被打开便是活动的

    localAddress: 返回本地的SokcetAddress

    remoteAddress: 返回远程的SocketAddress

    write: 将数据写到远程节点。这个数据将被传递给ChannelPipeline,并且排队直到它被冲刷

    flush: 将之前已写的数据冲刷到底层传输,如一个Socket

    writeAndFlush: 一个简便的方法,等同于调用write()并接着调用flush()

    EventLoopEventLoopGroup

    NIO中是如何处理我们关心的事件的?在一个while循环中select出事件,然后依次处理每种事件。我们可以把它称为事件循环,这就是EventLoop。interface io.netty.channel. EventLoop 定义了Netty 的核心抽象,用于处理网络连接的生命周期中所发生的事件。

    io.netty.util.concurrent 包构建在JDK 的java.util.concurrent 包上。而,io.netty.channel 包中的类,为了与Channel 的事件进行交互,扩展了这些接口/类。一个EventLoop 将由一个永远都不会改变的Thread 驱动,同时任务(Runnable 或者Callable)可以直接提交给EventLoop 实现,以立即执行或者调度执行。

     

    根据配置和可用核心的不同,可能会创建多个EventLoop 实例用以优化资源的使用,并且单个EventLoop 可能会被指派用于服务多个Channel。

    Netty的EventLoop在继承了ScheduledExecutorService的同时,只定义了一个方法,parent()。在Netty 4 中,所有的I/O操作和事件都由已经被分配给了EventLoop的那个Thread来处理。

    任务调度

    偶尔,你将需要调度一个任务以便稍后(延迟)执行或者周期性地执行。例如,你可能想要注册一个在客户端已经连接了5 分钟之后触发的任务。一个常见的用例是,发送心跳消息到远程节点,以检查连接是否仍然还活着。如果没有响应,你便知道可以关闭该Channel 了。

    线程管理

    在内部,当提交任务到如果当前)调用线程正是支撑EventLoop 的线程,那么所提交的代码块将会被(直接)执行。否则,EventLoop 将调度该任务以便稍后执行,并将它放入到内部队列中。当EventLoop下次处理它的事件时,它会执行队列中的那些任务/事件。

     

    线程的分配

    服务于Channel 的I/O 和事件的EventLoop 则包含在EventLoopGroup 中。

    异步传输实现只使用了少量的EventLoop(以及和它们相关联的Thread),而且在当前的线程模型中,它们可能会被多个Channel 所共享。这使得可以通过尽可能少量的Thread 来支撑大量的Channel,而不是每个Channel 分配一个Thread。EventLoopGroup 负责为每个新创建的Channel 分配一个EventLoop。在当前实现中,使用顺序循环(round-robin)的方式进行分配以获取一个均衡的分布,并且相同的EventLoop可能会被分配给多个Channel。

    一旦一个Channel 被分配给一个EventLoop,它将在它的整个生命周期中都使用这个EventLoop(以及相关联的Thread)。请牢记这一点,因为它可以使你从担忧你的ChannelHandler 实现中的线程安全和同步问题中解脱出来。

     

    需要注意,EventLoop 的分配方式对ThreadLocal 的使用的影响。因为一个EventLoop 通常会被用于支撑多个Channel,所以对于所有相关联的Channel 来说,ThreadLocal 都将是一样的。这使得它对于实现状态追踪等功能来说是个糟糕的选择。然而,在一些无状态的上下文中,它仍然可以被用于在多个Channel 之间共享一些重度的或者代价昂贵的对象,甚至是事件。

    ChannelFuture 接口

    Netty 中所有的I/O 操作都是异步的。因为一个操作可能不会立即返回,所以我们需要一种用于在之后的某个时间点确定其结果的方法。为此,Netty 提供了ChannelFuture 接口,其addListener()方法注册了一个ChannelFutureListener,以便在某个操作完成时(无论是否成功)得到通知。

    可以将ChannelFuture 看作是将来要执行的操作的结果的占位符。它究竟什么时候被执行则可能取决于若干的因素,因此不可能准确地预测,但是可以肯定的是它将会被执行。

    ChannelHandlerChannelPipelineChannelHandlerContext

    ChannelHandler 接口

    从应用程序开发人员的角度来看,Netty 的主要组件是ChannelHandler,它充当了所有处理入站和出站数据的应用程序逻辑的容器。ChannelHandler 的方法是由网络事件触发的。事实上,ChannelHandler 可专门用于几乎任何类型的动作,例如将数据从一种格式转换为另外一种格式,例如各种编解码,或者处理转换过程中所抛出的异常。

    举例来说,ChannelInboundHandler 是一个你将会经常实现的子接口。这种类型的ChannelHandler 接收入站事件和数据,这些数据随后将会被你的应用程序的业务逻辑所处理。当你要给连接的客户端发送响应时,也可以从ChannelInboundHandler 直接冲刷数据然后输出到对端。应用程序的业务逻辑通常实现在一个或者多个ChannelInboundHandler 中。

    这种类型的ChannelHandler 接收入站事件和数据,这些数据随后将会被应用程序的业务逻辑所处理。

    ChannelHandler 的生命周期

    接口 ChannelHandler 定义的生命周期操作,在ChannelHandler被添加到ChannelPipeline 中或者被从ChannelPipeline 中移除时会调用这些操作。这些方法中的每一个都接受一个ChannelHandlerContext 参数。

    handlerAdded 当把ChannelHandler 添加到ChannelPipeline 中时被调用

    handlerRemoved 当从ChannelPipeline 中移除ChannelHandler 时被调用

    exceptionCaught 当处理过程中在ChannelPipeline 中有错误产生时被调用

    Netty 定义了下面两个重要的ChannelHandler 子接口:

    n ChannelInboundHandler——处理入站数据以及各种状态变化;

    n ChannelOutboundHandler——处理出站数据并且允许拦截所有的操作。

    ChannelInboundHandler 接口

    下面列出了接口 ChannelInboundHandler 的生命周期方法。这些方法将会在数据被接收时或者与其对应的Channel 状态发生改变时被调用。正如我们前面所提到的,这些方法和Channel 的生命周期密切相关。

    channelRegistered 当Channel 已经注册到它的EventLoop 并且能够处理I/O 时被调用

    channelUnregistered 当Channel 从它的EventLoop 注销并且无法处理任何I/O 时被调用

    channelActive 当Channel 处于活动状态时被调用;Channel 已经连接/绑定并且已经就绪

    channelInactive 当Channel 离开活动状态并且不再连接它的远程节点时被调用

    channelReadComplete 当Channel上的一个读操作完成时被调用

    channelRead 当从Channel 读取数据时被调用

    ChannelWritabilityChanged

    当Channel 的可写状态发生改变时被调用。可以通过调用Channel 的isWritable()方法来检测Channel 的可写性。与可写性相关的阈值可以通过Channel.config().setWriteHighWaterMark()和Channel.config().setWriteLowWaterMark()方法来设置

    userEventTriggered 当ChannelnboundHandler.fireUserEventTriggered()方法被调用时被调用。

    ChannelOutboundHandler 接口

    出站操作和数据将由ChannelOutboundHandler 处理。它的方法将被Channel、Channel-

    Pipeline 以及ChannelHandlerContext 调用。

    所有由ChannelOutboundHandler 本身所定义的方法:

    bind(ChannelHandlerContext,SocketAddress,ChannelPromise)

    当请求将Channel 绑定到本地地址时被调用

    connect(ChannelHandlerContext,SocketAddress,SocketAddress,ChannelPromise)

    当请求将Channel 连接到远程节点时被调用

    disconnect(ChannelHandlerContext,ChannelPromise)

    当请求将Channel 从远程节点断开时被调用

    close(ChannelHandlerContext,ChannelPromise) 当请求关闭Channel 时被调用

    deregister(ChannelHandlerContext,ChannelPromise)

    当请求将Channel 从它的EventLoop 注销时被调用

    read(ChannelHandlerContext) 当请求从Channel 读取更多的数据时被调用

    flush(ChannelHandlerContext) 当请求通过Channel 将入队数据冲刷到远程节点时被调用

    write(ChannelHandlerContext,Object,ChannelPromise) 当请求通过Channel 将数据写到远程节点时被调用

    ChannelHandler的适配器

    有一些适配器类可以将编写自定义的ChannelHandler 所需要的工作降到最低限度,因为它们提供了定义在对应接口中的所有方法的默认实现。因为你有时会忽略那些不感兴趣的事件,所以Netty提供了抽象基类ChannelInboundHandlerAdapter 和ChannelOutboundHandlerAdapter。

    你可以使用ChannelInboundHandlerAdapter 和ChannelOutboundHandlerAdapter类作为自己的ChannelHandler 的起始点。这两个适配器分别提供了ChannelInboundHandler和ChannelOutboundHandler 的基本实现。通过扩展抽象类ChannelHandlerAdapter,它们获得了它们共同的超接口ChannelHandler 的方法。

    ChannelHandlerAdapter 还提供了实用方法isSharable()。如果其对应的实现被标注为Sharable,那么这个方法将返回true,表示它可以被添加到多个ChannelPipeline。

     

    ChannelPipeline 接口

    当Channel 被创建时,它将会被自动地分配一个新的ChannelPipeline。这项关联是永久性的;Channel 既不能附加另外一个ChannelPipeline,也不能分离其当前的。在Netty 组件的生命周期中,这是一项固定的操作,不需要开发人员的任何干预。

    使得事件流经ChannelPipeline 是ChannelHandler 的工作,它们是在应用程序的初始化或者引导阶段被安装的。这些对象接收事件、执行它们所实现的处理逻辑,并将数据传递给链中的下一个ChannelHandler。它们的执行顺序是由它们被添加的顺序所决定的。

    入站和出站ChannelHandler 可以被安装到同一个ChannelPipeline中。如果一个消息或者任何其他的入站事件被读取,那么它会从ChannelPipeline 的头部开始流动,最终,数据将会到达ChannelPipeline 的尾端,届时,所有处理就都结束了。

    数据的出站运动(即正在被写的数据)在概念上也是一样的。在这种情况下,数据将从ChannelOutboundHandler 链的尾端开始流动,直到它到达链的头部为止。在这之后,出站数据将会到达网络传输层,这里显示为Socket。通常情况下,这将触发一个写操作。

    如果将两个类别的ChannelHandler都混合添加到同一个ChannelPipeline 中会发生什么。虽然ChannelInboundHandle 和ChannelOutboundHandle 都扩展自ChannelHandler,但是Netty 能区分ChannelInboundHandler实现和ChannelOutboundHandler 实现,并确保数据只会在具有相同定向类型的两个ChannelHandler 之间传递。

     

    ChannelPipeline上的方法

    addFirstaddBeforeaddAfteraddLast

    将一个ChannelHandler 添加到ChannelPipeline 中

    remove 将一个ChannelHandler 从ChannelPipeline 中移除

    replace 将ChannelPipeline 中的一个ChannelHandler 替换为另一个ChannelHandler

    get 通过类型或者名称返回ChannelHandler

    context 返回和ChannelHandler 绑定的ChannelHandlerContext

    names 返回ChannelPipeline 中所有ChannelHandler 的名称

    ChannelPipeline 的API 公开了用于调用入站和出站操作的附加方法。

    ChannelHandlerContext

    通过使用作为参数传递到每个方法的ChannelHandlerContext,事件可以被传递给当前ChannelHandler 链中的下一个ChannelHandler。虽然这个对象可以被用于获取底层的Channel,但是它主要还是被用于写出站数据。

    ChannelHandlerContext 代表了ChannelHandler 和ChannelPipeline 之间的关联,每当有ChannelHandler 添加到ChannelPipeline 中时,都会创建ChannelHandler-Context。ChannelHandlerContext 的主要功能是管理它所关联的ChannelHandler 和在同一个ChannelPipeline 中的其他ChannelHandler 之间的交互。

    ChannelHandlerContext 有很多的方法,其中一些方法也存在于Channel 和Channel-Pipeline 本身上,但是有一点重要的不同。如果调用Channel 或者ChannelPipeline 上的这些方法,它们将沿着整个ChannelPipeline 进行传播。而调用位于ChannelHandlerContext上的相同方法,则将从当前所关联的ChannelHandler 开始,并且只会传播给位于该ChannelPipeline 中的下一个(入站下一个,出站上一个)能够处理该事件的ChannelHandler。

     

    ChannelHandlerContext API

    alloc 返回和这个实例相关联的Channel 所配置的ByteBufAllocator

    bind 绑定到给定的SocketAddress,并返回ChannelFuture

    channel 返回绑定到这个实例的Channel

    close 关闭Channel,并返回ChannelFuture

    connect 连接给定的SocketAddress,并返回ChannelFuture

    deregister 从之前分配的EventExecutor 注销,并返回ChannelFuture

    disconnect 从远程节点断开,并返回ChannelFuture

    executor 返回调度事件的EventExecutor

    fireChannelActive 触发对下一个ChannelInboundHandler 上的channelActive()方法(已连接)的调用

    fireChannelInactive 触发对下一个ChannelInboundHandler 上的channelInactive()方法(已关闭)的调用

    fireChannelRead 触发对下一个ChannelInboundHandler 上的channelRead()方法(已接收的消息)的调用

    fireChannelReadComplete 触发对下一个ChannelInboundHandler 上的channelReadComplete()方法的调用

    fireChannelRegistered 触发对下一个ChannelInboundHandler 上的fireChannelRegistered()方法的调用

    fireChannelUnregistered 触发对下一个ChannelInboundHandler 上的fireChannelUnregistered()方法的调用

    fireChannelWritabilityChanged 触发对下一个ChannelInboundHandler 上的fireChannelWritabilityChanged()方法的调用

    fireExceptionCaught 触发对下一个ChannelInboundHandler 上的fireExceptionCaught(Throwable)方法的调用

    fireUserEventTriggered 触发对下一个ChannelInboundHandler 上的fireUserEventTriggered(Object evt)方法的调用

    handler 返回绑定到这个实例的ChannelHandler

    isRemoved 如果所关联的ChannelHandler 已经被从ChannelPipeline中移除则返回true

    name 返回这个实例的唯一名称

    pipeline 返回这个实例所关联的ChannelPipeline

    read 将数据从Channel读取到第一个入站缓冲区;如果读取成功则触发一个channelRead事件,并(在最后一个消息被读取完成后)通知ChannelInboundHandler 的channelReadComplete

    (ChannelHandlerContext)方法

    当使用ChannelHandlerContext 的API 的时候,有以下两点:

    l n ChannelHandlerContext 和ChannelHandler 之间的关联(绑定)是永远不会改变的,所以缓存对它的引用是安全的;

    l n 如同我们在本节开头所解释的一样,相对于其他类的同名方法,ChannelHandler Context的方法将产生更短的事件流,应该尽可能地利用这个特性来获得最大的性能。

    选择合适的内置通信传输模式

    NIO io.netty.channel.socket.nio 使用java.nio.channels 包作为基础——基于选择器的方式

    Epoll io.netty.channel.epoll JNI 驱动的 epoll()和非阻塞 IO。这个传输支持只有在Linux 上可用的多种特性,如SO_REUSEPORT,比NIO 传输更快,而且是完全非阻塞的。将NioEventLoopGroup替换为EpollEventLoopGroup , 并且将NioServerSocketChannel.class 替换为EpollServerSocketChannel.class 即可。

    OIO io.netty.channel.socket.oio 使用java.net 包作为基础——使用阻塞流

    Local io.netty.channel.local 可以在VM 内部通过管道进行通信的本地传输

    Embedded io.netty.channel.embedded Embedded 传输,允许使用ChannelHandler 而又不需要一个真正的基于网络的传输。在测试ChannelHandler 实现时非常有用

    引导Bootstrap

    网络编程里,“服务器”和“客户端”实际上表示了不同的网络行为;换句话说,是监听传入的连接还是建立到一个或者多个进程的连接。

    因此,有两种类型的引导:一种用于客户端(简单地称为Bootstrap),而另一种(ServerBootstrap)用于服务器。无论你的应用程序使用哪种协议或者处理哪种类型的数据,唯一决定它使用哪种引导类的是它是作为一个客户端还是作为一个服务器。

    比较Bootstrap

    Bootstrap

    ServerBootstrap

    网络编程中的作用

    连接到远程主机和端口

    绑定到一个本地端口

    EventLoopGroup 的数目  

    1

    2

    ServerBootstrap 将绑定到一个端口,因为服务器必须要监听连接,而Bootstrap 则是由想要连接到远程节点的客户端应用程序所使用的。

    第二个区别可能更加明显。引导一个客户端只需要一个EventLoopGroup,但是一个ServerBootstrap 则需要两个(也可以是同一个实例)。

    因为服务器需要两组不同的Channel。第一组将只包含一个ServerChannel,代表服务器自身的已绑定到某个本地端口的正在监听的套接字。而第二组将包含所有已创建的用来处理传入客户端连接(对于每个服务器已经接受的连接都有一个)的Channel。

     

    与ServerChannel 相关联的EventLoopGroup 将分配一个负责为传入连接请求创建Channel 的EventLoop。一旦连接被接受,第二个EventLoopGroup 就会给它的Channel分配一个EventLoop。

    在引导过程中添加多个ChannelHandler

    Netty 提供了一个特殊的ChannelInboundHandlerAdapter 子类:

    public abstract class ChannelInitializer<C extends Channel> ext ends ChannelInboundHandlerAdapter

    它定义了下面的方法:

    protect ed abstract void initChannel(C ch) throws Exception;

    这个方法提供了一种将多个ChannelHandler 添加到一个ChannelPipeline 中的简便方法。你只需要简单地向Bootstrap 或ServerBootstrap 的实例提供你的ChannelInitializer 实现即可,并且一旦Channel 被注册到了它的EventLoop 之后,就会调用你的initChannel()版本。在该方法返回之后,ChannelInitializer 的实例将会从ChannelPipeline 中移除它自己。

    ChannelOption

    ChannelOption的各种属性在套接字选项中都有对应。

    1ChannelOption.SO_BACKLOG

    ChannelOption.SO_BACKLOG对应的是tcp/ip协议listen函数中的backlog参数,函数listen(int socketfd,int backlog)用来初始化服务端可连接队列,

    服务端处理客户端连接请求是顺序处理的,所以同一时间只能处理一个客户端连接,多个客户端来的时候,服务端将不能处理的客户端连接请求放在队列中等待处理,backlog参数指定了队列的大小

    2ChannelOption.SO_REUSEADDR

    ChanneOption.SO_REUSEADDR对应于套接字选项中的SO_REUSEADDR,这个参数表示允许重复使用本地地址和端口,

    比如,某个服务器进程占用了TCP80端口进行监听,此时再次监听该端口就会返回错误,使用该参数就可以解决问题,该参数允许共用该端口,这个在服务器程序中比较常使用,比如某个进程非正常退出,该程序占用的端口可能要被占用一段时间才能允许其他进程使用,而且程序死掉以后,内核一需要一定的时间才能够释放此端口,不设置SO_REUSEADDR    就无法正常使用该端口。

    3ChannelOption.SO_KEEPALIVE

    Channeloption.SO_KEEPALIVE参数对应于套接字选项中的SO_KEEPALIVE,该参数用于设置TCP连接,当设置该选项以后,连接会测试链接的状态,这个选项用于可能长时间没有数据交流的连接。当设置该选项以后,如果在两小时内没有数据的通信时,TCP会自动发送一个活动探测数据报文。

    4ChannelOption.SO_SNDBUFChannelOption.SO_RCVBUF

    ChannelOption.SO_SNDBUF参数对应于套接字选项中的SO_SNDBUFChannelOption.SO_RCVBUF参数对应于套接字选项中的SO_RCVBUF这两个参数用于操作接收缓冲区和发送缓冲区的大小,接收缓冲区用于保存网络协议站内收到的数据,直到应用程序读取成功,发送缓冲区用于保存发送数据,直到发送成功。

    5ChannelOption.SO_LINGER

    ChannelOption.SO_LINGER参数对应于套接字选项中的SO_LINGER,Linux内核默认的处理方式是当用户调用close()方法的时候,函数返回,在可能的情况下,尽量发送数据,不一定保证会发生剩余的数据,造成了数据的不确定性,使用SO_LINGER可以阻塞close()的调用时间,直到数据完全发送

    6ChannelOption.TCP_NODELAY

    ChannelOption.TCP_NODELAY参数对应于套接字选项中的TCP_NODELAY,该参数的使用与Nagle算法有关,Nagle算法是将小的数据包组装为更大的帧然后进行发送,而不是输入一次发送一次,因此在数据包不足的时候会等待其他数据的到了,组装成大的数据包进行发送,虽然该方式有效提高网络的有效负载,但是却造成了延时,而该参数的作用就是禁止使用Nagle算法,使用于小数据即时传输,于TCP_NODELAY相对应的是TCP_CORK,该选项是需要等到发送的数据量最大的时候,一次性发送数据,适用于文件传输。

    ByteBuf

    ByteBuf API 的优点:

    n 它可以被用户自定义的缓冲区类型扩展;

    n 通过内置的复合缓冲区类型实现了透明的零拷贝;

    n 容量可以按需增长(类似于JDK 的StringBuilder);

    n 在读和写这两种模式之间切换不需要调用ByteBuffer 的flip()方法;

    n 读和写使用了不同的索引;

    n 支持方法的链式调用;

    n 支持引用计数;

    n 支持池化。

    ByteBuf 维护了两个不同的索引,名称以read 或者write 开头的ByteBuf 方法,将会推进其对应的索引,而名称以set 或者get 开头的操作则不会 

    如果打算读取字节直到readerIndex 达到和writerIndex 同样的值时会发生什么。在那时,你将会到达“可以读取的”数据的末尾。就如同试图读取超出数组末尾的数据一样,试图读取超出该点的数据将会触发一个IndexOutOf-BoundsException。

    可以指定ByteBuf 的最大容量。试图移动写索引(即writerIndex)超过这个值将会触发一个异常。(默认的限制是Integer.MAX_VALUE。)

    分配

    堆缓冲区

    最常用的ByteBuf 模式是将数据存储在JVM 的堆空间中。这种模式被称为支撑数组(backing array),它能在没有使用池化的情况下提供快速的分配和释放。可以由hasArray()来判断检查ByteBuf 是否由数组支撑。如果不是,则这是一个直接缓冲区

    直接缓冲区

    直接缓冲区是另外一种ByteBuf 模式。

    直接缓冲区的主要缺点是,相对于基于堆的缓冲区,它们的分配和释放都较为昂贵。

    ByteBufAllocator

    Netty 通过interface ByteBufAllocator分配我们所描述过的任意类型的ByteBuf 实例。

    名称

    描述

    buffer()

    返回一个基于堆或者直接内存存储的ByteBuf

    heapBuffer()

    返回一个基于堆内存存储的ByteBuf

    directBuffer()

    返回一个基于直接内存存储的ByteBuf

    compositeBuffer()

    返回一个可以通过添加最大到指定数目的基于堆的或者直接内存存储的缓冲区来扩展的CompositeByteBuf

    ioBuffer()

    返回一个用于套接字的I/O 操作的ByteBuf,当所运行的环境具有sun.misc.Unsafe 支持时,返回基于直接内存存储的ByteBuf,否则返回基于堆内存存储的ByteBuf;当指定使用PreferHeapByteBufAllocator 时,则只会返回基于堆内存存储的ByteBuf。

    可以通过Channel(每个都可以有一个不同的ByteBufAllocator 实例)或者绑定到ChannelHandler 的ChannelHandlerContext 获取一个到ByteBufAllocator 的引用。

     

    Netty提供了两种ByteBufAllocator的实现:PooledByteBufAllocator和Unpooled-ByteBufAllocator。前者池化了ByteBuf的实例以提高性能并最大限度地减少内存碎片。后者的实现不池化ByteBuf实例,并且在每次它被调用时都会返回一个新的实例。

    Netty4.1默认使用了PooledByteBufAllocator。

    Unpooled 缓冲区

    Netty 提供了一个简单的称为Unpooled 的工具类,它提供了静态的辅助方法来创建未池化的ByteBuf

    实例。

    buffer()  返回一个未池化的基于堆内存存储的ByteBuf

    directBuffer()返回一个未池化的基于直接内存存储的ByteBuf

    wrappedBuffer() 返回一个包装了给定数据的ByteBuf

    copiedBuffer() 返回一个复制了给定数据的ByteBuf

    Unpooled 类还可用于ByteBuf 同样可用于那些并不需要Netty 的其他组件的非网络项目。

    随机访问索引/顺序访问索引/读写操作

    如同在普通的Java 字节数组中一样,ByteBuf 的索引是从零开始的:第一个字节的索引是0,最后一个字节的索引总是capacity() - 1。使用那些需要一个索引值参数(随机访问,也即是数组下标)的方法(的其中)之一来访问数据既不会改变readerIndex 也不会改变writerIndex。如果有需要,也可以通过调用readerIndex(index)或者writerIndex(index)来手动移动这两者。顺序访问通过索引访问

    有两种类别的读/写操作:

    n get()和set()操作,从给定的索引开始,并且保持索引不变;get+数据字长(bool.byte,int,short,long,bytes

    n read()和write()操作,从给定的索引开始,并且会根据已经访问过的字节数对索引进行调整。

    更多的操作

    isReadable() 如果至少有一个字节可供读取,则返回true

    isWritable() 如果至少有一个字节可被写入,则返回true

    readableBytes() 返回可被读取的字节数

    writableBytes() 返回可被写入的字节数

    capacity() 返回ByteBuf 可容纳的字节数。在此之后,它会尝试再次扩展直到达到maxCapacity()

    maxCapacity() 返回ByteBuf 可以容纳的最大字节数

    hasArray() 如果ByteBuf 由一个字节数组支撑,则返回true

    array() 如果 ByteBuf 由一个字节数组支撑则返回该数组;否则,它将抛出一个UnsupportedOperationException 异常

    可丢弃字节

    为可丢弃字节的分段包含了已经被读过的字节。通过调用discardRead-Bytes()方法,可以丢弃它们并回收空间。这个分段的初始大小为0,存储在readerIndex 中,会随着read 操作的执行而增加(get*操作不会移动readerIndex)。

    缓冲区上调用discardReadBytes()方法后,可丢弃字节分段中的空间已经变为可写的了。频繁地调用discardReadBytes()方法以确保可写分段的最大化,但是请注意,这将极有可能会导致内存复制,因为可读字节必须被移动到缓冲区的开始位置。建议只在有真正需要的时候才这样做,例如,当内存非常宝贵的时候。

     

    可读字节

    ByteBuf 的可读字节分段存储了实际数据。新分配的、包装的或者复制的缓冲区的默认的readerIndex 值为0。

    可写字节

    可写字节分段是指一个拥有未定义内容的、写入就绪的内存区域。新分配的缓冲区的writerIndex 的默认值为0。任何名称以write 开头的操作都将从当前的writerIndex 处开始写数据,并将它增加已经写入的字节数。

     

    索引管理

    调用markReaderIndex()、markWriterIndex()、resetWriterIndex()和resetReaderIndex()来标记和重置ByteBuf 的readerIndex 和writerIndex。

    也可以通过调用readerIndex(int)或者writerIndex(int)来将索引移动到指定位置。试图将任何一个索引设置到一个无效的位置都将导致一个IndexOutOfBoundsException。

    可以通过调用clear()方法来将readerIndex 和writerIndex 都设置为0。注意,这并不会清除内存中的内容。

    查找操作

    在ByteBuf中有多种可以用来确定指定值的索引的方法。最简单的是使用indexOf()方法。

    较复杂的查找可以通过调用forEach Byte()。

    代码展示了一个查找回车符( )的例子。

     

    派生缓冲区

    派生缓冲区为ByteBuf 提供了以专门的方式来呈现其内容的视图。这类视图是通过以下方法被创建的:

    n duplicate();

    n slice();

    slice(int, int);

    n Unpooled.unmodifiableBuffer(…);

    n order(ByteOrder);

    n readSlice(int)。

    每个这些方法都将返回一个新的ByteBuf 实例,它具有自己的读索引、写索引和标记索引。其内部存储和JDK 的ByteBuffer 一样也是共享的。

    ByteBuf 复制 如果需要一个现有缓冲区的真实副本,请使用copy()或者copy(int, int)方法。不同于派生缓冲区,由这个调用所返回的ByteBuf 拥有独立的数据副本。

    引用计数

    引用计数是一种通过在某个对象所持有的资源不再被其他对象引用时释放该对象所持有的资源来优化内存使用和性能的技术。Netty 在第4 版中为ByteBuf引入了引用计数技术, interface ReferenceCounted。

    工具类

    ByteBufUtil 提供了用于操作ByteBuf 的静态的辅助方法。因为这个API 是通用的,并且和池化无关,所以这些方法已然在分配类的外部实现。

    这些静态方法中最有价值的可能就是hexdump()方法,它以十六进制的表示形式打印ByteBuf 的内容。这在各种情况下都很有用,例如,出于调试的目的记录ByteBuf 的内容。十六进制的表示通常会提供一个比字节值的直接表示形式更加有用的日志条目,此外,十六进制的版本还可以很容易地转换回实际的字节表示。

    另一个有用的方法是boolean equals(ByteBuf, ByteBuf),它被用来判断两个ByteBuf实例的相等性。

    资源释放

    当某个ChannelInboundHandler 的实现重写channelRead()方法时,它要负责显式地释放与池化的ByteBuf 实例相关的内存。Netty 为此提供了一个实用方法ReferenceCountUtil.release()

    Netty 将使用WARN 级别的日志消息记录未释放的资源,使得可以非常简单地在代码中发现违规的实例。但是以这种方式管理资源可能很繁琐。一个更加简单的方式是使用SimpleChannelInboundHandler,SimpleChannelInboundHandler 会自动释放资源。

    1、对于入站请求,NettyEventLoo在处理Channel的读操作时进行分配ByteBuf,对于这类ByteBuf,需要我们自行进行释放,有三种方式,或者使用SimpleChannelInboundHandler,或者在重写channelRead()方法使用ReferenceCountUtil.release()或者使用ctx.fireChannelRead继续向后传递;

    2、对于出站请求,不管ByteBuf是否由我们的业务创建的,当调用了write或者writeAndFlush方法后,Netty会自动替我们释放,不需要我们业务代码自行释放。

    解决粘包/半包问题

    什么是TCP粘包半包?

     

    假设客户端分别发送了两个数据包D1D2给服务端,由于服务端一次读取到的字节数是不确定的,故可能存在以下4种情况。

    1)服务端分两次读取到了两个独立的数据包,分别是D1D2,没有粘包和拆包;

    2)服务端一次接收到了两个数据包,D1D2粘合在一起,被称为TCP粘包;

    3)服务端分两次读取到了两个数据包,第一次读取到了完整的D1包和D2包的部分内容,第二次读取到了D2包的剩余内容,这被称为TCP拆包;

    4)服务端分两次读取到了两个数据包,第一次读取到了D1包的部分内容D1_1,第二次读取到了D1包的剩余内容D1_2D2包的整包。

    如果此时服务端TCP接收滑窗非常小,而数据包D1D2比较大,很有可能会发生第五种可能,即服务端分多次才能将D1D2包接收完全,期间发生多次拆包。

    TCP粘包/半包发生的原因

    由于TCP协议本身的机制(面向连接的可靠地协议-三次握手机制)客户端与服务器会维持一个连接(Channel),数据在连接不断开的情况下,可以持续不断地将多个数据包发往服务器,但是如果发送的网络数据包太小,那么他本身会启用Nagle算法(可配置是否启用)对较小的数据包进行合并(基于此,TCP的网络延迟要UDP的高些)然后再发送(超时或者包大小足够)。那么这样的话,服务器在接收到消息(数据流)的时候就无法区分哪些数据包是客户端自己分开发送的,这样产生了粘包;服务器在接收到数据库后,放到缓冲区中,如果消息没有被及时从缓存区取走,下次在取数据的时候可能就会出现一次取出多个数据包的情况,造成粘包现象

    UDP:本身作为无连接的不可靠的传输协议(适合频繁发送较小的数据包),他不会对数据包进行合并发送(也就没有Nagle算法之说了),他直接是一端发送什么数据,直接就发出去了,既然他不会对数据合并,每一个数据包都是完整的(数据+UDP+IP头等等发一次数据封装一次)也就没有粘包一说了。

    分包产生的原因就简单的多:可能是IP分片传输导致的,也可能是传输过程中丢失部分包导致出现的半包,还有可能就是一个包可能被分成了两次传输,在取数据的时候,先取到了一部分(还可能与接收的缓冲区大小有关系),总之就是一个数据包被分成了多次接收。

    更具体的原因有三个,分别如下。

    1. 应用程序写入数据的字节大小大于套接字发送缓冲区的大小

    2. 进行MSS大小的TCP分段。MSS是最大报文段长度的缩写。MSSTCP报文段中的数据字段的最大长度。数据字段加上TCP首部才等于整个的TCP报文段。所以MSS并不是TCP报文段的最大长度,而是:MSS=TCP报文段长度-TCP首部长度

    3. 以太网的payload大于MTU进行IP分片。MTU指:一种通信协议的某一层上面所能通过的最大数据包大小。如果IP层有一个数据包要传,而且数据的长度比链路层的MTU大,那么IP层就会进行分片,把数据包分成托干片,让每一片都不超过MTU。注意,IP分片可以发生在原始发送端主机上,也可以发生在中间路由器上。

    解决粘包半包问题

    由于底层的TCP无法理解上层的业务数据,所以在底层是无法保证数据包不被拆分和重组的,这个问题只能通过上层的应用协议栈设计来解决,根据业界的主流协议的解决方案,可以归纳如下。

    (1) 在包尾增加分割符,比如回车换行符进行分割,例如FTP协议;

    2)消息定长,例如每个报文的大小为固定长度200字节,如果不够,空位补空格;

    3)将消息分为消息头和消息体,消息头中包含表示消息总长度(或者消息体长度)的字段,通常设计思路为消息头的第一个字段使用int32来表示消息的总长度,LengthFieldBasedFrameDecoder。

  • 相关阅读:
    3、Python文件操作工具 xlwt 工具
    2、Python文件操作工具 xlrd 工具
    1、关于python第三方工具操作xls和xlsx格式的excel文档选型的吐血经历
    设置python的默认编码方式为utf-8
    Python安装第三方库 xlrd 和 xlwt 。处理Excel表格
    I/O字符流
    I/O字节流
    读写锁实现线程安全缓存
    红黑树理解
    Task异常捕获
  • 原文地址:https://www.cnblogs.com/Soy-technology/p/11154886.html
Copyright © 2011-2022 走看看