zoukankan      html  css  js  c++  java
  • Netty组件(二)

    一、ByteBuf

      ByteBuf是netty自创的一个数据读写类,解决了原有的ByteBuffer的一些缺点。ByteBuf通过ByteBufAllocator选择allocator并调用对应的buffer()方法来创建的,默认使用直接内存作为ByteBuf,容量为256个字节,可以指定初始容量的大小。当ByteBuf的容量无法容纳所有数据时,ByteBuf会进行扩容操作。如果在handler中创建ByteBuf,建议使用ChannelHandlerContext ctx.alloc().buffer()来创建。

    public class ByteBufStudy {
        public static void main(String[] args) {
            // 创建ByteBuf
            ByteBuf buffer = ByteBufAllocator.DEFAULT.buffer(16);
            ByteBufUtil.log(buffer);
    
            // 向buffer中写入数据
            StringBuilder sb = new StringBuilder();
            for(int i = 0; i < 20; i++) {
                sb.append("a");
            }
            buffer.writeBytes(sb.toString().getBytes(StandardCharsets.UTF_8));
    
            // 查看写入结果
            ByteBufUtil.log(buffer);
        }
    }
    
    private static void log(ByteBuf buffer) {
        int length = buffer.readableBytes();
        int rows = length / 16 + (length % 15 == 0 ? 0 : 1) + 4;
        StringBuilder buf = new StringBuilder(rows * 80 * 2)
            .append("read index:").append(buffer.readerIndex())
            .append(" write index:").append(buffer.writerIndex())
            .append(" capacity:").append(buffer.capacity())
            .append(NEWLINE);
        appendPrettyHexDump(buf, buffer);
        System.out.println(buf.toString());
    }

    二、直接内存与堆内存

    ByteBuf buffer = ByteBufAllocator.DEFAULT.buffer(16);

    通过该方法创建的ByteBuf,使用的是基于直接内存的ByteBuf,也可以使用下面的代码来创建池化基于直接内存的ByteBuf。

    ByteBuf buffer = ByteBufAllocator.DEFAULT.directBuffer(16);

    还可以创建池化基于堆的 ByteBuf

    ByteBuf buffer = ByteBufAllocator.DEFAULT.heapBuffer(16);

    直接内存创建和销毁的代价昂贵,但读写性能高(少一次内存复制),适合配合池化功能一起用,直接内存对 GC 压力小,因为这部分内存不受 JVM 垃圾回收的管理,但也要注意及时主动释放。

    三、池化与非池化

    池化的最大意义在于可以重用 ByteBuf,优点有:
    没有池化,则每次都得创建新的 ByteBuf 实例,这个操作对直接内存代价昂贵,就算是堆内存,也会增加 GC 压力
    有了池化,则可以重用池中 ByteBuf 实例,并且采用了与 jemalloc 类似的内存分配算法提升分配效率
    高并发时,池化功能更节约内存,减少内存溢出的可能

    池化功能是否开启,可以通过下面的系统环境变量来设置

    -Dio.netty.allocator.type={unpooled|pooled}

    四、ByteBuf的组成

    在构造ByteBuf时,可传入两个参数,分别代表初始容量和最大容量,若未传入第二个参数(最大容量),最大容量默认为Integer.MAX_VALUE。

    当ByteBuf容量无法容纳所有数据时,会进行扩容操作,若超出最大容量,会抛出java.lang.IndexOutOfBoundsException异常。

    读写操作跟ByteBuffer不同,ByteBuffer只用position进行控制,ByteBuf分别由读指针和写指针两个指针控制。进行读写操作时,无需进行模式的切换。

    读指针前的部分被称为废弃部分,是已经读过的内容。

    读指针与写指针之间的空间称为可读部分。

    写指针与当前容量之间的空间称为可写部分。

    常用的写入方法如下:

    方法签名含义备注
    writeBoolean(boolean value) 写入 boolean 值 用一字节 01|00 代表 true|false
    writeByte(int value) 写入 byte 值  
    writeShort(int value) 写入 short 值  
    writeInt(int value) 写入 int 值 Big Endian(大端写入),即 0x250,写入后 00 00 02 50
    writeIntLE(int value) 写入 int 值 Little Endian(小端写入),即 0x250,写入后 50 02 00 00
    writeLong(long value) 写入 long 值  
    writeChar(int value) 写入 char 值  
    writeFloat(float value) 写入 float 值  
    writeDouble(double value) 写入 double 值  
    writeBytes(ByteBuf src) 写入 netty 的 ByteBuf  
    writeBytes(byte[] src) 写入 byte[]  
    writeBytes(ByteBuffer src) 写入 nio 的 ByteBuffer  
    int writeCharSequence(CharSequence sequence, Charset charset) 写入字符串 CharSequence为字符串类的父类,第二个参数为对应的字符集

    使用示例:

    public class ByteBufStudy {
        public static void main(String[] args) {
            // 创建ByteBuf
            ByteBuf buffer = ByteBufAllocator.DEFAULT.buffer(16, 20);
            ByteBufUtil.log(buffer);
    
            // 向buffer中写入数据
            buffer.writeBytes(new byte[]{1, 2, 3, 4});
            ByteBufUtil.log(buffer);
    
            buffer.writeInt(5);
            ByteBufUtil.log(buffer);
    
            buffer.writeIntLE(6);
            ByteBufUtil.log(buffer);
    
            buffer.writeLong(7);
            ByteBufUtil.log(buffer);
        }
    }

    还有一类方法是 set 开头的一系列方法,也可以写入数据,但不会改变写指针位置。

    1、扩容

    当ByteBuf中的容量无法容纳写入的数据时,会进行扩容操作,扩容规则如下:

    如果写入后数据大小未超过 512 字节,则选择下一个 16 的整数倍进行扩容
    例如写入后大小为 12 字节,则扩容后 capacity 是 16 字节
    如果写入后数据大小超过 512 字节,则选择下一个2^n
    例如写入后大小为 513 字节,则扩容后 capacity 是 2^10=1024 字节
    扩容不能超过 maxCapacity,否则会抛出java.lang.IndexOutOfBoundsException异常

    2、读取

    读取主要是通过一系列read方法进行读取,读取时会根据读取数据的字节数移动读指针。如果需要重复读取,需要调用buffer.markReaderIndex()对读指针进行标记,并通过buffer.resetReaderIndex()将读指针恢复到mark标记的位置。

    public class ByteBufStudy {
        public static void main(String[] args) {
            // 创建ByteBuf
            ByteBuf buffer = ByteBufAllocator.DEFAULT.buffer(16, 20);
    
            // 向buffer中写入数据
            buffer.writeBytes(new byte[]{1, 2, 3, 4});
            buffer.writeInt(5);
    
            // 读取1个字节
            System.out.println(buffer.readByte());
            ByteBufUtil.log(buffer);
    
            // 通过mark与reset实现重复读取
            buffer.markReaderIndex();
            System.out.println(buffer.readInt());
            ByteBufUtil.log(buffer);
    
            // 恢复到mark标记处
            buffer.resetReaderIndex();
            ByteBufUtil.log(buffer);
        }
    }

    还有以 get 开头的一系列方法,这些方法不会改变读指针的位置。

    3、释放

    由于 Netty 中有堆外内存(直接内存)的 ByteBuf 实现,堆外内存最好是手动来释放,而不是等 GC 垃圾回收。

    UnpooledHeapByteBuf 使用的是 JVM 内存,只需等 GC 回收内存即可
    UnpooledDirectByteBuf 使用的就是直接内存了,需要特殊的方法来回收内存
    PooledByteBuf 和它的子类使用了池化机制,需要更复杂的规则来回收内存

    Netty 这里采用了引用计数法来控制回收内存,每个 ByteBuf 都实现了 ReferenceCounted 接口。

    每个 ByteBuf 对象的初始计数为 1
    调用 release 方法计数减 1,如果计数为 0,ByteBuf 内存被回收
    调用 retain 方法计数加 1,在调用者没用完之前,其它 handler 即使调用了 release 也不会造成回收
    当计数为 0 时,底层内存会被回收,这时即使 ByteBuf 对象还在,其各个方法均无法正常使用

    释放规则

    因为 pipeline 的存在,一般需要将 ByteBuf 传递给下一个 ChannelHandler,如果在每个 ChannelHandler 中都去调用 release ,就失去了传递性(如果在这个 ChannelHandler 内这个 ByteBuf 已完成了它的使命,那么便无须再传递),基本规则是,谁是最后使用者,谁负责 release。

    在 io.netty.channel.nio.AbstractNioByteChannel.NioByteUnsafe.read 方法中首次创建 ByteBuf 放入 pipeline(line 163 pipeline.fireChannelRead(byteBuf))。

    入栈 ByteBuf 处理原则

      对原始 ByteBuf 不做处理,调用 ctx.fireChannelRead(msg) 向后传递,这时无须 release
      将原始 ByteBuf 转换为其它类型的 Java 对象,这时 ByteBuf 就没用了,必须 release
      如果不调用 ctx.fireChannelRead(msg) 向后传递,那么也必须 release
      注意各种异常,如果 ByteBuf 没有成功传递到下一个 ChannelHandler,必须 release
      假设消息一直向后传,那么 TailContext 会负责释放未处理消息(原始的 ByteBuf)

    出栈 ByteBuf 处理原则

      出站消息最终都会转为 ByteBuf 输出,一直向前传,由 HeadContext flush 后 release

    异常处理原则

      有时候不清楚 ByteBuf 被引用了多少次,但又必须彻底释放,可以循环调用 release 直到返回 true

    while (!buffer.release()) {}

    当ByteBuf被传到了pipeline的head与tail时,ByteBuf会被其中的方法彻底释放,但前提是ByteBuf被传递到了head与tail中。

    五、切片

      ByteBuf切片是【零拷贝】的体现之一,对原始 ByteBuf 进行切片成多个 ByteBuf,切片后的 ByteBuf 并没有发生内存复制,还是使用原始 ByteBuf 的内存,切片后的 ByteBuf 维护独立的 read,write 指针。

    得到分片后的buffer后,要调用其retain方法,使其内部的引用计数+1。避免原ByteBuf释放,导致切片buffer无法使用,修改原ByteBuf中的值,也会影响切片后得到的ByteBuf。

    public class TestSlice {
        public static void main(String[] args) {
            // 创建ByteBuf
            ByteBuf buffer = ByteBufAllocator.DEFAULT.buffer(16, 20);
    
            // 向buffer中写入数据
            buffer.writeBytes(new byte[]{1, 2, 3, 4, 5, 6, 7, 8, 9, 10});
    
            // 将buffer分成两部分
            ByteBuf slice1 = buffer.slice(0, 5);
            ByteBuf slice2 = buffer.slice(5, 5);
    
            // 需要让分片的buffer引用计数加一
            // 避免原Buffer释放导致分片buffer无法使用
            slice1.retain();
            slice2.retain();
            
            ByteBufUtil.log(slice1);
            ByteBufUtil.log(slice2);
    
            // 更改原始buffer中的值
            System.out.println("===========修改原buffer中的值===========");
            buffer.setByte(0,5);
    
            System.out.println("===========打印slice1===========");
            ByteBufUtil.log(slice1);
        }
    }

    优势:

      池化思想 - 可以重用池中 ByteBuf 实例,更节约内存,减少内存溢出的可能
      读写指针分离,不需要像 ByteBuffer 一样切换读写模式
      可以自动扩容
      支持链式调用,使用更流畅
      很多地方体现零拷贝,例如:slice、duplicate、CompositeByteBuf

    六、总结

    • channel 可以理解为数据的通道
    • msg 理解为流动的数据,最开始输入是 ByteBuf,但经过 pipeline 中的各个 handler 加工,会变成其它类型对象,最后输出又变成 ByteBuf
    • handler 可以理解为数据的处理工序
      • 工序有多道,合在一起就是 pipeline(传递途径),pipeline 负责发布事件(读、读取完成…)传播给每个 handler, handler 对自己感兴趣的事件进行处理(重写了相应事件处理方法)
        • pipeline 中有多个 handler,处理时会依次调用其中的 handler
      • handler 分 Inbound 和 Outbound 两类
        • Inbound 入站
        • Outbound 出站
    • eventLoop 可以理解为处理数据的工人
      • eventLoop 可以管理多个 channel 的 io 操作,并且一旦 eventLoop 负责了某个 channel,就会将其与channel进行绑定,以后该 channel 中的 io 操作都由该 eventLoop 负责
      • eventLoop 既可以执行 io 操作,也可以进行任务处理,每个 eventLoop 有自己的任务队列,队列里可以堆放多个 channel 的待处理任务,任务分为普通任务、定时任务
      • eventLoop 按照 pipeline 顺序,依次按照 handler 的规划(代码)处理数据,可以为每个 handler 指定不同的 eventLoop

     参考链接:https://nyimac.gitee.io/2021/04/25/Netty%E5%9F%BA%E7%A1%80/

  • 相关阅读:
    mysql常用函数
    主程Ry访谈录
    mongodb spring anno 查询
    mongodb 查询少少优化
    jquery table thead drop
    ubuntu 配置java,eclipse ,flex,zend,php,TomCat环境
    mongodb shell
    TCP/IP Sockets in Java 源码
    java 断点下载
    直线生成 DDA
  • 原文地址:https://www.cnblogs.com/sglx/p/15401436.html
Copyright © 2011-2022 走看看