zoukankan      html  css  js  c++  java
  • Ceph BlueStore与FileStore:利用Micron NVMe SSD进行性能比较

    https://www.micron.com/about/blog/2018/may/ceph-bluestore-vs-filestoreblock-performance-comparison-when-leveraging-micron-nvme-ssds

    BlueStoreCeph的新存储引擎,是社区版的默认配置。BlueStore性能数字不包含在我们当前的Micron Accelerated Ceph存储解决方案 参考架构中,因为Red Hat Ceph 3.0目前不支持它我在Ceph参考架构硬件上对社区版Ceph Luminous(12.2.4)进行了性能测试,并将结果与​​我们在此博客中在RHCS 3.0中实现的FileStore性能进行比较。

    4KB随机写入IOPS性能提高18%,平均延迟降低15%,尾部延迟降低99.99%高达80%。使用BlueStore,在更高的队列深度下,4KB随机读取性能更好。

    Ceph 4

    该解决方案针对块性能进行了优化。使用Linux中的Rados Block Driver进行随机小块测试,在2插槽存储节点中使铂级8168 Intel Purley处理器饱和

    每个存储节点有10个驱动器,该架构具有232TB的可用存储容量,可通过添加额外的1U存储节点进行扩展。

    参考设计 - 硬件

    Ceph 4

    测试结果和分析

    Ceph测试方法

    Red Hat Ceph Storage 3.0(12.2.1)配置了FileStore,每个Micron 9200MAX NVMe SSD有2个OSD 每个OSD使用20GB日志。

    Ceph Luminous Community(12.2.4)配置了BlueStore,每个Micron 9200MAX NVMe SSD有2个OSD。RocksDB和WAL数据与数据存储在同一分区中。

    在这两种配置中,每个存储节点有10个驱动器,每个驱动器有2个OSD,总共80个OSD,可用容量为232TB。

    测试的Ceph存储池是使用8192个放置组和2x复制创建的。使用100个RBD图像(每个75GB)测试性能,在2x复制池上提供7.5TB数据,总数据为15TB。

    使用FIO对Rados Block Driver测量4KB随机块性能。我们在所有测试中都受CPU限制,即使每个存储节点有2个Intel 8168 CPU。

    RBD FIO 4KB随机写性能:FileStore与BlueStore

    BlueStore的IOPS增加约18%,平均延迟减少约15%。

    Ceph 4

    使用BlueStore,在更高的FIO客户端数量下,Ceph的尾部延迟也大大减少。在100个客户端,尾部延迟减少了4.3倍。在较低的客户端数量下,BlueStore的尾部延迟高于FileStore,因为BlueStore正在推动更高的性能。

    Ceph 4

    RBD FIO 4KB随机读取

    FileStore和BlueStore之间的4KB随机读取性能相似。队列深度为32时,IOPS增加了5%。

    Ceph 4

    尾部延迟也类似于队列深度32,其中BlueStore表现更好。

    Ceph Bluestore 6

  • 相关阅读:
    跟着百度学PHP[6]超级全局变量
    DuBrute 3.1
    第三方提权之serv-u提权
    报错注入分析之Extractvalue分析
    报错注入分析之updatexml注入
    B/S与C/S架构
    Python IDLE背景设置与使用
    调试软件的基本方法
    Windows10下安装python(配置环境变量)
    磁盘分区
  • 原文地址:https://www.cnblogs.com/wangmo/p/11362619.html
Copyright © 2011-2022 走看看