zoukankan      html  css  js  c++  java
  • xen 不同后端存储方案的性能对比

    概述

    在xen平台下,一般使用文件来模拟一个磁盘。在xen中使用文件来模拟磁盘有3种方式,

    1. blkback 直接操作
    2. blktap2 直接将文件映射为一个裸块设备,这样vm可以直接用phy的方式进行文件访问。
    3. qdisk 使用qemu来将文件模拟成一个磁盘设备。

    blkback

    Blkback的数据交互流程如图1所示,在Domain U 中,用户态的应用程序发出读写系
    统调用,在Domain U的操作系统中的普通读写请求,被块设备前端封装成Xen格式,接着
    85 通过设备通道传送给块设备后端,块设备后端将读写请求经过一系列处理后,转化为一个或
    多个bio结构,submit_bio提交。前后端通过事件通道(Event Chanel)、I/O 环(I/O Ring)
    以及授权表(Grant Table)完成通信和数据交互。从Domain U的角度看,块设备可以是sda、
    had或者xvda 等真实设备,只是读写请求被前端截获并转交给了Domain 0。从Domain 0中
    操作系统的角度看,bio最后进入 I/O 调度层,Domain U的磁盘对应着相应的磁盘镜像。

    图 2 是读写请求进入在块设备后端中的详细处理过程及函数。 RING_GET_REQUEST
    从I/O环中取出块设备前端发送过来的读写请求(blkif_request格式),在dispatch_rw_block_io

    中将blkif_request转化成pending_req和 phys_req,最后生成一个或多个通用的bio结构,之
    后的处理流程与 Linux 读写系统调用相同:bio 进入 I/O 调度层最后由真实驱动完成读写。
    同时,由end_block_io_op生成响应(blkif_response)。

    blkback进行文件读写

    blktap2

    blktap2设备比较类似于loop设备,都是通过将文件映射成一个块设备来供虚拟机使用。 在启动时,需要在xl文件中配置为

    disk = ['tap2:aio:file.vhd,xvda1,w']

    将文件file.vhd 模拟成一个块设备/dev/xen/blktap-2/tapdev0

    blktap

    IO请求从blkfront到blkback之后,通过blktap2驱动交到user space的tapdisk2进程的地址空间。然后由tapdisk2进行文件的读写。

     

    Blktap2的数据交互流程如图2所示,DomainU中流程与blkback类似,但domain 0中
    用户态的功能更加丰富了,并将原本处于内核态的部分功能移至用户态。与blkback不同是,
    blktap2从设备通道中取出Domain U发送过来的读写请求(blkif_request格式),交给处于
    105 用户态的 tapdisk,tapdisk 要通过对应的磁盘格式的驱动来区分磁盘镜像的类型,并且可以
    选择异步IO 或者典型 IO 两种不同方式,对读写请求和数据进行检查,封装成tio结构,对
    tio进行合并优化后,通过系统调用提交 tio。Blktap2 与 tapdisk通过共享内存的方式交换数
    据的权限,与设备/dev/xen/blktapX 对应。blktapctr 通过设备 blktap0 管理虚拟磁盘。blktap
    仍需要blkback的帮助, blktap2以及最新的blktap3已经可以独立承担块设备后端的功能

    qdisk

    qdisk设备是通过qemu来把文件模拟成磁盘设备。启动时在xl文件中配置为

    disk = ['tap:qcow:file.vhd,xvda1,w']

    qdisk

    IO请求从blkfront发出后,直接发送到了进程空间中qemu进程,然后由qemu进程对文件进行读写。 这样明显的减少了io路径,提高了虚拟化磁盘的性能。

    注意:blktap3采用了和qdisk几乎一致的架构,用来优化blktap2。在4.4版本中,blktap3还属于开发阶段,所以这里没有提及。

    性能比较

    了解了2种不同访问模式原理上的区别,我对两种存储虚拟化方式进行了测试 测试平台:

       
    Host cpu Intel(R) Xeon(R) CPU E5645 @ 2.40GHz
      Memory 44G
      硬盘 SATA
    Hypervisor Xen 4.4.1
      OS suse11 sp3
    Guest CPU 4
      Memory 4G
      OS windows xp
      磁盘格式 vhd

    测试结果:

     blktap2qdisk
    Total I/Os per Send 69.04 78.20
    Total MBs per Send 1.08 1.22
    Average I/O Response Time(ms) 14.48 12.7855
    Maxinum I/O Response Time(ms) 82.48 93.8746

    可以看出在qdisk模式在 IOPS、吞吐量、延迟方面均优于Blktap2。

    转自:here 

    我在自己的设备上测试,结果与这篇文章所述一致: qdisk 的方式性能好于 blktap 的方式;而且少了一个tapdisk进程,只需要qemu-dm进程就够了。

    qdisk的模式有两块关键代码: linux_gnttab_grant_map 函数,用于映射blkif protocol需要的内存; xen_blkdev_ops 结构体,实现了对img文件的操作。 上述代码都实现在qemu-xen-traditional代码里,最终编译为qemu-dm程序

    xen社区负责存储性能优化的工程师的PDF:Storage-Performance-PDF.pdf

    基于 Xen PVHVM 虚拟块设备的数据追踪及测试 : pvhvm块设备的数据追踪和测试  

  • 相关阅读:
    解决Error: Cannot find module 'node-sass'问题
    SourceTree免登录使用
    git commit之后,想撤销commit
    vue生命周期
    Azure DevOps Azure Repos Git How-to Guides Use SSH key authentication
    FlagsAttribute Class
    serilog Debugging and Diagnostics
    Configuration error of serilog
    Serilog settings appsetting 配置的加载
    Kibana Query Language
  • 原文地址:https://www.cnblogs.com/jiayy/p/3780180.html
Copyright © 2011-2022 走看看