zoukankan      html  css  js  c++  java
  • 超大文件上传到Azure Linux虚拟机最佳实践

    客户在实际进行迁移的时候,往往碰到需要将本地数据中心的超大文件,比如单个200GB的文件,或者总共1TB的无数文件上传到Azure上的情况,尤其是传到Azure的Linux虚拟机的场景,这种场景包括:

    • 大日志文件上传到Azure进行分析
    • 数据库备份文件导入导出
    • 大数据文件下载到本地等等

    尤其是要将数据库备份文件导入到Linux虚拟机进行数据库恢复,一般用户常常会选择传统的FTP方式进行处理,这样的方式通常会花费用户十几个小时,甚至几天的时间进行文件传输,但是在云计算的时代,其实有非常多的工具和方法可以使用,让你大幅度降低时间和成本,今天我们就以250GB数据库文件上传到Linux虚拟机为例,来看看怎么利用这些工具。

    基本流程:

    1. 在本地安装或者使用一个Windows机器,内核数目和内存可能的话最好大一些,因为azcopy会根据内核数计算并发线程数
    2. 安装azcopy
    3. 在Azure上创建storage account,容器container
    4. 利用azcopy上传本地文件到Blob storage
    5. 在Linux虚拟机利用Azure CLI下载云端文件到本地Linux虚拟机
    6. 如果Azure上是Windows虚拟机,使用azcopy下载

       

    限制和优化建议:

    1. 单个block blob的文件不能超过195GB,所以如果你的本地单个文件超过这个大小,你可以选择:
      1. 分割文件成小份
      2. 利用压缩软件压缩文件到较小大小
    2. 如果你本地的机器比较强大,并且单个文件的确比较大,建议你本地压缩,可以节约总体时间,你开始压缩的时候,大致可以知道这个压缩需要多长时间,
    3. 你的虚拟机和你的存储帐号入伍特别需要,请放在一个区域,比如都在北京或者上海,一边最大限度的降低延迟,提升速度
    4. Azcopy会最大限度的利用你的数据中心的带宽,如果你希望降低带宽占用,可以限制azcopy的并发处理数目,利用/NC来做限制,默认情况下,如果你是操作blob storage,azcopy的并发线程数是你处理器数目的8倍;对于Table的操作,默认的并发线程数是你的处理器数目。
    5. 上传下载速度和你的磁盘速度,网络带宽等都有关系,如果需要处理大规模文件,可以考虑临时调整你的数据中心带宽大小

     

    在本示例中,基本环境如下:

    1. 备份文件未压缩前210GB,压缩后60GB
    2. 用户数据中心服务器,Windows Server 2012,16 cores,32GB
    3. Azure Linux虚拟机:A4, SUSE 11 SP3

    基本配置步骤如下:

    1. 在用户数据中心Windows Server上下载并安装azcopy,请安装最新版本:

      http://aka.ms/downloadazcopy

    2. 在Azure上创建一个存储账号,并取得存储账号的主访问密钥:

    1. 在该存储账号下创建一个容器,名字为upload,你可以按照自己的需要命名:

       

    2. 利用Azcopy,上传你本地的文件到Blob storage,注意要用到上个步骤创建到的存储账号和账号的key,假定当前的上传文件名为FULL0606.zip,放在你的E盘:

       

      Azcopy.exe /Source:E: /Dest: https://myhousestorage.blob.core.chinacloudapi.cn/upload /DestKey:YOURSTORAGEKEY /Pattern:"FULL0606.zip"

    参数说明:

    /Souce:你的源文件地址,写目录,具体文件名写后面,如C:data

    /Dest:你的存储账号的容器地址,可以在你的容器页面看到

    /DestKey:存储帐号的主访问密钥

    更多关于azcopy的详细用法和命令,请参考:

    https://azure.microsoft.com/en-us/documentation/articles/storage-use-azcopy/

    1. 传统方式下,用户会使用FTP的模式,经过调优,大概速度是3.5MB/s,而使用了azcopy,由于它有多线程,网络优化等底层功能的支持,速度可以达到近11MB/s,用户数据中心带宽100M,这个速度是相当不错的:

    1. 在将数据上传到Azure blob storage之后,需要在Linux虚拟机上将他下载到本地,在Windows上有Powershell,azcopy等工具,在Linux系统上,有Azure CLI作为跨平台的工具可以管理Azure的各项服务,关于如何在Linux上安装配置Azure CLI,请参考:

       

      http://cloudapps.blog.51cto.com/3136598/1842181

       

    2. 在Linux虚拟机上,直接使用Azure的CLI命令下载上传到Blob storage上的压缩文件即可,在同一个region,速度大约30MB,但实际速度依赖于网络状况和当前负载:

    # azure storage blob download upload FULL0606.zip ./

     

    如果需要把Linux虚拟机上的大文件下载到本地,可以考虑逆序使用上述方法,azcopy经过了网络优化,压缩优化和算法优化,是Azure上数据处理的神器:)

    在之前客户的方案中,文件上传到Linux虚拟机大约需要17个小时,经过选择合适的方法,数据上传,下载大约总共2个小时的时间,所以根据不同的场景选择不同的工具和方法很重要。

  • 相关阅读:
    pycharm安装,svn使用,远程开发调试,接口测试,连接服务器
    scrapy回调函数传递参数
    python发送邮件
    python开发部署时新增数据库中表的方法
    python更新数据库脚本三种方法
    python中json.loads,dumps,jsonify使用
    chmod 命令
    find
    find 命令
    locate 命令
  • 原文地址:https://www.cnblogs.com/cloudapps/p/5804717.html
Copyright © 2011-2022 走看看