zoukankan      html  css  js  c++  java
  • 深度学习框架:GPU

    深度学习框架:GPU

    Deep Learning Frameworks

    深度学习框架通过高级编程接口为设计、训练和验证深度神经网络提供了构建块。广泛使用的深度学习框架如MXNet、PyTorch、TensorFlow等依赖于GPU加速库如cuDNN、NCCL和DALI来提供高性能的多GPU加速训练。             

    开发人员、研究人员和数据科学家可以通过深度学习示例轻松访问NVIDIA优化的深度学习框架容器,这些容器针对NVIDIA gpu进行性能调整和测试。这样就不需要管理包和依赖项,也不需要从源代码构建深入的学习框架。访问NVIDIA NGC了解更多信息并开始使用。             

    以下是支持的流行深度学习框架列表,包括开始学习所需的学习资源。             

    一.PyTorch             

    PyTorch是一个Python包,提供了两个高级特性:             

    具有强GPU加速度的张量计算(如numpy)             

    基于带基自蔓延系统的深层神经网络             

    可以重用最喜欢的Python包,如numpy、scipy和Cython,以便在需要时扩展PyTorch。

    模型部署:             

    对于训练模型的高性能推理部署,请导出到ONNX格式,并使用NVIDIA TensorRT推理加速器进行优化和部署。

    二.MXNet            

    MXNet是一个为提高效率和灵活性而设计的深度学习框架。允许混合符号编程和命令式编程的风格,以最大限度地提高效率和生产力。             

    的核心是一个动态依赖调度程序,可以动态地自动并行化符号和命令操作。上面的一个图形优化层使符号执行速度更快,内存效率更高。这个库是可移植的和轻量级的,可以扩展到多个gpu和多台机器。

    模型部署:             

    对于MXNet训练模型的高性能推理部署,请导出到ONNX格式,并使用NVIDIA TensorRT推理加速器进行优化和部署。

    三.TensorFlow             

    TensorFlow是一个开放源码的软件库,用于使用数据流图进行数值计算。图中的节点表示数学运算,而图边表示在之间流动的多维数据数组(张量)。这种灵活的架构允许将计算部署到桌面、服务器或移动设备中的一个或多个CPU或GPU,而无需重写代码。为了可视化TensorFlow结果,TensorFlow提供了TensorBoard,一套可视化工具。

    模型部署:             

    对于TensorFlow训练模型的高性能推理部署,可以:             

    使用TensorFlow TensorRT集成优化TensorFlow内的模型并使用TensorFlow部署             

    导出TensorFlow模型,并使用NVIDIA TensorRT内置的TensorFlow模型导入器导入、优化和部署。

    四.NVIDIA Caffe             

    Caffe是由伯克利视觉和学习中心(BVLC)和社区贡献者开发的。NVIDIA Caffe,也称为NVCaffe,是NVIDIA维护的BVLC Caffe分支,专为NVIDIA GPU(特别是在多GPU配置中)调整。

    模型部署:             

    对于Caffe训练模型的高性能推理部署,使用NVIDIA TensorRT的内置Caffe模型导入器导入、优化和部署。

    五.MATLAB             

    MATLAB使工程师、科学家和领域专家更容易进行深入学习。借助于管理和标记大型数据集的工具和功能,MATLAB还提供了用于机器学习、神经网络、计算机视觉和自动驾驶的专用工具箱。只需几行代码,MATLAB就可以创建和可视化模型,并将模型部署到服务器和嵌入式设备上,而无需成为专家。MATLAB还允许用户从MATLAB代码中自动生成用于深度学习和视觉应用的高性能CUDA代码。

    模型部署:             

    为了实现基于MATLAB训练模型的高性能推理部署,利用MATLAB GPU编码器自动生成TensorRT优化的推理引擎。

    六.Chainer
    Chainer是一个基于Python的以灵活性为目标的深度学习框架。提供了基于define by run方法(也称为动态计算图)的自动区分api,以及用于构建和训练神经网络的面向对象高级api。支持CUDA和cuDNN使用CuPy进行高性能训练和推理。

    模型部署:             

    对于链训练模型的高性能推理部署,请导出到ONNX格式,并使用NVIDIA TensorRT推理加速器进行优化和部署。

    七.PaddlePaddle

    PaddlePaddle为加载数据和指定模型结构提供了直观而灵活的界面。支持CNN,RNN,多种变体,并易于配置复杂的deep模型。             

    还提供极其优化的操作、内存回收和网络通信。桨叶可以方便地扩展异构计算资源和存储,加快训练过程。

  • 相关阅读:
    spring集成quartz
    ScheduledExecutorService
    中国方言输入法Rime入门
    TinyOS实例介绍
    公式输入较好的参考
    USRP IQ信号分析
    法语学习(1)--入门资料推荐
    Python小技巧
    编码知识
    jaspersoft studio colunm header and detail ,detail中显示多列数据
  • 原文地址:https://www.cnblogs.com/wujianming-110117/p/13054517.html
Copyright © 2011-2022 走看看