zoukankan      html  css  js  c++  java
  • NVDLA软件架构和源码解析 第一章—内核驱动【华为云技术分享】

    驱动整体设计介绍

    不同的processor

    Nvidia DLA的内核驱动KMD(Kernel mode driver)中,并不是把DLA当成一个设备来控制,而是把不同的功能模块当做不同的processor,分别进行任务的管理和控制。在相同processor里分先后,不同队列靠依赖关系控制。当前分了6个processor,代码中如下定义。

    #define DLA_OP_BDMA                  0

    #define DLA_OP_CONV                  1

    #define DLA_OP_SDP                     2

    #define DLA_OP_PDP                     3

    #define DLA_OP_CDP                     4

    #define DLA_OP_RUBIK                  5

    对应的芯片架构如下

    12.jpg

    Headless控制模式

    架构上分为高端的headed和低端的headless方案。差别就是是否有MCU来承担IPU的逻辑控制功能。如果有host CPU和MCU两种角色,就是headed方案,否则就是headless。

    NVDLA的初始开源版本将仅提供headless模式的软件解决方案。本次运行的场景是在linux下,但是是按照CPU直接操控DLA的寄存器来实现的,也就是headless模式。好处是很容易从无头模式看到核心的IPU控制逻辑。

    主要的流程思路

    除了初始化,驱动主要处理对上对下两个接口。对上是来和用户态的IOCTL,对下是处理中断。两者最终都是调用或者激活nvdal_task_submit,清理task之间的dependency关系,将合适的task放入processor执行。

    66.JPG

    图表 1 KMD的主流程

    特殊的group寄存器

    每个子模块processor有两套寄存器,也就是2个group寄存器。这种乒乓思路类似于队列和shadow寄存器的意图,方便一个任务完成后紧接着处理另外一个group寄存器配置的任务,而不是需要完成产生中断后软件才配置下一个任务,以此保持硬件逻辑的全速运行。

    软件里定义如下:

     1 /**
     2 
     3  * @ingroup Processors
     4 
     5  * @name Number of groups
     6 
     7  * @brief Each processor has 2 groups of registers
     8 
     9  * @{
    10 
    11  */
    12 
    13 #define DLA_NUM_GROUPS       2
    14 
    15 struct dla_processor_group {
    16 
    17               uint8_t id;
    18 
    19               uint8_t rdma_id;
    20 
    21               uint8_t active;
    22 
    23               uint8_t events;
    24 
    25               uint8_t roi_index;
    26 
    27               uint8_t is_rdma_needed;
    28 
    29               uint8_t pending;
    30 
    31               int32_t lut_index;
    32 
    33               uint8_t programming;
    34 
    35               uint64_t start_time;
    36 
    37               struct dla_common_op_desc *op_desc;
    38 
    39               struct dla_common_op_desc *consumers[DLA_OP_NUM];
    40 
    41               struct dla_common_op_desc *fused_parent;
    42 
    43               union dla_operation_container *operation_desc;
    44 
    45               union dla_surface_container *surface_desc;
    46 
    47 };

    驱动的注册和初始化

    NVDLA驱动以Platform device driver的形式注册到内核。依靠name = "NVDLA”来进行match。重要的函数为nvdla_probe。

     1 module_platform_driver(nvdla_driver);
     2 
     3 static struct platform_driver nvdla_driver = {
     4 
     5               .probe = nvdla_probe,
     6 
     7               .remove = __exit_p(nvdla_remove),
     8 
     9               .driver = {
    10 
    11                              .owner = THIS_MODULE,
    12 
    13                              .name = "NVDLA",
    14 
    15                              .of_match_table = nvdla_of_match,
    16 
    17               },
    18 
    19 };

    Probe函数nvdla_probe

    Step1:

    申请nvdla_dev并使用platform_set_drvdata挂载到如参pdev上。

    Step2:

    用devm_ioremap_resource映射内存,用devm_request_irq注册中断。

    Step3:

    调用dla_register_driver将全局变量engine关联到nvdla_dev->engine_context,Engine包含了device的各种能力,如DMA, CONV。这个就说明engine的含义是各个DLA中模块独立的处理能力。

    把desc_cache和desc_refcount设置全0。最后调用nvdla_drm_probe注册了drm(Direct Rendering Manager)驱动设备。Nvdla使用drm的主要目的是利用了drm的内存分配机制和ioctl。其实和drm的功能没什么关系。Nvdia作为GPU厂商,借用drm更轻车熟路。

    中断处理

    中断处理nvdla_engine_isr

    Step1

    dla_isr_handler(nvdla_dev->engine_context);

    主要是根据读取S_INTR_STATUS寄存器得到的值,设置对应engine->processors的group->events标记。比如如果是GLB_S_INTR_STATUS_0就设置engine->processors[DLA_OP_CONV].groups[0].events= (1 << DLA_EVENT_OP_COMPLETED)

    step2

    complete(&nvdla_dev->event_notifier);

    这个会唤醒nvdla_task_submit,调用dla_process_events来处理event。因为中断里可能表示有任务完成,那么就可能消除dependency,可能放入新的任务执行。

    对用户态的IOCTL接口

    对用户态的接口nvdla_submit利用了drm框架的ioctl。

    struct drm_driver nvdla_drm_driver里包含了nvdla_drm_ioctls。索引到nvdla_submit。其他几个ioctl是内存相关的。

    DRM_IOCTL_DEF_DRV(NVDLA_SUBMIT, nvdla_submit, DRM_RENDER_ALLOW),

    1. 用copy_from_user从ioctl接口复制一些用户态的task数据到内核。

    2. 调用nvdla_fill_task_desc填充task结构体

    3. 调用nvdla_task_submit。

    主流程函数讲解

    主流程入口函数nvdla_task_submit

    Step1

    调用dla_execute_task

    Step2

    等待wait_for_completion(&nvdla_dev->event_notifier),然后调用dla_process_events。

    dla_process_events和dla_handle_events

    dla_process_events遍历DLA_OP_NUM个processor调用dla_handle_events(processor)。

    dla_handle_events遍历自己的processor->groups读取信息,先处理dma相关的event,调用dla_update_consumers来解除dependency_count。如果发现有operation的dependency_count降为0,就dla_enable_operation。这就等于是收到中断后,遍历所有类型的processor,遍历所有的group来解除dependency,找到能执行的下一个任务。

    dla_handle_events最后调用了dla_op_completion来处理complete event。

    dla_op_completion

    1. 先调用dla_update_consumers清理dependency。

    2. 如果(engine->network->num_operations == engine->num_proc_hwl)说明网络都算完了。如果还有任务接着调用dla_program_operation和dla_enable_operation来执行下一个任务,和dla_submit_operation的思路差不多。

    dla_execute_task

     1 /**
     2 
     3  * Execute task selected by task scheduler
     4 
     5  *
     6 
     7  * 1. Read network configuration for the task
     8 
     9  * 2. Initiate processors with head of list for same op
    10 
    11  * 3. Start processing events received
    12 
    13  */

    Step1

    dla_read_network_config:

    1. 将网络的信息读取到network全局变量。注意这里通过DMA直接读取network descriptor的结构体,不是逐个成员复制。

    2. 用DMA将operation descriptor,dependency读取过来。

    3. 用DMA读取surface descriptor,LUT,ROI的信息。

    Step2

    dla_initiate_processors

    1. 遍历DLA_OP_NUM调用dla_get_op_desc找到类型中第一个任务,调用dla_submit_operation提交。

    2. 调用dla_put_op_desc。将提交后的dla_common_op_desc consumer在desc_refcount对应的count--,如果为0就删除。

    3. 调用dla_dequeue_operation将同类型的下一个操作从取出来,使用的是dla_get_op_desc来取。Dequeue的含义就是取下一个,似乎用fetch更合适。如果有下个op需要执行就调用dla_submit_operation继续执行,否则返回。但是dla_dequeue_operation调用dla_submit_operation并不查看返回结果,所以相当于有空闲资源有任务就继续提交,没有就算了。

    dla_get_op_desc

    1. 在desc_cache中找到当前task,以(desc->index == index && desc->roi_index == roi_index)判定相同。desc_refcount++

    2. 如果没找到,在desc_cache取一个新entry,设置好,读取该task的对应的dependency_graph_addr的内容,设置desc_refcount为1。

    dla_submit_operation

    1. 调用dla_prepare_operation。看看有没有空闲的processor group,将任务描述放入空闲processor的group。没有空闲就返回错误。

    2. 如果processor->is_ready,如果没有ready,就退出。

    3. 如果ready,调用dla_program_operation。这里就开始设置对应操作类型的processor的寄存器了。也就是提交任务给硬件了。

    4. 如果(op_desc->dependency_count == 0),就enable任务。这个问说明在上一步只是把所有运行的配置做好。任务是否能运行,dependency的关系是在AP的driver里完成的,而不是让DLA硬件来完成。另外,在任务的配置过程中,AP并不是通过某种命令发给DLA,而是DLA的各个子模块处理的processor的控制细节寄存器完全暴露出来,由AP直接配置各寄存器。

    来源:华为云社区 作者:lurayvis

    HDC.Cloud 华为开发者大会2020 即将于2020年2月11日-12日在深圳举办,是一线开发者学习实践鲲鹏通用计算、昇腾AI计算、数据库、区块链、云原生、5G等ICT开放能力的最佳舞台。

    欢迎报名参会

  • 相关阅读:
    .NET平台下WEB应用程序的部署(安装数据库和自动配置)(转)
    关于动网 ASP + Access 论坛问题及相应解决办法
    Visual 2005 调试问题 收藏
    休假一个月
    Log4j进行日志操作
    自动定时备份数据
    最近很有心情
    网站建设尺寸规范
    log4net 1.2.9 的配置及使用
    DataGrid表头跨行合并的实现
  • 原文地址:https://www.cnblogs.com/huaweicloud/p/12017791.html
Copyright © 2011-2022 走看看