zoukankan      html  css  js  c++  java
  • Linux网络底层收发探究【转】

    转自:https://blog.csdn.net/davion_zhang/article/details/51536807

    本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/fzs333/article/details/51536807
    P1020网络底层收发探究
    一、基本框架
    简单看了一下p1020内核中,网络底层的数据收发

    先看一下linux内核中网络的层次结构

     

    也是基本按照7层来构造

    由于从ip层(网络层)往上就比较统一了,这里主要分析硬件层和链路层

    二、名词解释
    1.NAPI 
    CPU数据接收靠中断和轮询的配合,达到较高的收发效率。

    CPU接收外部数据时一般采用中断的方式,中断的好处是响应及时,如果数据量较小,则不会占用太多的CPU事件;缺点是数据量大时,会产生过多中断,

    而每个中断都要消耗不少的CPU时间,从而导致效率反而不如轮询高。轮询方式与中断方式相反,它更适合处理大量数据,因为每次轮询不需要消耗过多的CPU时间;缺点是即使只接收很少数据或不接收数据时,也要占用CPU时间。

    NAPI是两者的结合,数据量低时采用中断,数据量高时采用轮询。平时是中断方式,当有数据到达时,会触发中断,处理函数会关闭中断开始处理。如果此时有数据到达,则没必要再触发中断了,因为中断处理函数会轮询处理数据,直到没有新数据时才打开中断。

    很明显,数据量很低与很高时,NAPI可以发挥中断与轮询方式的优点,性能较好。

    //如果数据量不稳定,且说高不高说低不低,则NAPI则会在两种方式切换上消耗不少时间,效率反而较低一些。

    2.CPU私有变量
    通过struct softnet_data  __get_cpu_var(softnet_data)获取到的CPU的私有变量,硬中断中将数据挂上,软中断中取出来处理

    三、驱动分析
    P1020的物理层驱动(TSEC驱动)主要在/drivers/net/gianfar.c文件中

    链路层驱动主要在/net/core/dev.c

    1.初始化
    gianfar.c函数gfar_probe执行了初始化的操作。比较重要的就是napi的注册,

    调用函数netif_napi_add将gfar_poll注册进NAPI中

    netif_napi_add(dev, &priv->gfargrp[i].napi, gfar_poll, GFAR_DEV_WEIGHT);

    另一段比较重要的初始化在gfar_enet_open中,先来看一下gfar设备的文件操作符可以使用的函数

    static const struct net_device_opsgfar_netdev_ops = {

             .ndo_open= gfar_enet_open,

             .ndo_start_xmit= gfar_start_xmit,

             .ndo_stop= gfar_close,

             .ndo_change_mtu= gfar_change_mtu,

             .ndo_set_multicast_list= gfar_set_multi,

             .ndo_tx_timeout= gfar_timeout,

             .ndo_do_ioctl= gfar_ioctl,

             .ndo_get_stats= gfar_get_stats,

             .ndo_vlan_rx_register= gfar_vlan_rx_register,

             .ndo_set_mac_address= eth_mac_addr,

             .ndo_validate_addr= eth_validate_addr,

    。。。

    };

    当通过IOCTL操作gfar这个网络设备时,调用gfar_enet_open函数执行初始化

    static int gfar_enet_open(struct net_device*dev)

    {

             enable_napi(priv);                                                  //使能NAPI

             gfar_set_mac_address(dev);                              //设置mac

             err= init_phy(dev);                                                //初始化phy

             err= startup_gfar(dev);                                       //…

             netif_tx_start_all_queues(dev);                        //初始化队列

             device_set_wakeup_enable(&priv->ofdev->dev,priv->wol_en);

             。。。

    }

    其中startup_gfar又进行了一系列初始化,然后重要的来了

    它调用了函数register_grp_irqs进行IRQ的注册

    static int register_grp_irqs(structgfar_priv_grp *grp)

    {

                       request_irq(grp->interruptError,gfar_error,0, grp->int_name_er,grp));

    request_irq (grp->interruptTransmit,gfar_transmit, 0, grp->int_name_tx, grp);

                       request_irq(grp->interruptReceive,gfar_receive, 0, grp->int_name_rx, grp);

                      request_irq (grp->interruptTransmit,gfar_interrupt,0, grp->int_name_tx, grp));

    }

    收发报文的中断已经注册好,初始化细节不再扣,主要看看报文的流向

    2.报文流向——报文接收
    (1).简析
    网络数据包进入内核的流程为:

       Rj45网口à PHY --> MII à TSEC的DMA Engine à把网络数据包 DMA 到内存

    à完整报文触发Rx IRQ à gfar_receiveà net_rx_action ànetif_receive_skb这里就是协议栈了

    前面DMA部分配置好后,收到的数据报文会自动搬移到内存中,产生中断后,中断处理会到指定的地址寻找,后续再分析DMA部分的细节,下面是比较重要的处理函数解释。

    IRQ处理函数:

    gfar_receive  

    1.关闭RX中断            //这里是NAPI的重点,关闭中断,后续到来的数据不会产生中断

    2.置NAPI_STATE_SCHED状态

    3.将napi_struct挂到CPU私有变量表上 //报文DMA后的内存地址等,中断下半段处理报文

    4.触发软中断

    软中断处理函数:

    net_rx_action 

    1.遍历CPU私有变量表,取出napi_struct结构

    2.执行napi_struct上的poll函数,循环处理DMA到内存的数据包   //前面中断关闭了,poll函数会遍历所有地址查找数据包,也就是轮询模式

    3.若数据包处理完或达到netdev_max_backlog个报文则开RX中断  //数据包处理完或达到这个阈值(一般为300)就会结束轮询,重新进入中断模式

    4.调用napi_complete函数将napi_struct结构从CPU私有变量移走并去掉NAPI_STATE_SCHED状态

    (2).代码详细
    直接从gfar_receive入手

    硬中断部分
    gfar_receive

    à gfar_write(&grp->regs->ievent,IEVENT_RX_MASK);                           //关闭收中断

    à napi_schedule_prep                                                                            //置NAPI_STATE_SCHED状态

    à__napi_schedule(&grp->napi);

             à____napi_schedule(&__get_cpu_var(softnet_data), n); //将napi_struct挂到cpu var上

                       à__raise_softirq_irqoff(NET_RX_SOFTIRQ);                            //触发软中断

    具体分析
    gfar_receive

    {

             /*

              * Clear IEVENT, so interrupts aren't calledagain

              * because of the packets that have alreadyarrived.

              */

             gfar_write(&grp->regs->ievent,IEVENT_RX_MASK);              //关闭收中断

             if(napi_schedule_prep(&grp->napi)) {                                          //见下

                       tempval= gfar_read(&grp->regs->imask);

                       tempval&= IMASK_RX_DISABLED;

                       gfar_write(&grp->regs->imask, tempval);                         //关RX mask

                       __napi_schedule(&grp->napi);                                              //见下

    }

    static inline int napi_schedule_prep(structnapi_struct *n)

    {

             return!napi_disable_pending(n) &&

                       !test_and_set_bit(NAPI_STATE_SCHED,&n->state);     //置NAPI_STATE_SCHED状态

    }

    void __napi_schedule(structnapi_struct *n)

    {

             local_irq_save(flags);

             ____napi_schedule(&__get_cpu_var(softnet_data),n);      //将napi_struct挂到cpu var上,详见下面

             local_irq_restore(flags);

    }

    static inline void ____napi_schedule(struct softnet_data *sd,

                                              struct napi_struct *napi)

    {

             list_add_tail(&napi->poll_list,&sd->poll_list);                           //挂变量

             __raise_softirq_irqoff(NET_RX_SOFTIRQ);                                 //触发软中断

    }

    软中断部分
    net_rx_action

    àwork = n->poll(n, weight);

             àgfar_clean_rx_ring                        //遍历内存数据包地址,获取报文

                       àgfar_process_frame            //对报文进行校验和以太网类型判断

                                ànetif_receive_skb       //Send the packet up to the stack

             ànext_bd                                                                                            //下一条报文

    ànapi_complete(n);                                                                                  //轮询完成,恢复中断

    具体分析
    net_rx_action

    {

             structsoftnet_data *sd = &__get_cpu_var(softnet_data);   //获取CPU私有变量

             while(!list_empty(&sd->poll_list)) {                                              //遍历poll_list

    if(test_bit(NAPI_STATE_SCHED, &n->state)) {

                                work =n->poll(n, weight);                                           //执行驱动POLL方法,见下

                                trace_napi_poll(n);

                       }

    }

    }

    关于这个POLL方法,是否还记得初始化时注册的gfar_poll ? 就是这个函数

    gfar_poll

    {

             while(num_queues && left_over_budget) {

                                rx_cleaned_per_queue= gfar_clean_rx_ring(rx_queue,        //报文获取,详见下

                                                                     budget_per_queue);

    }

             if(rx_cleaned < budget) {                          //判断当前处理的报文数量是否已经达到阈值,达到则关闭NAPI轮询模式,打开Rx中断

                      napi_complete(napi);

                       /* Clear the halt bit inRSTAT */

                       gfar_write(®s->rstat,gfargrp->rstat);

                       gfar_write(®s->imask,IMASK_DEFAULT);

             }

    }

    gfar_clean_rx_ring

    {

                       skb= rx_queue->rx_skbuff[rx_queue->skb_currx];                   //获取报文

                                         pkt_len= bdp->length - ETH_FCS_LEN;                     //去掉校验

                                         /*Remove the FCS from the packet length */

                                         skb_put(skb,pkt_len);                                                   

    gfar_process_frame(dev, skb, amount_pull);                                     //报文处理,详见下

                                /*Add another skb for the future */

                                newskb= gfar_new_skb(dev);                                               //为下一条报文分配空间

                       /*Setup the new bdp */

                       gfar_new_rxbdp(rx_queue,bdp, newskb);                                 //DMA报文内存地址NEXT

                       /*Update to the next pointer */

                       bdp= next_bd(bdp, base, rx_queue->rx_ring_size);

    }

    gfar_process_frame

    {

                      if (priv->rx_csum_enable)                                                                //报文校验

                       gfar_rx_checksum(skb,fcb);

             /*Tell the skb what kind of packet this is */

             skb->protocol= eth_type_trans(skb, dev);                                           //获取以太网类型

             /*Send the packet up the stack */

             if(unlikely(priv->vlgrp && (fcb->flags & RXFCB_VLN)))

                       ret= vlan_hwaccel_receive_skb(skb, priv->vlgrp, fcb->vlctl);

             else

                       ret =netif_receive_skb(skb);                                                                  //发送到上层协议栈

    }

    到上层协议栈基本就告别了P1020的TSEC驱动部分

    以前的平台就在netif_receive_skb里面添加了一些协议报文的处理,以后也可以继续添加

    http://blog.csdn.net/davion_zhang/article/details/50418425
    ---------------------
    作者:Kevin_Smart
    来源:CSDN
    原文:https://blog.csdn.net/davion_zhang/article/details/51536807
    版权声明:本文为博主原创文章,转载请附上博文链接!

  • 相关阅读:
    invokerequied
    C#如何用正则表达式截取https和带端口的域名
    flex datagrid combox
    java webservice
    Flexlib 控件 http://code.google.com/p/flexlib/
    Git使用
    转:Vim常用命令
    转:oracle连接查询
    Axis2 spring发布WebService
    oracle jdbc example 示例
  • 原文地址:https://www.cnblogs.com/sky-heaven/p/10438021.html
Copyright © 2011-2022 走看看