zoukankan      html  css  js  c++  java
  • 基于CPU访存局部性原理下的矩阵乘法实现

    1  for(i=0;i<n;++i)
    2     for(j=0;j<n;++j)
    3     {
    4         double sum=0;
    5         for(k=0;k<n;++k)
    6             sum+=a[i][k]*b[k][j];
    7         c[i][j]+=sum;
    8     }
    1 for(i=0;i<n;++i)
    2     for(k=0;k<n;++k)
    3     {
    4         r=a[i][k];
    5         for(j=0;j<n;++j)
    6             c[i][j]+=r*b[k][j];
    7     }

      细看一番就会发现这两种实现语义是等价的,但是后者的实际运行效率却比前者高。

      那为什么会如此呢?

      那是因为CPU读数据时,并不是直接访问内存,而是先查看缓存中是否有数据,有的话直接从缓存读取。而从缓存读取数据比从内存读数据快很多。

      当数据不在缓存中时,CPU会将包含数据在内的一个数据块读到缓存,如果程序具有良好空间局部性,那么第一次cache miss后,之后的几次数据访问就可以直接在缓存中完成。除了空间局部性(程序倾向于引用与当前数据邻近的数据)之外,还有时间局部性(程序倾向于引用最近被引用过的数据)。

    回到矩阵乘法。(我们只考虑内循环)

      前者对矩阵A,有良好的空间局部性,假设一次能缓存四个元素,则每次迭代对于A只有0.25次miss,但是对于B,则不然,因此B是按列访问的,每次访问都会miss,因此每次迭代总的miss数是1.25。后者对于矩阵C和矩阵B都有良好的局部性,每次迭代都只有0.25词miss,因此总的miss数是0.5。后者每次迭代多了一次存储(对C[i][j]写入),但是即便如此,后者的运行效率也比前者高。 

      总而言之,要想程序跑得快,就要在程序中多利用局部性,让缓存hold住你的数据,减少访存次数。要知道CPU可以在3个时钟周期内访问到L1 cache,10个时钟周期左右的时间访问到L2 cache。访问内存却要上百个时钟周期,孰快孰慢,很清楚了吧?

    原文地址:http://www.cnblogs.com/lisperl/archive/2012/11/17/2774782.html

  • 相关阅读:
    HTML5--Video
    线性表简述
    TortoiseSVN使用简介(转)
    JAVA EE(简述)
    WebService
    Java从零开始学四十七(注解简述)
    Java从零开始学四十六(Junit)
    二维数组---模拟斗地主
    Java从零开始学四十五(Socket编程基础)
    Java从零开始学四十四(多线程)
  • 原文地址:https://www.cnblogs.com/hxsyl/p/2774977.html
Copyright © 2011-2022 走看看