zoukankan      html  css  js  c++  java
  • 001-CPU多级缓存架构

    一、基本概念

    大致关系: CPU Cache --> 前端总线 FSB (下图中的Bus) --> Memory 内存

    CPU 为了更快的执行代码。于是当从内存中读取数据时,并不是只读自己想要的部分。而是读取足够的字节来填入高速缓存行。根据不同的 CPU ,高速缓存行大小不同。如 X86 是 32BYTES ,而 ALPHA 是 64BYTES 。并且始终在第 32 个字节或第 64 个字节处对齐。这样,当 CPU 访问相邻的数据时,就不必每次都从内存中读取,提高了速度。 因为访问内存要比访问高速缓存用的时间多得多。

    1.1、总线概念

    前端总线(FSB)就是负责将CPU连接到内存的一座桥,前端总线频率则直接影响CPU与内存数据交换速度,如果FSB频率越高,说明这座桥越宽,可以同时通过的车辆越多,这样CPU处理的速度就更快。目前PC机上CPU前端总线频率有533MHz、800MHz、1066MHz、1333MHz、1600MHz等几种,前端总线频率越高,CPU与内存之间的数据传输量越大。
    前端总线——Front Side Bus(FSB),是将CPU连接到北桥芯片的总线。选购主板和CPU时,要注意两者搭配问题,一般来说,前端总线是由CPU决定的,如果主板不支持CPU所需要的前端总线,系统就无法工作

    1.2、 频率与降频概念

        只支持1333内存频率的cpu和主板配1600内存条就会降频。核心数跟ddr2和ddr3没关系,核心数是cpu本身的性质,cpu是四核的就是四核的,是双核的就是双核的。
        如果只cpu支持1333,而主板支持1600,那也会降频;cpu支持1600而主板只支持1333那不仅内存会降频,而且发挥不出cpu全部性能。
         另外如果是较新的主板cpu,已经采用新的qpi总线,而不是以前的fsb总线。
        以前的fsb总线一般是总线为多少就支持多高的内存频率。而qpi总线的cpu集成了内存控制器,5.0
        gt/s的cpu可能只支持1333内存频率,但是总线带宽相当于1333内存的内存带宽的两倍,这时候,组成1333双通道,内存速度就会翻倍,相当于2666的内存频率。

    1.3、cache line

      Cache Line可以简单的理解为CPU Cache中的最小缓存单位。目前主流的CPU Cache的Cache Line大小都是64Bytes。假设我们有一个512字节的一级缓存,那么按照64B的缓存单位大小来算,这个一级缓存所能存放的缓存个数就是512/64 = 8个。

    1.4、cpu内存架构

      

    1.5、CPU多级缓存架构-现代CPU多级缓存

      高速缓存L1、L2、L3;

      

      级别越小的缓存,越接近CPU, 意味着速度越快且容量越少。

      L1是最接近CPU的,它容量最小,速度最快,每个核上都有一个L1 Cache(准确地说每个核上有两个L1 Cache, 一个存数据 L1d Cache, 一个存指令 L1i Cache);

      L2 Cache 更大一些,例如256K,速度要慢一些,一般情况下每个核上都有一个独立的L2 Cache;二级缓存就是一级缓存的缓冲器:一级缓存制造成本很高因此它的容量有限,二级缓存的作用就是存储那些CPU处理时需要用到、一级缓存又无法存储的数据。

      L3 Cache是三级缓存中最大的一级,例如12MB,同时也是最慢的一级,在同一个CPU插槽之间的核共享一个L3 Cache。三级缓存和内存可以看作是二级缓存的缓冲器,它们的容量递增,但单位制造成本却递减。

      当CPU运作时,它首先去L1寻找它所需要的数据,然后去L2,然后去L3。如果三级缓存都没找到它需要的数据,则从内存里获取数据。寻找的路径越长,耗时越长。所以如果要非常频繁的获取某些数据,保证这些数据在L1缓存里。这样速度将非常快。下表表示了CPU到各缓存和内存之间的大概速度:

        从CPU到       大约需要的CPU周期  大约需要的时间(单位ns)
        寄存器          1 cycle
        L1 Cache      ~3-4 cycles          ~0.5-1 ns
        L2 Cache    ~10-20 cycles   ~3-7 ns
        L3 Cache    ~40-45 cycles   ~15 ns
        跨槽传输              ~20 ns
        内存        ~120-240 cycles  ~60-120ns

      另外需要注意的是,L3 Cache和L1,L2 Cache有着本质的区别。,L1和L2 Cache都是每个CPU core独立拥有一个,而L3 Cache是几个Cores共享的,可以认为是一个更小但是更快的内存。

      可以通过cpu-z查看或者linux通过命令查看

      有了上面对CPU的大概了解,我们来看看缓存行(Cache line)。缓存,是由缓存行组成的。一般一行缓存行有64字节(由上图"64-byte line size"可知)。所以使用缓存时,并不是一个一个字节使用,而是一行缓存行、一行缓存行这样使用;换句话说,CPU存取缓存都是按照一行,为最小单位操作的。

    1.6、缓存一致性

    试想下面这样一个情况。

      1、      CPU1 读取了一个字节,以及它和它相邻的字节被读入 CPU1 的高速缓存。

      2、      CPU2 做了上面同样的工作。这样 CPU1 , CPU2 的高速缓存拥有同样的数据。

      3、      CPU1 修改了那个字节,被修改后,那个字节被放回 CPU1 的高速缓存行。但是该信息并没有被写入 RAM 。

      4、      CPU2 访问该字节,但由于 CPU1 并未将数据写入 RAM ,导致了数据不同步。

      为了解决这个问题,芯片设计者制定了一个规则。当一个 CPU 修改高速缓存行中的字节时,计算机中的其它 CPU 会被通知,它们的高速缓存将视为无效。于是,在上面的情况下, CPU2 发现自己的高速缓存中数据已无效, CPU1 将立即把自己的数据写回 RAM ,然后 CPU2 重新读取该数据。 可以看出,高速缓存行在多处理器上会导致一些不利。

      缓存一致性:处理器上提供的缓存协议,保证了缓存一致性。 
      缓存行(Cache line):缓存存储数据的单元。64Byte
      缓存协议MESI,MESI 是指4中状态的首字母。每个Cache line有4个状态,可用2个bit表示,它们分别是:
        
    状态描述监听任务
    M 修改 (Modified) 该Cache line有效,数据被修改了,和内存中的数据不一致,数据只存在于本Cache中。 缓存行必须时刻监听所有试图读该缓存行相对就主存的操作,这种操作必须在缓存将该缓存行写回主存并将状态变成S(共享)状态之前被延迟执行。
    E 独享、互斥 (Exclusive) 该Cache line有效,数据和内存中的数据一致,数据只存在于本Cache中。 缓存行也必须监听其它缓存读主存中该缓存行的操作,一旦有这种操作,该缓存行需要变成S(共享)状态。
    S 共享 (Shared) 该Cache line有效,数据和内存中的数据一致,数据存在于很多核的Cache中。 缓存行也必须监听其它缓存使该缓存行无效或者独享该缓存行的请求,并将该缓存行变成无效(Invalid)。
    I 无效 (Invalid) 该Cache line无效。

    注意:
      对于M和E状态而言总是精确的,他们在和该缓存行的真正状态是一致的,而S状态可能是非一致的。如果一个缓存将处于S状态的缓存行作废了,而另一个缓存实际上可能已经独享了该缓存行,但是该缓存却不会将该缓存行升迁为E状态,这是因为其它缓存不会广播他们作废掉该缓存行的通知,同样由于缓存并没有保存该缓存行的copy的数量,因此(即使有这种通知)也没有办法确定自己是否已经独享了该缓存行。

      从上面的意义看来E状态是一种投机性的优化:如果一个CPU想修改一个处于S状态的缓存行,总线事务需要将所有该缓存行的copy变成invalid状态,而修改E状态的缓存不需要使用总线事务。

      说明:
        E:execusive 状态,数据在本地缓存中,切与内存中数据一致;其他的CPU缓存中没有:
          

        S:shared状态:每个核心的缓存都一样,且与内存一致: 

          

        M和I状态:其中一个核心修改了值,那么其他的核心的缓存失效 

          

      四钟状态的更新路线图

        

      高效的状态: E, S

      低效的状态: I, M

      这四种状态,保证CPU内部的缓存数据是一致的,但是,并不能保证是强一致性。

      每个cache的控制器不仅知道自己的读写操作,而且也要监听其它cache的读写操作。

    理解该图的前置说明:
    1.触发事件

    触发事件描述
    本地读取(Local read) 本地cache读取本地cache数据
    本地写入(Local write) 本地cache写入本地cache数据
    远端读取(Remote read) 其他cache读取本地cache数据
    远端写入(Remote write) 其他cache写入本地cache数据

    2.cache分类:
    前提:所有的cache共同缓存了主内存中的某一条数据。

    本地cache:指当前cpu的cache。
    触发cache:触发读写事件的cache。
    其他cache:指既除了以上两种之外的cache。
    注意:本地的事件触发 本地cache和触发cache为相同。

    上图的切换解释:

    状态触发本地读取触发本地写入触发远端读取触发远端写入
    M状态(修改) 本地cache:M 
    触发cache:M
    其他cache:I
    本地cache:M 
    触发cache:M
    其他cache:I
    本地cache:M→E→S
    触发cache:I→S
    其他cache:I→S
    同步主内存后修改为E独享,同步触发、其他cache后本地、触发、其他cache修改为S共享
    本地cache:M→E→S→I
    触发cache:I→S→E→M
    其他cache:I→S→I
    同步和读取一样,同步完成后触发cache改为M,本地、其他cache改为I
    E状态(独享) 本地cache:E
    触发cache:E
    其他cache:I
    本地cache:E→M
    触发cache:E→M
    其他cache:I
    本地cache变更为M,其他cache状态应当是I(无效)
    本地cache:E→S
    触发cache:I→S
    其他cache:I→S
    当其他cache要读取该数据时,其他、触发、本地cache都被设置为S(共享)
    本地cache:E→S→I
    触发cache:I→S→E→M
    其他cache:I→S→I
    当触发cache修改本地cache独享数据时时,将本地、触发、其他cache修改为S共享.然后触发cache修改为独享,其他、本地cache修改为I(无效),触发cache再修改为M
    S状态(共享) 本地cache:S
    触发cache:S
    其他cache:S
    本地cache:S→E→M
    触发cache:S→E→M
    其他cache:S→I 
    当本地cache修改时,将本地cache修改为E,其他cache修改为I,然后再将本地cache为M状态
    本地cache:S
    触发cache:S
    其他cache:S
    本地cache:S→I
    触发cache:S→E→M
    其他cache:S→I
    当触发cache要修改本地共享数据时,触发cache修改为E(独享),本地、其他cache修改为I(无效),触发cache再次修改为M(修改)
    I状态(无效) 本地cache:I→S或者I→E
    触发cache:I→S或者I →E
    其他cache:E、M、I→S、I
    本地、触发cache将从I无效修改为S共享或者E独享,其他cache将从E、M、I 变为S或者I
    本地cache:I→S→E→M
    触发cache:I→S→E→M
    其他cache:M、E、S→S→I
    既然是本cache是I,其他cache操作与它无关 既然是本cache是I,其他cache操作与它无关

    下图示意了,当一个cache line的调整的状态的时候,另外一个cache line 需要调整的状态。

     MESI
    M × × ×
    E × × ×
    S × ×
    I

    查看地址:https://www.cnblogs.com/jokerjason/p/9584402.html

    3、内存分析

    工具:Memory Analyzer Tool,MAT,或者JProfiler

    分析代码:

    package com.lhx.cloud;
    
    /**
     * @author lihongxu
     * @since 2019/4/5 上午10:39
     */
    public class L1CacheMiss {
        private static final int RUNS = 10;
        private static final int DIMENSION_1 = 1024 * 1024;
        private static final int DIMENSION_2 = 6;
    
        private static long[][] longs;
    
        public static void main(String[] args) throws Exception {
            Thread.sleep(10000);
            longs = new long[DIMENSION_1][];
            for (int i = 0; i < DIMENSION_1; i++) {
                longs[i] = new long[DIMENSION_2];
                for (int j = 0; j < DIMENSION_2; j++) {
                    longs[i][j] = 1L;
                }
            }
            System.out.println("starting....");
    
            long sum = 0L;
            for (int r = 0; r < RUNS; r++) {
    
                final long start = System.nanoTime();
    
    ////            slow
    //            for (int j = 0; j < DIMENSION_2; j++) {
    //                for (int i = 0; i < DIMENSION_1; i++) {
    //                    sum += longs[i][j];
    //                }
    //            }
    
                //fast
                for (int i = 0; i < DIMENSION_1; i++) {
                    for (int j = 0; j < DIMENSION_2; j++) {//每次取出6个相加
                        sum += longs[i][j];
                    }
                }
    
                System.out.println((System.nanoTime() - start)/1000000.0);
    
    
            }
    
            System.out.println("sum:"+sum);
            while (true){
                Thread.sleep(1000);
            }
    
        }
    }
    View Code

    64位系统,Java数组对象头固定占16字节(压缩后16,压缩前24,默认压缩),而long类型占8个字节。所以16+8*6=64字节,刚好等于一条缓存行的长度:

    每次开始内循环时,从内存抓取的数据块实际上覆盖了longs[i][0]到longs[i][5]的全部数据(刚好64字节)。因此,内循环时所有的数据都在L1缓存可以命中,遍历将非常快。

    那么将会造成大量的缓存失效。因为每次从内存抓取的都是同行不同列的数据块(如longs[i][0]到longs[i][5]的全部数据),但循环下一个的目标,却是同列不同行(如longs[0][0]下一个是longs[1][0],造成了longs[0][1]-longs[0][5]无法重复利用)。运行时间的差距如下图,单位是微秒(us):

    最后,我们都希望需要的数据都在L1缓存里,但事实上经常事与愿违,所以缓存失效 (Cache Miss)是常有的事,也是我们需要避免的事。

    一般来说,缓存失效有三种情况:

    1. 第一次访问数据, 在cache中根本不存在这条数据, 所以cache miss, 可以通过prefetch解决。

    2. cache冲突, 需要通过补齐来解决(伪共享的产生)。

    3. cache满, 一般情况下我们需要减少操作的数据大小, 尽量按数据的物理顺序访问数据。

  • 相关阅读:
    MVVM绑定 填坑,必须在与 DependencyObject 相同的线程上创建 DependencySource
    备份一个迭代查找TreeViewItem的辅助函数
    备份一个集合分组的算法
    备份一个有的时候,可能需要把其它exe或者dll包含在主程序中....
    wpf 代码判断当前是否在设计模式,兼容没有UI线程的限制
    wpf 打开输入法、禁用输入法
    xunit vs2019扩展
    .net core使用nacos作为配置中心
    使用skywalking跟踪你的请求
    帮你做codereview:使用docker安装sonarqube并扫描你的.net core元源码
  • 原文地址:https://www.cnblogs.com/bjlhx/p/10658938.html
Copyright © 2011-2022 走看看