• cpu性能探究 :cache line 原理


    
    參考:
    一个解说Direct Mapped Cache很深入浅出的文章:

    CPU cache


    =============================================

    整体认识, 
    cpu的cache通常较大, 比方 128KB, 被划分为多个有固定大小的cache line, cache line一般是32Byte或64Byte.

    CPU内部的cache种类, 至少有三种
    1) 指令cache
    2) 数据cache 通常有多级 multi-level
    3) TLB 加速虚拟地址2物理地址转换


    cache entry (cache条目)
    包括例如以下部分
    1) cache line : 从主存一次copy的数据大小)
    2) tag : 标记cache line相应的主存的地址
    3) falg : 标记当前cache line是否invalid, 假设是数据cache, 还有是否dirty


    cpu訪问主存的规律
    1) cpu从来都不直接訪问主存, 都是通过cache间接訪问主存
    2) 每次须要訪问主存时, 遍历一遍所有cache line, 查找主存的地址是否在某个cache line中.
    3) 假设cache中没有找到, 则分配一个新的cache entry, 把主存的内存copy到cache line中, 再从cache line中读取.


    cache中包括的cache entry条目有限, 所以, 必须有合适的cache淘汰策略
    一般使用的是LRU策略.
    将一些主存区域标记为non-cacheble, 能够提高cache命中率, 减少无用的cache


    回写策略
    cache中的数据更新后,须要回写到主存, 回写的时机有多种
    1) 每次更新都回写. write-through cache
    2) 更新后不回写,标记为dirty, 仅当cache entry被evict时才回写
    3) 更新后, 把cache entry送如回写队列, 待队列收集到多个entry时批量回写.


    cache一致性问题
    有两种情况可能导致cache中的数据过期
    1) DMA, 有其它设备直接更新主存的数据
    2) SMP, 同一个cache line存在多个CPU各自的cache中. 当中一个CPU对其进行了更新.


    cpu stall cpu失速
    指的是当cache miss时(特别是read cache miss), cpu在等待数据从内存读进去cache中期间, 没事可做.
    解决此问题的方法有
    1) 超线程技术. CPU在硬件层面, 把一个CPU模拟成两个CPU, 在上层看来是两个CPU. 并发的运行两个线程. 这样当一个线程因cache miss在等待时, 还有一个线程能够运行.


    主存的一个地址, 须要被映射进哪个cache line? (术语:Associativity)
    依据映射策略的不同而不同


    1) 最笨的, 一个地址可被映射进随意cache line (fully associative)
       带来的问题是, 当寻找一个地址是否已经被cache时, 须要遍历每个cache line来寻找, 这个代价不可接受.
       就像停车位能够大家随便停一样, 停的时候简单的, 找车的时候须要一个一个停车位的找了.
       你想下, cpu想知道一个地址是否已经在cache中了, 须要把所有cache line找一边, 那该有多慢?




    2) Direct Mapped Cache  (相当于1-way associative)
       这个就是相当于hash了, 每一个地址能被映射到的cache line是固定的. 
       每一个人的停车位是固定分配好的. 能够直接找到.
       缺点是, 由于人多车少, 非常可能几个人争用同一个车位, 导致cache 淘汰频繁. 须要频繁的从主存读取数据到cache, 这个代价也较高.
       因为cache中cache line的个数都是2的指数个. 那么, hash算法就非常easy了, 不用取模, 直接把内存地址的某几个bit位拿出来就可以. 比方cache line有128(2^7)个, cache line的大小是32(2^5)字节, 
       那么一个32位地址的 0~4位作为cache line内部偏移, 5~11位作为cache line的索引就可以. 剩下的bit12~31作为当前cache line的tag. tag的作用时, 当有另外一个地址也映射到同一个cache line时, tag用来比較两个地址是不是同一个地址. 毕竟同一个cache-line能够相应的内存的位置许多个的.


    3) 2-way associative
       是fully associative和Direct Mapped Cache的折中.
       2-way, 每个人能够有两个停车位, 这样当一个停车位被占了的时候, 还有机会寻找另外一个. 尽管人数众多, 但同一时候来找停车位的人并不多. (相当于非常多人的车在外面,没有开回来)
       所以, 2-way associative近似的相当于有了2倍大小的cache, 使用Direct Mapped Cache策略.

    cache-hash.jpg
    注意, 这图仅仅统计了cache miss率, 非常显然full-associative是做好的. 可是full-associative导致的推断一个地址是否在cache中的代价是非常昂贵的.所以, 生产环境一般都是2-way associative
    ======================================================

    多线程变成中避免以及识别错误的共享变量方式 主要解决在SMP环境下cache line被频繁刷新的的问题
    Avoiding and Identifying False Sharing Among Threads

    举例:
    // 例如以下代码在SMP环境下存在cache频繁刷新问题
    double sum=0.0, sum_local[NUM_THREADS];
    #pragma omp parallel num_threads(NUM_THREADS)
    {
     int me = omp_get_thread_num();
     sum_local[me] = 0.0;
    
     #pragma omp for
     for (i = 0; i < N; i++)
     sum_local[me] += x[i] * y[i];
    
     #pragma omp atomic
     sum += sum_local[me];
    }
    
    由于sum_local数组是个全局变量, 多个线程都会訪问, 而且, 各个线程訪问的地方非常接近, 会导致一个线程更新, 其它CPU的cache line失效.
    smp.jpg

    解决该问题的方法是
    1) 不同线程之间尽量少的訪问全局变量, 尽量使用线程局部变量.
    2) 假设一定要訪问, 尽量让各个线程自己訪问的区域cacheline对齐.
    3) 频繁更新的存储和不频繁更新的存储分开.
  • 相关阅读:
    【VUE】自定义组件
    【docker】Dockerfile
    【docker】常用命令
    【Java Web开发学习】跨域请求
    xshell6和xftp6运行提示缺少mfc110u.dll文件的解决办法
    【NPM】使用问题记录
    【Zuul】使用学习
    第八章 泛型程序设计
    第九章 集合
    分布式系列二: 分布式系统的通信
  • 原文地址:https://www.cnblogs.com/blfshiye/p/5074338.html
Copyright © 2020-2023  润新知