CPU与RAM的隔阂
CPU与RAM是两个独立的硬件,并非集成在一起。所以他们两个之间一定会存在一个连接的桥梁
,这个桥梁的名字叫做内存总线。
内存总线由三部分组成:
-
地址总线(Address Bus)
用于传输内存地址,也就是我们经常看到的0X77F84FAB这种类似的内存地址,一根总线代表一个电信号,一个电信号能传递
高电平/低电平
两种信息,用二进制表示就是1/0。因此总线数量的多少决定了可以传递内存地址的大小,比如你有32根总线,就代表你总线宽度32。2^32=4294967296,等于4GB内存,这就是32位操作系统只支持4G内存的由来。 -
数据总线(Data Bus)
用于传输数据,原理同上,一根总线代表1bit传输段位,64根总线就是 64bit=8byte。一次性可以传输8byte单位的数据。
-
控制总线(Control Bus)
用户传输控制信号,比如一根用来"读信号输出"的开关,一根"写信号输出"的开关。一根"时钟信号"的开关
CPU Cache
可以看到,假设CPU要读取1kb的数据,你的数据总线总线只有64根,1024/8=128,你需要来回倒腾128次,才能读取完毕,这一来二去就加大了内存之间的延迟,为了优化此性能瓶颈,CPU除了寄存器外临时存储数据,还内置了Cache来临时存储数据与指令。
特性 | L1缓存 | L2缓存 | L3缓存 |
---|---|---|---|
速度 | 1-2纳秒 | 约10纳秒 | 约30纳秒 |
容量 | 几十KB到几百KB | 几百KB到几MB | 几MB到几十MB |
位置 | 集成在 CPU 核心内部 | 每个核心独立拥有(位于核心附近) | 多核共享(位于 CPU 芯片内) |
缓存一致性 | 每个核心独立,与L3主从同步 | 每个核心独立,与L1/L3主从同步 | 多核共享 |
场景 | 需要立即执行的指令与高频访问的数据 | 稍低频但重复访问的数据 | 跨核心共享数据、大吞吐量计算 |

what is CacheLine?
CacheLine是CPU缓存中最小数据单元,当CPU从内存中读取数据时,会一次性加载64byte的数据,而不是只加载特定数据,即使只想读取1bit数据,也会加载64byte数据。这么做是因为,大多数情况下,数据都是顺序读取的,因此提前加载数据有利于减少延迟。
C#代码如何影响CPU缓存速度?
internal class Program
{
static void Main(string[] args)
{
Stopwatch sw = new Stopwatch();
sw.Start();
Rows();
sw.Stop();
Console.WriteLine($"逐行赋值执行时间:{sw.ElapsedMilliseconds}");
sw.Restart();
Columns();
sw.Stop();
Console.WriteLine($"逐列赋值执行时间:{sw.ElapsedMilliseconds}");
}
static void Rows()
{
int[,] tab = new int[5000, 5000];
for (int i = 0; i < 5000; i++)
{
for (int j = 0; j < 5000; j++)
{
tab[i, j] = 1;//逐行赋值,能成功利用到Cacheline提前加载的数据
}
}
}
static void Columns()
{
{
int[,] tab = new int[5000, 5000];
for (int i = 0; i < 5000; i++)
{
for (int j = 0; j < 5000; j++)
{
tab[j, i] = 1;//逐列赋值,无法利用Cacheline提前加载的数据,只能丢弃重新读取。
}
}
}
}
}

可以看到,非线性的数据检索带来了严重的性能问题,应当尽量避免对内存的非顺序访问。