课程链接:
这是我们已经非常熟悉的冯·诺依曼计算机结构, 其中和存储功能相关的部件有:存储器和外部记录介质肯定具有存储功能,另外还有一个自带存储功能的运算器。为了描述方便,我们把这些部件统称为存储器。
那么我们看一下计算机中对存储器有哪些要求 。
1. 计算机对存储器的要求
1、首先存储器当中应该保存了将要运行的程序和需要运算的数据,那这些内容在系统通电启动的时候就应该在存储器当中了,而且在断电之后也不会丢失。那么具有这样特定功能的存储器我们称之为非易失性存储器 。而断电后存储的信息就会丢失的存储器则称为易失性存储器。
- 易失性存储器:主存和CPU中的通用寄存器都是易失性的存储器,断电后信息就丢失了
- 非易失性存储器:BIOS芯片和硬盘:在系统通电之后CPU必须要从bios芯片开始执行程序,然后这段程序把硬盘等设备配置好之后再将更多的程序和数据从硬盘搬运到内存,之后CPU才可以在内存里执行程序。 因此在系统中必须要有非易失性的存储器。
2、其次,这样的存储器肯定得是可读又可写的。那在这个结构当中硬盘和主存都是可读可写的, 而BIOS芯片则是一个只读的芯片,倒不是说它完全不支持写操作,而是对它的写需要借助特殊的设备或者特殊的操作过程,非常的麻烦,无法支持经常性地写入数据。
3、存储器最好是能够支持随机访问。所谓随机访问是指对存储器当中任何一个数据的访问所花费的时间与这个数据所在的位置没有关系。对主存的读写和BIOS芯片的读都是支持随机访问的。而硬盘内部实际上是由多个盘片构成,这些盘片处于高速旋转的状态,并由一个机械的读写头去寻找需要访问的数据的位置。这就不是随机访问的模式,而且由于其中有机械部件的存在,速度就变得非常的慢。
4、在计算机当中,存储器的速度,即访问时间也是非常重要的因素,CPU的运行速度很快,在它需要访问存储器的时候,最好能在一个时钟周期内就完成数据的访问,不然就会阻碍CPU后续的操作。而主存的速度是明显高于硬盘的速度的。
所以总体看来,如果我们能够找到一个存储器,支持随机读写,而且是非易失性的,访问时间也很短,那我们就可以考虑只用这样一个存储器和CPU链接。当然我们还要考虑到是否有足够大的容量装下我们需要的程序和数据,还有价格是否能承受,以及功耗是否合适等等。但是现状是我们使用了这么多种不同的存储器,这自然是因为没有一个唯一而完美的解决方案,那我们就从性能和价格等方面,对它们进行一个比较。
2. CPU和存储器的特性对比
这是从1980年-2010年具有代表性的CPU, 我们每隔10年选取一个代表。
80年的8080,时钟频率大约为1MHz,其时钟周期是1000ns。90年的386,时钟周期是50ns,2000年的奔腾II,时钟周期大约为1.6ns,2010年的酷睿i7,时钟周期大约是0.4ns,当然这个时候已经是4核了,实际上它的时钟周期是0.1ns。
与之相比,硬盘的访问时间,在80年的时候是87ms,ms和ns,差了100万倍,所以虽然这30年来,硬盘的访问时间有所提升,但它和CPU的时钟周期完全没有可比性。所以仅从访问时间这一项来看,硬盘从一开始就不具备直接与CPU交互的能力。当然它的优势在于容量大,而且便宜,在这30年里,它的单位容量价格在迅速下降,与此同时容量也在迅速上升,这样就能存储更多的程序和数据,这是硬盘技术的提升所带来的最大好处。
那好,既然硬盘无法与CPU直接交互,我们再来看一下其他的存储器。现在的主存主要靠DRAM实现。它的访问时间在1980年大约是375ns,这时候DRAM实际上比CPU运行得还要快一些,所以这时候并不用担心内存无法给CPU及时提供数据的事情。而到了90年,DRAM的速度已经比CPU的速度慢了,而且后来这个差距越来越大,到了2010年,即使只考虑单核CPU的需求,DRAM的访问时间也和CPU的时钟周期相差100倍,这是因为在这30年里CPU的访问时间提升了2500倍,而DRAM只提升了9倍,所以这个差距明显是在拉大的。不过DRAM的进步也同样体现在其容量和价格上,这30年来,其容量提升了有12万倍之多,而成本也几乎有同样比例的压缩,也就是说我们可以用和30年前同样的价格买到12万倍容量的内存。容量扩大自然是一件好事,但是这个性能的差距也是CPU不能接受的。
那既然DRAM的访问速度受限,我们就只能去寻找其他访问速度更快的存储器。SRAM就是一种选择。SRAM在1980年的访问时间是300ns,比DRAM要快一些,但是很有限,但是SRAM的访问速度提升得很快,30年间提升了大约200倍,而这段时间DRAM只提升了9倍。在很长一段时间内,SRAM的访问时间和CPU的时钟周期基本相当,因此从速度上来说SRAM作为和CPU直接连接的存储器是合适的。但是我们看到它的价格比较贵,在2010年同样容量的SRAM价格是DRAM的1000倍,如果说我们现在花1000块钱就能买到一块非常好的内存条,那你是不是愿意花10万块钱买一个相同容量的SRAM作为内存呢?所以仅从价格因素考虑,SRAM也无法取代DRAM用来作为内存。
所以现在设计的计算机,为了性能和价格的平衡,是在CPU和DRAM(主存)之间加上一个SRAM(也就是Cache,高速缓存),如果我们能让CPU所需要的程序和数据大部分时间都存储在SRAM当中,CPU就可以获得快得多的存储器访问时间。
那是什么时候开始,用SRAM作为Cache加到CPU和DRAM之间的呢?其实从下表中可以看出来,是在1980年到1990年之间,逐渐产生了高速缓存的需求。80386是在CPU芯片外部增加了一块SRAM芯片作为Cache来解决访存的问题。那么到了80486的时候,就已经把Cache集成到了CPU芯片内部,从而缓解CPU和DRAM主存之间的性能差距。
3. 存储层次结构
因此,现代计算机当中都采用了下图这样层次化的存储结构。在这个层次结构中,越往上的部件容量越小,但速度越快,而单位字节的成本更高。越往下的部件容量越大,但速度更慢,而单位字节的成本更低。