本帖更新一些关于计算机组成原理的重点内容。由于博主考研时并不会考这门课,但是考虑到操作系统中又很多重要晦涩的概念涉及很多诸如内存、存储器、磁盘、cpu乃至各种寄存器的知识,此处挑选一些核心的内容总结复盘一遍------实现声明:本帖的内容注重知识扩展,而非纯应试~
配套课程:王道考研
一.计算机的发展
计算机系统=硬件+软件(硬件决定了性能天花板,而软件又决定了能将性能发挥到什么程度~)
计算机在处理数字计算时,本质上是在处理一系列电信号,逻辑原件是处理电信号的最小单元
发展历史:
- 1946年:埃尼亚克(ENIAC)------因为军事应运而生**(电子管时代1946-1957)**
- 晶体管时代(1958-1964):体积、功耗降低;出现面向过程的程序设计语言;操作系统的雏形出现
- 中小规模集成电路时代(1965-1971):规模进一步缩小,可靠性进一步提高,各种高级语言发展迅速,开始出现分时操作系统
- 超大规模集成电路时代(1971-至今):出现微处理机(CPU)以及个人计算机(PC),同时出现Windows等各种耳熟能详的操作系统
自从奔腾系列开始,CPU基本上进入64位的字长~
java与Python等语言是更适合于网络环境的编程语言。
二.计算机硬件的基本组成
为了解决ENIAC需要手动接线的弊端,冯诺依曼第一次提出了存储程序的概念!
本质在于------解决了手动操作的缺点。
如上是冯诺依曼体系结构。
(所谓软件与硬件在逻辑上等价,要联想OS中临界区用软件和硬件实现互斥的两种对立情况!)
特点:
1.计算器由五大部件组成
2.指令和数据以同等地位存放于存储器, 可按地址寻访
3.指令和数据用二进制码表示
4.指令由操作码和地址码组成
5.出现存储程序
6.以运算器为核心!
进化:现代计算机以存储器为核心!
而当大规模集成电路出现后, 运算器和控制器往往集成在一个芯片上:
而这个芯片就是常说的------CPU。
注意:主存即所谓的内存~
而辅存(存储、磁盘),本质上应该归结为IO设备~
三.硬件工作原理
1.主存储器
存储字长通常情况下为8个bit的整数倍~
存储元的实现细节本质上是依靠电容实现的。
MAR位数决定存储体的个数
MDR的位数决定存储单元的存储字长
易混淆:字节:Byte,即1Byte=8bit(1字节对应8比特)
字:每个存储单元可以存放比特的位数------即存储字长,大小由寄存器本身决定
注意:ISP(运营商)所提供的100兆宽带,单位是100Mbps,其中的b象征的是bit而并非字节,换算下来将近12.5MB每秒,结合计网的知识,带宽只是理想状态下的网速,因此假使办理的宽带为所谓的1000兆,实际上的最高网速也只有125MB/s,而在实际使用时,可能达到20MB已经是最大值了~
2.运算器
核心在于ALU------算术逻辑单元,造价很高。
3.控制器
核心在于CU。
高级语言代码的执行原理均为一连串的二进制码组成(机器指令)。
如上图,解下来通俗地描述一下CPU实现a=2赋值这一过程的背后原理:
- 首先,程序计数器PC指向下标为0的第一条指令,因此根据序号下标来寻找这条指令的内容,即把存储地址发送给MAR。
- 然后MAR根据给出的地址,去存储体中找到完整的指令内容
- 存储体将指令送给MDR
- MDR再将指令传送给指令寄存器IR
- IR将指令的操作码部分传递给CU,即指明了该条指令需要实现什么样的功能
- IR再将指令的地址码传给MAR,即寻找该条指令所需要的数据所对应的地址!
- 以此类推第2步
- 以此类推第3步
- MDR将数据传送给ACC,即累加器
指令完成后,PC实现自加1。
而当运行到停机指令时,这时操作系统需要通过中断处理或者系统调用来终结当前进程的执行~
四.系统层次结构
下层是上层的基础,上层是下层的扩展~
- 编译型语言:将编写的源程序全部语句一次性全部翻译为机器语言程序,而后再执行机器语言程序(只需要翻译一次)------(exe文件的产生可以为一种理解)
- 解释型语言: 将源程序的语句逐行翻译,翻译结束后就立即执行,紧接着再翻译下一句
五.性能指标
1.总容量
2.CPU性能主频
主频越高的CPU速度越快
CPI:执行一条指令需要的时钟周期
(具体时间与其他因素有关)
平均执行一条指令的耗时:CPI*CPU时钟周期
(频率类的信息,G代表10的9次方)
3.其他:
4.基准程序(某种跑分软件......)
通过设计好的程序代码,测试当前CPU执行目标代码所需要的时间。