当前位置:首页 » 编程软件 » 74汉明码编译码原则

74汉明码编译码原则

发布时间: 2024-07-19 09:01:25

⑴ 编码理论的信源编码

广义的信源编码包括模数转换(即把模拟量变换成二进制的数字量)和数据压缩(即对这些数字量进行编码来降低数码率)两个方面。信源编码的主要任务是压缩数据。 它有四种基本方法:
①匹配编码。这种方法是根据编码对象的出现概率(概率分布),分别给予不同长短的代码,出现概率越大,所给代码长度越短。这里所谓匹配就是指代码长度与概率分布相匹配。莫尔斯码是一种匹配编码。匹配编码还常采用去相关性的方法进一步压缩数据。
②变换编码。这种方法是先对信号进行变换,从一种信号空间变换成另一种信号空间,然后针对变换后的信号进行编码。变换编码在话音和图像编码中有广泛的应用。常用的变换编码有预测编码和函数编码两类。预测编码是根据信号的一些已知情况来预测信号即将发生的变化。它不传送信号的采样值,而传送信号的采样值与预测值之差。预测编码用在数字电话和数字电视中。函数变换最常用的是快速傅里叶变换 (FFT)、余弦变换、沃尔什变换、哈尔变换和阿达马变换等。通过变换可得到信号的频谱特性,因而可根据频谱特点来压缩数码。
③矢量编码。这种方法是将可能传输的消息分类按地址存储在接收端的电子计算机数据库中,发送端只发送数据库的地址,即可查出消息的内容,从而大大压缩发送的数据。
④识别编码。这种方法主要用于有标准形状的文字、符号和数据的编码。但话音也可以进行识别编码。识别编码的作用不仅限于压缩数据,它在模式识别中也有广泛的应用。 信道编码的主要任务是为了区分通路和增加通信的可靠性。以区分通路为主要目的的编码常采用正交码。以增加通信可靠性为主要目的的编码常采用纠错码。正交码也具有很强的抗干扰能力。在信道编码中也采用检错码。
信源编码器输出 位码元一组的码。它们携带着信息,称为信息元。这样的信息元通过信道编码器后,变换成 位码元一组的码字。信息元和码字是一一对应的。 接收到错误的码字后能在译码时自动纠正错误的码称为纠错码。纠错码是一种重要的抗干扰码,可增加通信的可靠性。纠错码是利用码字中有规律的冗余度,即利用冗余度使码字的码元之间产生有规律的相关性,或使码字与码字之间产生有规律的相关性。通常把信息元中的码元数与对应码字的码元数 的比值R称为编码效率,即R=/,码字的冗余度为1-R。
纠错码有两类:分组码和卷积码。
分组码
常记作(,)码,其中是一个码字的码元数(即码字长),是信息码元数,-是监督码元数。在一个码字中,如果信息码元安排在前位,监督码元安排在后-位,这种码称为组织码或系统码。如果分组码中任何两个 比特的码字进行模2相加(即不进位的普通二进制加法,模2加法记号是)可得到另一个码字,这种码称为群码。任何一致监督分组码都是群码。如果一个码字经过循环以后必然是另一个码字,这种码称为循环码。循环码是群码的一个重要子集着名的BCH码是一种循环群码。能纠正突发错误的费尔码是一种分组循环码。汉明码也是一种群码。通常把两个码字之间不同码元的数目称为汉明距离。两两码字之间汉明距离的最小值称为最小汉明距离,它是汉明码检错纠错能力的重要测度汉明码要纠正E个错误,它的最小汉明距离至少必须是2E+1;要发现最多E个错误,其最小汉明距离应为E+1。
卷积码
如果特定的一致监督关系不是在一个码字中实现,而是在个码字中实现,这种码称为卷积码。卷积码可用移位寄存器来实现,这种卷积编码器的输出可看作是输入信息码元序列与编码器响应函数的卷积。能纠正突发错误的哈格伯尔格码也是一种卷积码。在平稳高斯噪声干扰的信道上采用序贯译码方法的卷积码有很好的性能,能用于卫星通信和深空通信。 为了防止窃译而进行的再编码称为保密编码。其目的是为了隐藏敏感的信息。它常采用替换或乱置或两者兼有的方法。一个密码体制通常包括两个基本部分:加(解)密算法和可以更换的控制算法的密钥。密码根据它的结构分为序列密码和分组密码两类。序列密码是算法在密钥控制下产生的一种随机序列,并逐位与明文混合而得到密文。其主要优点是不存在误码扩散,但对同步有较高的要求。它广泛用于通信系统中。分组密码是算法在密钥控制下对明文按组加密。这样产生的密文位一般与相应的明文组和密钥中的位有相互依赖性,因而能引起误码扩散。它多用于消息的确认和数字签名中。
密码学还研究通过破译来截获密文的方法。破译方法有确定性分析法和统计性分析法两类。确定性分析法是利用一个或几个未知量来表示所期望的未知量从而破译密文。统计分析法是利用存在于明文与密文或密钥之间的统计关系破译密文。

⑵ 编码理论的编码理论

研究信息传输过程中信号编码规律的数学理论。编码理论与信息论、数理统计、概率论、随机过程、线性代数、近世代数、数论、有限几何和组合分析等学科有密切关系,已成为应用数学的一个分支。编码是指为了达到某种目的而对信号进行的一种变换。其逆变换称为译码或解码。 根据编码的目的不同,编码理论有三个分支:
①信源编码。对信源输出的信号进行变换,包括连续信号的离散化,即将模拟信号通过采样和量化变成数字信号,以及对数据进行压缩,提高数字信号传输的有效性而进行的编码。
②信道编码。对信源编码器输出的信号进行再变换,包括区分通路、适应信道条件和提高通信可靠性而进行的编码。
③保密编码。对信道编码器输出的信号进行再变换,即为了使信息在传输过程中不易被人窃取而进行的编码。编码理论在数字化遥测遥控系统、电气通信、数字通信、图像通信、卫星通信、深空通信、计算技术、数据处理、图像处理、自动控制、人工智能和模式识别等方面都有广泛的应用。 前向纠错(英语:Forward error correction,缩写FEC)是一种在单向通信系统中控制传输错误的技术,通过连同数据发送额外的信息进行错误恢复,以降低误码率(bit error rate,BER)。FEC又分为带内FEC和带外FEC。FEC的处理往往发生在早期阶段处理后的数字信号是第一次收到。也就是说,纠错电路往往是不可分区的一部分的模拟到数字的转换过程中,还涉及数字调制解调,或线路编码和解码。
FEC是通过添加冗余信息的传输采用预先确定的算法。1949年汉明(Hamming)提出了可纠正单个随机差错的汉明码。1960年Hoopueghem,Bose和Chaudhum发明了BCH码,Reed与Solomon又提出 ReedSolomon(RS)编码,纠错能力很强,后来称之为里德-所罗门误码校正编码(The reed-solomon error correction code,即后来的附加的前向纠错)。ITU-T G.975/G.709规定了“带外FEC”是在SDH层下面增加一FEC层,专门处理FEC的问题。带外FEC编码冗余度大,纠错能力较强。FEC有别于ARQ,发现错误无须通知发送方重发。一旦系统丢失了原始的数据包,FEC机制可以以冗余数据包加以补入。例如有一数据包为“10”,分成二个数据包,分别为“1”和“0”,有一冗余数据包“0”,收到任意两个数据包就能组装出原始的包。但这些冗余数据包也会产生额外负担。 1843年美国着名画家S.F.B.莫尔斯精心设计出莫尔斯码,广泛应用在电报通信中。莫尔斯码使用三种不同的符号:点、划和间隔,可看作是顺序三进制码。根据编码理论可以证明,莫尔斯码与理论上可达到的极限只差15%。但是直到20世纪30~40年代才开始形成编码理论。1928年美国电信工程师H.奈奎斯特提出着名的采样定理,为连续信号离散化奠定了基础。1948年美国应用数学家C.E.香农在《通信中的数学理论》一文中提出信息熵的概念,为信源编码奠定了理论基础。1949年香农在《有噪声时的通信》一文中提出了信道容量的概念和信道编码定理,为信道编码奠定了理论基础。无噪信道编码定理(又称香农第一定理)指出,码字的平均长度只能大于或等于信源的熵。有噪信道编码定理(又称香农第二定理)则是编码存在定理。(见香农三大定理)它指出只要信息传输速率小于信道容量,就存在一类编码,使信息传输的错误概率可以任意小。随着计算技术和数字通信的发展,纠错编码和密码学得到迅速的发展。
在信源编码方面
1951年香农证明,当信源输出有冗余的消息时可通过编码改变信源的输出,使信息传输速率接近信道容量。1948年香农就提出能使信源与信道匹配的香农编码。1949年美国麻省理工学院的R.M.费诺提出费诺编码。1951年美国电信工程师D.A.哈夫曼提出更有效的哈夫曼编码。此后又出现了传真编码、图像编码和话音编码,对数据压缩进行了深入的研究,解决了数字通信中提出的许多实际问题。
在纠错编码方面
1948年香农就提出一位纠错码(码字长=7,信息码元数=4)。1949年出现三位纠错的格雷码(码字长=23,信息码元数=12)。1950年美国数学家理乍得·卫斯里·汉明发表论文《检错码和纠错码》,提出着名的汉明码,对纠错编码产生了重要的影响。1955年出现卷积码。卷积码至今仍有很广泛的应用。1957年引入循环码。循环码构造简单,便于应用代数理论进行设计,也容易实现。1959年出现能纠正突发错误的哈格伯尔格码和费尔码。1959年美国的R.C.博斯和D.K.雷·乔达利与法国的A.奥昆冈几乎同时独立地发表一种着名的循环码,后来称为BCH码(即Bose-Chaudhuri-Hocquenghem码)。1965年提出序贯译码,序贯译码已用于空间通信。1967年A.J.维特比提出最大似然卷积译码,称为维特比译码。1978年出现矢量编码法。矢量编码法是一种高效率的编码技术。1980年用数论方法实现里德-所罗门码(Reed-Solomon码),简称RS码。它实际上是多进制的BCH码。这种纠错编码技术能使编码器集成电路的元件数减少一个数量级。它已在卫星通信中得到了广泛的应用。RS码和卷积码结合而构造的级连码,可用于深空通信。
在密码学方面
1949年香农发表《保密系统的通信理论》,通常它被认为是密码学的先驱性着作。1976年狄菲和赫尔曼首次提出公开密钥密码体制,为密码学的研究开辟了新的方向。超大规模集成电路和高速计算机的应用,,促进了保密编码理论的发展,同时也给保密通信的安全性带来很大的威胁。70年代以来把计算复杂性理论引入密码学,出现了所谓P类、NP类和NP完全类问题。算法的复杂性函数呈指数型增长,因此密钥空间扩大,使密码的分析和搜索面临严重的挑战。密码学开始向纵深方向发展。

⑶ 电路板上的Tⅴ一cⅴBS代表什么



1. 计算机组成原理概论

计算机:数字电子计算机

组成:计算机硬件系统的逻辑实现

原理:不以具体机型为依托的,基本实现原理。

计算机组成原理:掌握如何实现的具体细节。

1.1 计算机系统简介

计算机系统由两大部分组成:硬件和软件。软件又包括系统软件和应用软件。

系统软件可以管理整个计算机系统:

  • 语言处理程序(将高级语言转换为机器可以懂得指令)
  • 操作系统
  • 服务性程序(比如数学库、MPI服务程序进行并行之间的通信)
  • 数据库管理系统
  • 网络软件

应用软件是按照任务需要编制成的程序。

可以简单将软件看作一个层次结构,硬件为软件提供接口,系统软件又为应用软件形成接口,来完成不同的程序。

对于计算机的物理结构层次,我们这门课主要研究逻辑层和微电路层的具体实现方式。

计算机系统的指令层次如下图所示

操作系统可以管理软硬件的资源。

计算机系统结构定义了系统软硬件的交界面,定义了哪些功能由软件实现,哪些功能由硬件实现,定义为==程序员所见到的计算机系统的属性概念性的结构与功能特性==。(指令系统,数据类型,寻址技术,I/O机理),即程序员需要理解的东西。

计算机组成:实现计算机体系结构所体现的属性,即具体指令的实现。

1.2 计算机的基本组成 1.2.1 冯诺依曼结构

上图实线表示数据流动,虚线表示控制反馈。

  • 计算机结构由五大部件组成:存储器、运算器、控制器、输入设备、输出设备
  • 以运算器为中心==程序存储在存储器中==
  • 指令和数据以同等地位保存在存储器中,可以按照地址寻找。
  • 指令和数据由二进制表示,指令由操作码和地址码组成,操作码指明指令要干什么,地址码指明操作数晌运的地址。

冯诺依曼结构以运算器为中心,容易形成瓶颈。我们可以使用存储器作为中心来进行优化,但是还不够。

1.2.2 现代计算机硬件框图

指令和数据都是保存在存储器中的。

1.2.3 存储器的基本组成

MAR是存储器地址寄存器,保存了存储单元的地址和编号,长度猛清反映存储单元的个数。

MDR是存储器数据寄存器,保存了要存入存储体的数据或刚从存储体拿出来的数据,长度反映存储字长。

利用MAR和MDR来将数据放入存储器。

1.2.4 运算器的结构

ALU(算术逻辑单元),通常是一个组合电路,输入撤销,输出也撤销,因此需要加上寄存器保存参与运算的计算

数据寄存器X保存输入参数,ACC为累加寄存器,保存结果,乘法可能使得数据位数保存不下,使用MQ寄存器保存低位。

上表中存放了不同运算中,运算器的工作过程,以乘法为例,操作过程如下:

  • 首先将被乘数取出来放到ACC中
  • 从指令中的乘数地址M中取出乘数,送入MQ中
  • 将被乘数送到X中
  • 将ACC清零
  • 完成乘法操作,结果由ACC和MQ保存

这些操作的过程顺序是由控制器来控制完成的。

1.2.5 控制器的基本结构

控制器的功能是解释指令(完成指令)、保证指令的按序执行

  • PC(程序计数器)寄存器保存了当前指令的地址,进行取指令,PC有计数功能。
  • IR(指令寄存器)存放当前要执行的指令,将操作码送入CU进行分析。
  • CU(控制单元)发出控制信号,控制相对应的部件来执行指令。

下面以取数指令为例分析指令执行过程(取数送到ACC中)

  1. PC保存指令的地址,送到MAR进行寻址
  2. MAR根据地址到存储体中找到保存的指令
  3. MDR从存储体中取出指令
  4. 送到IR中,IR存放要执行的指令
  5. IR将操作码送入CU中进行分析
  6. 同时将地址码送到MAR中找这个数的数据
  7. MAR根据地址到存储体中找到要取的数
  8. MDR保存从存储体中取出的数
  9. CU控制下,将宴知梁要取的数送到ACC中。

CU分析控制这些步骤的过程。

1.3 计算机硬件的主要技术指标

  • 机器字长:CPU一次能处理数据的位数,与CPU中寄存器位数有关。
  • 运算速度:主频、核数以及每个核支持的线程数、CPI(执行一条指令所需的时钟周期数)、MIPS(每秒执行百万条指令)、FLOPS(每秒浮点运算次数)。
  • 存储容量:主存容量(可使用存储单元个数×存储字长来表示存储体容量,MAR * MDR)(也可使用字节数来表示)、辅存容量(字节数表示)。
2. 计算机的发展以及应用 2.1 计算机的发展史

第一台计算机,1946年ENIAC,十进制运算。

电子技术的发展与计算机体系结构技术的发展对计算机的发展产生了决定性作用。

根据硬件技术来对计算机进行划分代码

电子管→晶体管→大规模集成电路→大规模集成电路→超大规模集成电路

软件技术的发展:机器语言(面向机器)、汇编语言(面向机器)、高级语言(面向问题)。

2.2 计算机的应用

  • 科学计算和数据处理
  • 工业控制和实时控制
  • 网络技术
  • 虚拟现实
  • 办公自动化和管理信息系统
  • CAD/CAM/CIMS
  • 多媒体技术
  • 人工智能
3. 系统总线 3.1 总线(bus)的基本概念

总线是连接各个部件的信息传输线,是各个部件共享的传输介质,是信号的公共传输线。

如果使用单总线结构(系统总线),那么同时只能有一对部件进行信号传输,效率较低,使用双总线结构效率会更高。

上面的结构,无法在I/O和主存之间进行直接的信息传输,必须要通过CPU。

3.2 总线的分类

  • 片内总线:芯片内部的总线。
  • 系统总线:计算机各部件之间的信息传输线。可分为:
    • 数据总线,双向的,一般小于等于机器字长和存储字长。
    • 地址总线,单向的,与存储地址、I/O地址有关。
    • 控制总线,双向(CPU发出存储器读写指令,总线允许,中断确认等;CPU接收中断请求、总线请求)

  • 通信总线:计算机之间或计算机和其它设备之间的通信,并行通信总线和串行通信总线。
3.3 总线的特性和性能指标

总线印刷到电路板上(主板),其他设备插板插到电路板上。

总线的性能指标:

  • 总线宽度:数据线根数,同时可以传输多少位。
  • 标准传输率:每秒传输的最大字节数MBps
  • 时钟同步/不同步
  • 总线复用:地址线与数据线是否可以复用
  • 信号线数:地址线、数据线和控制线的总和
  • 总线控制方式
  • 其他指标:负载能力等

3.4 总线结构

增加了DMA(直接存储器访问)总线,外部设备直接访问存储器内存。高速设备直接通过DMA访问主存。

CPU与cache通过局部总线进行相连,扩展总线将外部设备连接。

高速设备和低速设备分离,分别连接到高速总线和扩展总线上。

PCI高速总线来连接高速设备,PCI总线可以通过桥来进行扩展。

3.5 总线控制 3.5.1 总线判优控制

通过是否能对总线发出占用请求,我们将设备分为主设备(主模块)和从设备(从模块)。主设备可以对总线有控制权,从设备响应从主设备发来的总线命令。

总线判优控制可以分为两种:集中式和分布式。下面介绍几种集中式的总线判优控制结构。

主设备通过BR申请总线的控制权,有设备在使用总线,则设置BS。总线控制部件通过BG来链式查询这些接口是否提出了BR,遇到了BR则交出控制权。

因此,优先顺序则为BG的查询顺序。这种结构对电路故障特别敏感,尤其是BG,如果BG后面出了问题,会导致后面的设备一直不会响应。

数据线用于数据的传输,地址线用于从设备的查找。通过设备地址线来查找某个设备是否发出总线请求。计数器的值通过设备地址线进行传输,来查找某个设备是否发出请求。可以自定义计数器的计数方式,来改变从哪个设备先查询等。

为每个I/O接口增加了BR和BG,通过排队器来进行优先级排队。这种方式使用的线数较多。

3.5.2 总线通信控制

为了解决通信双方(主从设备)协调配合的问题。

总线的传输周期(完成一次主从设备完整可靠的传输所需要的时间):

  • 申请分配阶段:主设备申请,总线决定
  • 寻址阶段:主设备向向从设备给出地址和命令
  • 传数阶段:主设备和从设备进行交换数据
  • 结束阶段:主从设备撤销有关信息
  • T1,主设备给出地址信号
  • T2,给出从设备的读命令信号
  • T3,从设备给出数据,输出到总线,完成数据交换
  • T4,撤销地址信号,结束周期

强制同步,如果设备之间速度不同,快的设备需要等慢的设备。

不互锁:不管从设备是否接收到请求信号,过段时间主设备都会撤销请求。不管主设备是否接收到应答信号,从设备多段时间都会撤销应答。

半互锁和全互锁针对上面进行改进。

增加等待响应信号,当wait为低电平,则等待一个T。

使用分离式通信来将总线空闲的时间也充分利用起来。

4. 存储器 4.1 概述

按照存取方式对存储器进行分类:

  • 存取时间与物理地址无关(随机访问):随机存储器、只读存储器。
  • 存取时间与物理地址有关(串行访问):顺序存取存储器(磁带)、直接存取存储器(磁盘)。

按照在计算机中的作用分类:

存储器的层次结构:

  • 寄存器包括体系结构寄存器和非体系结构寄存器。
  • 一部分缓存放在了CPU之中。
  • 缓存——主存层次,使用硬件方法连接到一个整体(对程序员透明,即不需要了解),速度较快,解决CPU和主存之间速度差距较大的问题,缓存即为cache,CPU可以直接从缓存调用数据,cache和主存也进行数据交换。使用主存储器的实地址和物理地址。
  • 主存——辅存层次,使用软硬件结合方式连接,容量较大,解决容量不足问题。这个层次称为虚拟存储器,使用虚地址和逻辑地址。
4.2 主存储器 4.2.1 概述

主存的基本组成:

主存与CPU之间的联系:

主存中存储单元地址的分配:

  • 每个字节(8位)一个地址,如果一个存储单元存储32位,即四个字节为一个字,可以将高位字节/低位字节,放在小的地址作为字地址。

主存的技术指标:

4.2.2 主存储器半导体芯片简介

基本结构:

  • 地址线(单向)给出地址,经过译码驱动电路来选择指定的存储单元,完成数据的读写操作(数据线双向)。
  • 片选线是芯片选择信号,给出这次选择的地址是不是这个芯片的地址。
  • 读写控制线,控制操作允许读还是写。
  • 根据地址线和数据线条数,可以计算出芯片容量。如果地址线10条,数据线4条,那么芯片容量则为1K×4位。即1K个地址,每个地址数据4位。

译码驱动方式:

第一种方法是线选法

  • 使用地址译码器,给定输入,输出只有一根线(字线)是有效的,图中一根线中是8个芯片组合成一个字,那么只有一根线的这一组芯片有效。
  • 这种方法,每个字的存储单元都需要一根线,当容量较大的时候,很麻烦。

第二种方法是重合法

  • 将所有存储单元布置成二维的阵列,使用两个地址译码器XY,一组(X,Y)对应一个存储单元。
  • 这样会大大降低所需要的线数量。
4.2.3 随机存取存储器(RAM) 4.2.3.1 静态RAM(SRAM)

SRAM的基本电路:

  • 使用触发器T1-T4来存储0/1,T5、T6控制存储单元读写,实际中会有许多虚线框进行堆叠,T7、T8列开关,一列共用。同样,可以横向进行堆叠,那么行地址选择的这一行,所有存储单元的T5和T6都会导通,但是只有对应列也有效的那个存储单元才进行读写。
  • 通过行选和列选,选中进行读写操作的存储单元。

SRAM芯片举例(Intel 2114):

  • WE读写控制信号,CS片选信号,A0-A9为地址线,4个I/O数据线。
  • 10根地址线,使用重合法,6线为行地址,4线为列地址,每个列信号控制四列,这样一次就可以选择4位,将这4位看做是一个存储单元。就完成了1K×4位的选择。
4.2.3.2 动态RAM(DRAM)

DRAM的基本电路:

  • 利用电容,如果电容保存了电荷,则认为保存是1,没有电,则认为是0。
  • 保存在Cg上,T1、T2、T3是控制管。
  • 读出信息与原信息相反,需要加非门。
  • 写入信息与输入信息相同。

还有一种结构是单管动态RAM:

  • 读出数据时,数据线有电,则为1。
  • 写入时,Cs充电为1,放电为0。

三管DRAM芯片举例(Intel 1103):

  • 因为电容会漏电,刷新放大器会定时对存储的信息进行刷新。

单管DRAM芯片举例(Intel 4116 16k×1位):

  • 只有7根地址线,通过两次,来接受行地址和列地址,存放到对应的缓存器中。
  • 通过行时钟、列时钟、写时钟来控制读写。

动态RAM的刷新:

  • 每一次刷新只与行地址有关,与列地址没有关系,每次刷新一行。
  • 集中刷新(在某段时间集中刷新所有的电容),这段时间DRAM是不可用的,称为死区。
  • 分散刷新(每次读写操作之后,将某一行刷新),相当于将原来的读写操作的时间变长,把刷新操作放在读写操作中,这样就不存在死区。分散刷新比较频繁,有点过度刷新了。
  • 异步刷新(将上面两种结合),则每隔一段时间对某一行进行刷新,即多个读写操作加一个刷新操作。
4.2.3.3 两种RAM的比较
  • DRAM的集成度较高,每个存储单元复杂度较低。
  • SRAM的速度较快,一般用作缓存。
4.2.4 只读存储器(ROM)

ROM中一般保存系统信息或系统程序。早期是只读的,不可以写,经过多年的发展和改进,现在的ROM可以自己多次读写。

  • 掩模ROM(MROM):只读,不能修改。行列选择线交叉处有MOS管则为1,没有则为0。
  • PROM(一次性编程):熔丝断了,则为0,否则为1。可以一次性的破坏性编程。
  • EPROM(可以多次编程):N型沟道浮动栅MOS电路。S与D导通为1,不导通为0。
  • EEPROM(多次性编程):电可擦写、局部擦写、全部擦写。
  • Flash Memory(闪存型存储器):比EEPROM快,具有RAM的一些功能。
4.2.5 CPU与存储器的连接

存储器容量扩展可以通过位扩展(增加存储字长)、字扩展(增加存储字的数量)、同时扩展。

CPU与存储器的连接:

  • 地址线的连接:低位作为地址,高位作为片选信号
  • 数据线的连接
  • 读写命令控制线的连接
  • 片选线的连接:MREQ信号(表示该信号是连接存储器还是I/O接口)一定要连接到片选信号中,使得只有这个信号有效,才是CPU和内存连接工作。
  • 合理选择存储芯片(ROM/RAM,芯片的性能参数)
  • 其他:时序、负载
4.2.6 存储器的校验

校验,检测合法代码,对非法代码进行纠错。

编码的纠错、检错能力与编码的最小距离有关。最小距离为任意两组合法代码之间二进制位数的最小差异。$$ L-1 = D + C (D≥C) $$L为最小距离,D为检测错误的位数,C为纠正错误的位数。

汉明码是具有一位纠错能力的编码,汉明码都采用了奇偶校验和分组校验(分组的奇偶校验,分组之间是有重叠的,校验位放在2 ^ k处,k=0,1,2,3...)。

汉明码的分组,将代码中每一位进行分组(1,2,3,4,5,6,7序号),将每一位的序号进行分组,序号的二进制最右边一位为1的,第一组,右边第二位为1的,第二组......

==最后的校验结果,哪一位是1,那么这位对应的那组中的那个序号的代码位出错。如果出现了多个1,那么就是这几个组中公共的那位出错了。==

4.2.7 提高主存的访问以及存储速度

CPU速度提升很快,但是存储器的速度提升较慢。

我们可以采用高速器件,采用层次结构(Cache-主存),==调整主存结构。==

  • 单体多字系统:使得存储器的存储字长大于CPU的字长(比如是CPU字长的4倍),这样一次读取就可以读取多个指令。但是这样会导致存储器结构复杂, 而且,如果需要执行的指令不是连续存放的,会更麻烦。
  • 多体并行方式:
  • 高位交叉:对各个存储体进行编号,存储体内部自行编号,每个存储体独立,有自己的控制编号。这样CPU给出的地址是体号+体内地址,各个存储体可以并行处理。(类似存储器容量的扩展)如果程序指令存方式顺序的,实际上还是在一个存储体中,并无法提升存储体速度。
  • 低位交叉:体内地址+体号,使用横向的编码,比如存储体为M0-M3,那么第一个地址为M0的第一个位置,第二个地址为M1的第一个位置......这样M0中所有地址后两位都为00,M1都为01,M2都为10,M3都为11。后两位给出了存储体的选择地址。这样如果程序指令顺序存放的地址,实际上是不同存储体并行处理,这样就提升了效率,流水操作。
4.3 高速缓冲存储器(Cache) 4.3.1 概述

CPU与主存(DRAM)之间存在速度差异,为了避免CPU“空等”的现象,使用cache。

程序访问的局部性原理

  • 时间的局部性:当前正在使用的指令或数据,会在不久的将来还会使用到,那么应该把这种数据或指令放在缓存中。
  • 空间的局部性:当前正在使用的指令或数据,不久的将来,相邻的指令或数据会使用到,那么应该把当前和相邻的指令和数据放到缓存中。

cache的工作原理:

把主存和cache分成大小相等的块,每个块大小相等,主存的块数量远远大于cache的块数量。==主存与cache之间的信息传送是按块传送,块内地址不变,cache的每个块的标记,标记了这个块是主存的哪个块。==

主存块调入了缓存(即cache标记了),称为命中,CPU可直接在缓存中取得数据;如果没有调入,称为未命中。

我们希望,每次执行程序,都尽可能的在cache中提取数据,这样速度会很快。CPU欲访问的信息在Cache中的比率称为命中率,命中率与Cache的容量和块长有关。一般每块取4-8个字,一般为一个存取周期内从主存调出的信息长度。

cache与主存的访问效率:

这里面平均访问时间为每次访问的平均时间(可能从cache,可能从主存)。

4.3.2 cache的基本结构与读写操作

cache的基本结构:

读写操作:

  • 前者时刻保持了cache和主存的一致,后者只写cache中,当cache中退出时才写回主存。

cache的改进:

  • 增加cache的级数:片内cache,片外cache。
  • 分立缓存:指令cache,数据cache。
4.3.3 cache-主存的地址映射

即主存的任意一块加载到cache中的哪块。

直接映射:

即主存中任意一个块,只能映射到指定的一个cache块中,cache块可以是一对多的。相当于将主存分区,每个区内的这些块,对应于cache的所有块;这样在cache的标记中,有t位的标记,表示当前该cache块存放的是主存哪个区的对应位置信息。

这种方法cache块的利用率比较低,且可能会冲突。

全相联映射:

主存中任意一个块,可以被放入cache中的任意一个块中。

这样的话,虽然块的利用率高了,但是因为块可以映射到任意一个位置,如果查询某个主存块是否已经放入cache,需要比较所有的cache标记,速度较慢。

==组相联映射==

与直接映射相似,==将cache分组,每个组可以有多个块;将主存分区,每个区的大小为cache的组数==。这样每个区的第0块,可以放入cache第0组的任何一个位置,因为每个组有多个块,解决了直接映射的冲突问题;想查询某个主存的块是否放入了cache,只需要在对应的组进行查询即可,解决了全相联映射的问题。

4.3.4 替换算法

如果内存块满了,如何替换,将谁弹出。

先进先出(FIFO)算法

近期最少使用(LRU)算法

4.4 辅助存储器

辅助存储器的主要作用是保存程序、文档和影音资料,不能直接与CPU交换信息,需要调入主存才能进行读写。

包括磁盘存储器和光盘存储器等。

⑷ 信道编码都有哪些

1、信道编码的种类主要包括:线性分组码、卷积码、级联码、Turbo码和LDPC码。

2、其中分组码又分为:汉明码,格雷码,循环码(BCH码,RS码,CRC循环冗余校验码。

信道编码,也叫差错控制编码,是所有现代通信系统的基石。

几十年来,信道编码技术不断逼近香农极限,波澜壮阔般推动着人类通信迈过一个又一个顶峰,信道编码在发送端对原数据添加冗余信息,这些冗余信息是和原数据相关的,再在接收端根据这种相关性来检测和纠正传输过程产生的差错,这些加入的冗余信息就是纠错码,用它来对抗传输过程的干扰。

(4)74汉明码编译码原则扩展阅读:

作用

数字信号在传输中往往由于各种原因,使得在传送的数据流中产生误码,从而使接收端产生图象跳跃、不连续、出现马赛克等现象。

所以通过信道编码这一环节,对数码流进行相应的处理,使系统具有一定的纠错能力和抗干扰能力,可极大地避免码流传送中误码的发生。

误码的处理技术有纠错、交织、线性内插等。

⑸ 单片机串口通信编译码

串口直接丢过去收到就是了,为啥还要编码译码?加密么

热点内容
c语言中非 发布:2024-10-18 16:21:20 浏览:143
招编程人员 发布:2024-10-18 16:19:37 浏览:422
什么数据类型存储图片 发布:2024-10-18 16:19:28 浏览:749
电脑维护服务器 发布:2024-10-18 16:18:51 浏览:435
取舍算法 发布:2024-10-18 16:12:36 浏览:249
安卓数据线一般在什么价位 发布:2024-10-18 16:09:25 浏览:732
老式安卓机怎么插卡 发布:2024-10-18 15:52:35 浏览:338
pc搭建nas服务器 发布:2024-10-18 15:51:59 浏览:266
androidimei 发布:2024-10-18 15:51:56 浏览:292
c语言零基础入门 发布:2024-10-18 15:46:42 浏览:188