惟高速缓存
❶ 如何建立自己的DNS
以windowsserver2003系统为例
1启动电脑并打开安装DNS程序!我们在开始->管理工具->管理你的服务器(打开)就能管理这台服务器了!我们要添加DNS服务就要打开添加或删除角色,然后我们要选择自定义选项!单击下一步!
❷ 常见的网络协议有哪些
第一章 概述
电信网、计算机网和有线电视网 三网合一
TCP/IP是当前的因特网协议簇的总称,TCP和 IP是其中的两个最重要的协议。
RFC标准轨迹由3个成熟级构成:提案标准、草案标准和标准。
第二章 计算机网络与因特网体系结构
根据拓扑结构:计算机网络可以分为总线型网、环型网、星型网和格状网。
根据覆盖范围:计算机网络可以分为广域网、城域网、局域网和个域网。
网络可以划分成:资源子网和通信子网两个部分。
网络协议是通信双方共同遵守的规则和约定的集合。网络协议包括三个要素,即语法、语义和同步规则。
通信双方对等层中完成相同协议功能的实体称为对等实体 ,对等实体按协议进行通信。
有线接入技术分为铜线接入、光纤接入和混合光纤同轴接入技术。
无线接入技术主要有卫星接入技术、无线本地环路接入和本地多点分配业务。
网关实现不同网络协议之间的转换。
因特网采用了网络级互联技术,网络级的协议转换不仅增加了系统的灵活性,而且简化了网络互联设备。
因特网对用户隐藏了底层网络技术和结构,在用户看来,因特网是一个统一的网络。
因特网将任何一个能传输数据分组的通信系统都视为网络,这些网络受到网络协议的平等对待。
TCP/IP 协议分为 4 个协议层 :网络接口层、网络层、传输层和应用层。
IP 协议既是网络层的核心协议 ,也是 TCP/IP 协议簇中的核心协议。
第四章 地址解析
建立逻辑地址与物理地址之间 映射的方法 通常有静态映射和动态映射。动态映射是在需要获得地址映射关系时利用网络通信协议直接从其他主机上获得映射信息。 因特网采用了动态映射的方法进行地址映射。
获得逻辑地址与物理地址之间的映射关系称为地址解析 。
地址解析协议 ARP 是将逻辑地址( IP 地址)映射到物理地址的动态映射协议。
ARP 高速缓存中含有最近使用过的 IP 地址与物理地址的映射列表。
在 ARP 高速缓存中创建的静态表项是永不超时的地址映射表项。
反向地址解析协议 RARP 是将给定的物理地址映射到逻辑地址( IP地址)的动态映射。RARP需要有RARP 服务器帮助完成解析。
ARP请求和 RARP请求,都是采用本地物理网络广播实现的。
在代理ARP中,当主机请求对隐藏在路由器后面的子网中的某一主机 IP 地址进行解析时,代理 ARP路由器将用自己的物理地址作为解析结果进行响应。
第五章 IP协议
IP是不可靠的无连接数据报协议,提供尽力而为的传输服务。
TCP/IP 协议的网络层称为IP层.
IP数据报在经过路由器进行转发时一般要进行三个方面的处理:首部校验、路由选择、数据分片
IP层通过IP地址实现了物理地址的统一,通过IP数据报实现了物理数据帧的统一。 IP 层通过这两个方面的统一屏蔽了底层的差异,向上层提供了统一的服务。
IP 数据报由首部和数据两部分构成 。首部分为定长部分和变长部分。选项是数据报首部的变长部分。定长部分 20 字节,选项不超过40字节。
IP 数据报中首部长度以 32 位字为单位 ,数据报总长度以字节为单位,片偏移以 8 字节( 64 比特)为单位。数据报中的数据长度 =数据报总长度-首部长度× 4。
IP 协议支持动态分片 ,控制分片和重组的字段是标识、标志和片偏移, 影响分片的因素是网络的最大传输单元 MTU ,MTU 是物理网络帧可以封装的最大数据字节数。通常不同协议的物理网络具有不同的MTU 。分片的重组只能在信宿机进行。
生存时间TTL是 IP 数据报在网络上传输时可以生存的最大时间,每经过一个路由器,数据报的TTL值减 1。
IP数据报只对首部进行校验 ,不对数据进行校验。
IP选项用于网络控制和测试 ,重要包括严格源路由、宽松源路由、记录路由和时间戳。
IP协议的主要功能 包括封装 IP 数据报,对数据报进行分片和重组,处理数据环回、IP选项、校验码和TTL值,进行路由选择等。
在IP 数据报中与分片相关的字段是标识字段、标志字段和片偏移字段。
数据报标识是分片所属数据报的关键信息,是分片重组的依据
分片必须满足两个条件: 分片尽可能大,但必须能为帧所封装 ;片中数据的大小必须为 8 字节的整数倍 ,否则 IP 无法表达其偏移量。
分片可以在信源机或传输路径上的任何一台路由器上进行,而分片的重组只能在信宿机上进行片重组的控制主要根据 数据报首部中的标识、标志和片偏移字段
IP选项是IP数据报首部中的变长部分,用于网络控制和测试目的 (如源路由、记录路由、时间戳等 ),IP选项的最大长度 不能超过40字节。
1、IP 层不对数据进行校验。
原因:上层传输层是端到端的协议,进行端到端的校验比进行点到点的校验开销小得多,在通信线路较好的情况下尤其如此。另外,上层协议可以根据对于数据可靠性的要求, 选择进行校验或不进行校验,甚至可以考虑采用不同的校验方法,这给系统带来很大的灵活性。
2、IP协议对IP数据报首部进行校验。
原因: IP 首部属于 IP 层协议的内容,不可能由上层协议处理。
IP 首部中的部分字段在点到点的传递过程中是不断变化的,只能在每个中间点重新形成校验数据,在相邻点之间完成校验。
3、分片必须满足两个条件:
分片尽可能大,但必须能为帧所封装 ;
片中数据的大小必须为8字节的整数倍,否则IP无法表达其偏移量。
第六章 差错与控制报文协议(ICMP)
ICMP 协议是 IP 协议的补充,用于IP层的差错报告、拥塞控制、路径控制以及路由器或主机信息的获取。
ICMP既不向信宿报告差错,也不向中间的路由器报告差错,而是 向信源报告差错 。
ICMP与 IP协议位于同一个层次,但 ICMP报文被封装在IP数据报的数据部分进行传输。
ICMP 报文可以分为三大类:差错报告、控制报文和请求 /应答报文。
ICMP 差错报告分为三种 :信宿不可达报告、数据报超时报告和数据报参数错报告。数据报超时报告包括 TTL 超时和分片重组超时。
数据报参数错包括数据报首部中的某个字段的值有错和数据报首部中缺少某一选项所必须具有的部分参数。
ICMP控制报文包括源抑制报文和重定向报文。
拥塞是无连接传输时缺乏流量控制机制而带来的问题。ICMP 利用源抑制的方法进行拥塞控制 ,通过源抑制减缓信源发出数据报的速率。
源抑制包括三个阶段 :发现拥塞阶段、解决拥塞阶段和恢复阶段。
ICMP 重定向报文由位于同一网络的路由器发送给主机,完成对主机的路由表的刷新。
ICMP 回应请求与应答不仅可以被用来测试主机或路由器的可达性,还可以被用来测试 IP 协议的工作情况。
ICMP时间戳请求与应答报文用于设备间进行时钟同步 。
主机利用 ICMP 路由器请求和通告报文不仅可以获得默认路由器的 IP 地址,还可以知道路由器是否处于活动状态。
第七章 IP 路由
数据传递分为直接传递和间接传递 ,直接传递是指直接传到最终信宿的传输过程。间接传递是指在信
源和信宿位于不同物理网络时,所经过的一些中间传递过程。
TCP/IP 采用 表驱动的方式 进行路由选择。在每台主机和路由器中都有一个反映网络拓扑结构的路由表,主机和路由器能够根据 路由表 所反映的拓扑信息找到去往信宿机的正确路径。
通常路由表中的 信宿地址采用网络地址 。路径信息采用去往信宿的路径中的下一跳路由器的地址表示。
路由表中的两个特殊表目是特定主机路由和默认路由表目。
路由表的建立和刷新可以采用两种不同 的方式:静态路由和动态路由。
自治系统 是由独立管理机构所管理的一组网络和路由器组成的系统。
路由器自动获取路径信息的两种基本方法是向量—距离算法和链路 —状态算法。
1、向量 — 距离 (Vector-Distance,简称 V—D)算法的基本思想 :路由器周期性地向与它相邻的路由器广播路径刷新报文,报文的主要内容是一组从本路由器出发去往信宿网络的最短距离,在报文中一般用(V,D)序偶表示,这里的 V 代表向量,标识从该路由器可以到达的信宿 (网络或主机 ),D 代表距离,指出从该路由器去往信宿 V 的距离, 距离 D 按照去往信宿的跳数计。 各个路由器根据收到的 (V ,D)报文,按照最短路径优先原则对各自的路由表进行刷新。
向量 —距离算法的优点是简单,易于实现。
缺点是收敛速度慢和信息交换量较大。
2、链路 — 状态 (Link-Status,简称 L-S)算法的基本思想 :系统中的每个路由器通过从其他路由器获得的信息,构造出当前网络的拓扑结构,根据这一拓扑结构,并利用 Dijkstra 算法形成一棵以本路由器为根的最短路径优先树, 由于这棵树反映了从本节点出发去往各路由节点的最短路径, 所以本节点就可以根据这棵最短路径优先树形成路由表。
动态路由所使用的路由协议包括用于自治系统内部的 内部网关协 议和用于自治系统之间的外部网关协议。
RIP协议在基本的向量 —距离算法的基础上 ,增加了对路由环路、相同距离路径、失效路径以及慢收敛问题的处理。 RIP 协议以路径上的跳数作为该路径的距离。 RIP 规定,一条有效路径的距离不能超过
RIP不适合大型网络。
RIP报文被封装在 UDP 数据报中传输。RIP使用 UDP 的 520 端口号。
3、RIP 协议的三个要点
仅和相邻路由器交换信息。
交换的信息是当前本路由器所知道的全部信息,即自己的路由表。
按固定的时间间隔交换路由信息,例如,每隔30秒。
4、RIP 协议的优缺点
RIP 存在的一个问题是当网络出现故障时,要经过比较长的时间才能将此信息传送到所有的路由器。
RIP 协议最大的优点就是实现简单,开销较小。
RIP 限制了网络的规模,它能使用的最大距离为15(16表示不可达)。
路由器之间交换的路由信息是路由器中的完整路由表,因而随着网络规模的扩大,开销也就增加。
5、为了防止计数到无穷问题,可以采用以下三种技术。
1)水平 分割 法(Split Horizon) 水平分割法的基本思想:路由器从某个接口接收到的更新信息不允许再从这个接口发回去。在图 7-9 所示的例子中, R2 向 R1 发送 V-D 报文时,不能包含经过 R1 去往 NET1的路径。因为这一信息本身就是 R1 所产生的。
2) 保持法 (Hold Down) 保持法要求路由器在得知某网络不可到达后的一段时间内,保持此信息不变,这段时间称为保持时间,路由器在保持时间内不接受关于此网络的任何可达性信息。
3) 毒性逆转法 (Poison Reverse)毒性逆转法是水平分割法的一种变化。当从某一接口发出信息时,凡是从这一接口进来的信息改变了路由表表项的, V-D 报文中对应这些表目的距离值都设为无穷 (16)。
OSPF 将自治系统进一步划分为区域,每个区域由位于同一自治系统中的一组网络、主机和路由器构成。区域的划分不仅使得广播得到了更好的管理,而且使 OSPF能够支持大规模的网络。
OSPF是一个链路 —状态协议。当网络处于收敛状态时, 每个 OSPF路由器利用 Dijkstra 算法为每个网络和路由器计算最短路径,形成一棵以本路由器为根的最短路径优先 (SPF)树,并根据最短路径优先树构造路由表。
OSPF直接使用 IP。在IP首部的协议字段, OSPF协议的值为 89。
BGP 是采用路径 —向量算法的外部网关协议 , BGP 支持基于策略的路由,路由选择策略与政治、经济或安全等因素有关。
BGP 报文分为打开、更新、保持活动和通告 4 类。BGP 报文被封装在 TCP 段中传输,使用TCP的179 号端口 。
第八章 传输层协议
传输层承上启下,屏蔽通信子网的细节,向上提供通用的进程通信服务。传输层是对网络层的加强与弥补。 TCP 和 UDP 是传输层 的两大协议。
端口分配有两种基本的方式:全局端口分配和本地端口分配。
在因特网中采用一个 三元组 (协议,主机地址,端口号)来全局惟一地标识一个进程。用一个五元组(协议 ,本地主机地址 ,本地端口号 ,远地主机地址 ,远地端口号)来描述两个进程的关联。
TCP 和 UDP 都是提供进程通信能力的传输层协议。它们各有一套端口号,两套端口号相互独立,都是从0到 65535。
TCP 和 UDP 在计算校验和时引入伪首部的目的是为了能够验证数据是否传送到了正确的信宿端。
为了实现数据的可靠传输, TCP 在应用进程间 建立传输连接 。TCP 在建立连接时采用 三次握手方法解决重复连接的问题。在拆除连接时采用 四次握手 方法解决数据丢失问题。
建立连接前,服务器端首先被动打开其熟知的端口,对端口进行监听。当客户端要和服务器建立连接时,发出一个主动打开端口的请求,客户端一般使用临时端口。
TCP 采用的最基本的可靠性技术 包括流量控制、拥塞控制和差错控制。
TCP 采用 滑动窗口协议 实现流量控制,滑动窗口协议通过发送方窗口和接收方窗口的配合来完成传输控制。
TCP 的 拥塞控制 利用发送方的窗口来控制注入网络的数据流的速度。发送窗口的大小取通告窗口和拥塞窗口中小的一个。
TCP通过差错控制解决 数据的毁坏、重复、失序和丢失等问题。
UDP 在 IP 协议上增加了进程通信能力。此外 UDP 通过可选的校验和提供简单的差错控制。但UDP不提供流量控制和数据报确认 。
1、传输层( Transport Layer)的任务 是向用户提供可靠的、透明的端到端的数据传输,以及差错控制和流量控制机制。
2 “传输层提供应用进程间的逻辑通信 ”。“逻辑通信 ”的意思是:传输层之间的通信好像是沿水平方向传送数据。但事实上这两个传输层之间并没有一条水平方向的物理连接。
TCP 提供的可靠传输服务有如下五个特征 :
面向数据流 ; 虚电路连接 ; 有缓冲的传输 ; 无结构的数据流 ; 全双工连接 .
3、TCP 采用一种名为 “带重传功能的肯定确认 ( positive acknowledge with retransmission ) ”的技术作为提供可靠数据传输服务的基础。
第九章 域名系统
字符型的名字系统为用户提供了非常直观、便于理解和记忆的方法,非常符合用户的命名习惯。
因特网采用层次型命名机制 ,层次型命名机制将名字空间分成若干子空间,每个机构负责一个子空间的管理。 授权管理机构可以将其管理的子名字空间进一步划分, 授权给下一级机构管理。名字空间呈一种树形结构。
域名由圆点 “.”分开的标号序列构成 。若域名包含从树叶到树根的完整标号串并以圆点结束,则称该域名为完全合格域名FQDN。
常用的三块顶级域名 为通用顶级域名、国家代码顶级域名和反向域的顶级域名。
TCP/IP 的域名系统是一个有效的、可靠的、通用的、分布式的名字 —地址映射系统。区域是 DNS 服务器的管理单元,通常是指一个 DNS 服务器所管理的名字空间 。区域和域是不同的概念,域是一个完整的子树,而区域可以是子树中的任何一部分。
名字服务器的三种主要类型是 主名字服务器、次名字服务器和惟高速缓存名字服务器。主名字服务器拥有一个区域文件的原始版本,次名字服务器从主名字服务器那里获得区域文件的拷贝,次名字服务器通过区域传输同主名字服务器保持同步。
DNS 服务器和客户端属于 TCP/IP 模型的应用层, DNS 既可以使用 UDP,也可以使用 TCP 来进行通信。 DNS 服务器使用 UDP 和 TCP 的 53 号熟知端口。
DNS 服务器能够使用两种类型的解析: 递归解析和反复解析 。
DNS 响应报文中的回答部分、授权部分和附加信息部分由资源记录构成,资源记录存放在名字服务器的数据库中。
顶级域 cn 次级域 e.cn 子域 njust.e.cn 主机 sery.njust.e.cn
TFTP :普通文件传送协议( Trivial File Transfer Protocol )
RIP: 路由信息协议 (Routing Information Protocol)
OSPF 开放最短路径优先 (Open Shortest Path First)协议。
EGP 外部网关协议 (Exterior Gateway Protocol)
BGP 边界网关协议 (Border Gateway Protocol)
DHCP 动态主机配置协议( Dynamic Host Configuration Protocol)
Telnet工作原理 : 远程主机连接服务
FTP 文件传输工作原理 File Transfer Protocol
SMTP 邮件传输模型 Simple Message Transfer Protocol
HTTP 工作原理
❸ 请问什么是缓存一级和二级有什么区别
由于CPU的运算速度愈来愈快,主存储器(DRAM)的数据存取速度常无法跟上CPU的速度,因而影响计算机的执行效率,如果在CPU与主存储器之间,使用速度最快之SRAM来作为CPU的数据快取区,将可大幅提升系统的执行效率,而且透过Cache来事先读取CPU可能需要的数据,可避免主存储器与速度更慢的辅助内存的频繁存取数据,对系统的执行效率也大有帮助。
不过因SRAM比DRAM贵太多,如果主存储器全采用SRAM则系统造价太高,所以一般皆只安装512KB~1MB的Cache。Cache的应用除了加在CPU与主存储器之间外,硬盘、打印机、CD-ROM等外围设备也都会加上Cache来提升该设备的数据存取效率。
按照数据读取顺序和与CPU结合的紧密程度,CPU缓存可以分为一级缓存,二级缓存,部分高端CPU还具有三级缓存,每一级缓存中所储存的全部数据都是下一级缓存的一部分,这三种缓存的技术难度和制造成本是相对递减的,所以其容量也是相对递增的。当CPU要读取一个数据时,首先从一级缓存中查找,如果没有找到再从二级缓存中查找,如果还是没有就从三级缓存或内存中查找。一般来说,每级缓存的命中率大概都在80%左右,也就是说全部数据量的80%都可以在一级缓存中找到,只剩下20%的总数据量才需要从二级缓存、三级缓存或内存中读取,由此可见一级缓存是整个CPU缓存架构中最为重要的部分。
一级缓存(Level 1 Cache)简称L1 Cache,位于CPU内核的旁边,是与CPU结合最为紧密的CPU缓存,也是历史上最早出现的CPU缓存。由于一级缓存的技术难度和制造成本最高,提高容量所带来的技术难度增加和成本增加非常大,所带来的性能提升却不明显,性价比很低,而且现有的一级缓存的命中率已经很高,所以一级缓存是所有缓存中容量最小的,比二级缓存要小得多。
一般来说,一级缓存可以分为一级数据缓存(Data Cache,D-Cache)和一级指令缓存(Instruction Cache,I-Cache)。二者分别用来存放数据以及对执行这些数据的指令进行即时解码,而且两者可以同时被CPU访问,减少了争用Cache所造成的冲突,提高了处理器效能。目前大多数CPU的一级数据缓存和一级指令缓存具有相同的容量,例如AMD的Athlon XP就具有64KB的一级数据缓存和64KB的一级指令缓存,其一级缓存就以64KB+64KB来表示,其余的CPU的一级缓存表示方法以此类推。
❹ 局域网dns服务器有什么用
局域网dns服务器解析内网主机特别快,并且不需要上互联网。另外,如果内网向外作了域名查询,局域网dns服务器就能保存在缓存中,当内网再有相同的域名查询时,就能立即响应。
局域网内dns服务器还有另一种应用就是惟高速缓存服务器,它没有正向区和反向区,它只转发并仅对客户端提供缓存。目的只有一个就是提高查询速度。
❺ CPU缓存的工作原理
CPU要读取一个数据时,首先从Cache中查找,如果找到就立即读取并送给CPU处理;如果没有找到,就用相对慢的速度从内存中读取并送给CPU处理,同时把这个数据所在的数据块调入Cache中,可以使得以后对整块数据的读取都从Cache中进行,不必再调用内存。
正是这样的读取机制使CPU读取Cache的命中率非常高(大多数CPU可达90%左右),也就是说CPU下一次要读取的数据90%都在Cache中,只有大约10%需要从内存读取。这大大节省了CPU直接读取内存的时间,也使CPU读取数据时基本无需等待。总的来说,CPU读取数据的顺序是先Cache后内存。 前面是把Cache作为一个整体来考虑的,下面分类分析。Intel从Pentium开始将Cache分开,通常分为一级高速缓存L1和二级高速缓存L2。在以往的观念中,L1 Cache是集成在CPU中的,被称为片内Cache。在L1中还分数据Cache(D-Cache)和指令Cache(I-Cache)。它们分别用来存放数据和执行这些数据的指令,而且两个Cache可以同时被CPU访问,减少了争用Cache所造成的冲突,提高了处理器效能。
在P4处理器中使用了一种先进的一级指令Cache——动态跟踪缓存。它直接和执行单元及动态跟踪引擎相连,通过动态跟踪引擎可以很快地找到所执行的指令,并且将指令的顺序存储在追踪缓存里,这样就减少了主执行循环的解码周期,提高了处理器的运算效率。
以前的L2 Cache没集成在CPU中,而在主板上或与CPU集成在同一块电路板上,因此也被称为片外Cache。但从PⅢ开始,由于工艺的提高L2 Cache被集成在CPU内核中,以相同于主频的速度工作,结束了L2 Cache与CPU大差距分频的历史,使L2 Cache与L1 Cache在性能上平等,得到更高的传输速度。L2Cache只存储数据,因此不分数据Cache和指令Cache。在CPU核心不变化的情况下,增加L2 Cache的容量能使性能提升,同一核心的CPU高低端之分往往也是在L2 Cache上做手脚,可见L2 Cache的重要性。CPU的L1 Cache与L2 Cache惟一区别在于读取顺序。 CPU在Cache中找到有用的数据被称为命中,当Cache中没有CPU所需的数据时(这时称为未命中),CPU才访问内存。从理论上讲,在一颗拥有2级Cache的CPU中,读取L1 Cache的命中率为80%。也就是说CPU从L1 Cache中找到的有用数据占数据总量的80%,剩下的20%从L2 Cache读取。在一些高端领域的CPU(像Intel的Itanium)中,我们常听到L3 Cache,它是为读取L2 Cache后未命中的数据设计的—种Cache。
为了保证CPU访问时有较高的命中率Cache中的内容应该按一定的算法替换,其计数器清零过程可以把一些频繁调用后再不需要的数据淘汰出Cache,提高Cache的利用率。缓存技术的发展
总之,在传输速度有较大差异的设备间都可以利用Cache作为匹配来调节差距,或者说是这些设备的传输通道。在显示系统、硬盘和光驱,以及网络通讯中,都需要使用Cache技术。但Cache均由静态RAM组成,结构复杂,成本不菲,使用现有工艺在有限的面积内不可能做得很大,不过,这也正是技术前进的源动力,有需要才有进步! 随着CPU制造工艺的发展,二级缓存也能轻易的集成在CPU内核中,容量也在逐年提升。用集成在CPU内部与否来定义一、二级缓存,已不确切。而且随着二级缓存被集成入CPU内核中,以往二级缓存与CPU大差距分频的情况也被改变,此时其以相同于主频的速度工作,可以为CPU提供更高的传输速度。同一核心的CPU高低端之分往往也是在二级缓存上有差异,由此可见二级缓存对于CPU的重要性。
CPU产品中,一级缓存的容量基本在4KB到64KB之间,二级缓存的容量则分为128KB、256KB、512KB、1MB、2MB等。一级缓存容量各产品之间相差不大,而二级缓存容量则是提高CPU性能的关键。二级缓存容量的提升是由CPU制造工艺所决定的,容量增大必然导致CPU内部晶体管数的增加,要在有限的CPU面积上集成更大的缓存,对制造工艺的要求也就越高。
双核心CPU的二级缓存比较特殊,和以前的单核心CPU相比,最重要的就是两个内核的缓存所保存的数据要保持一致,否则就会出现错误,为了解决这个问题不同的CPU使用了不同的办法。
❻ 大家谁知道合肥电信DNS服务器是多少
合肥电信
DNS:202.102.192.68
备用DNS:202.102.199.68
DNS:DNS(Domain Name System,域名系统),因特网上作为域名和IP地址相互映射的一个分布式数据库,能够使用户更方便的访问互联网,而不用去记住能够被机器直接读取的IP数串。通过主机名,最终得到该主机名对应的IP地址的过程叫做域名解析(或主机名解析)。
❼ 服务器运算能力如何计算,或者说CPU的运算能力如何计算
中央处理器运算能力是用字长来区分的。
中央处理器是电脑的心脏,由运算器和控制器组成,内部结构分为控制器、运算器和存储器,这三个部分相互协调,可以进行判断、运算和并控制电脑各部分协调工作。
目前流行的中央处理器为英特尔酷睿中央处理器,分为双核、四核和八核。双核中央处理器是基于单个半导体的一个处理器上拥有两个一样功能的处理器核心。
衡量中央处理器的指标是字长,字长是电脑能直接处理的二进制数据的位数,标志着电脑处理数据的能力,字长决定了电脑运算的能力和精度,字长越长,电脑的运算能力越强,精度越高,有效数据的存储单元数越多,寻找地址的能力越强。现在个人电脑的字长分为十六位、三十二位和六十四位。
可以进行高速数据交换的存储器叫做缓存,也叫高速缓存。中央处理器一般会从缓存读取数据,中央处理器没有数据时才会向内存调用数据。缓存容量越大,中央处理器的性能越好。中央处理器的缓存分为一级缓存和二级缓存。酷睿处理器中,四个核心的内存控制器和缓存都在单一的芯片上面。
❽ Cache的的工作原理是什么
CACHE 快取
CACHE是一种加速内存或磁盘存取的装置,可将慢速磁盘上的数据拷贝至快速的磁盘进行读写动作,以提升系统响应的速度。
其运作原理在于使用较快速的储存装置保留一份从慢速储存装置中所读取数据且进行拷贝,当有需要再从较慢的储存体中读写数据时,CACHE能够使得读写的动作先在快速的装置上完成,如此会使系统的响应较为快速。
举例来说,存取内存 (RAM) 的速度较磁盘驱动器快非常多,所以我们可以将一部份的主存储器保留当成磁盘CACHE,每当有磁盘读取的需求时就把刚读取的数据拷贝一份放在CACHE内存中,如果系统继续要求读取或写入同一份数据或同一扇区 (sector) 时,系统可以直接从内存中的CACHE部分作读写的动作,这样系统对磁盘的存取速度感觉上会快许多。
同样的,静态内存 (SRAM) 比动态内存 (DRAM) 的读写速度快,使用些静态内存作为动态内存的CACHE,也可以提升读写的效率。
内存不全部使用SRAM取代DRAM 的原因,是因为SRAM的成本较DRAM高出许多。
使用CACHE的问题是写入CACHE中的数据如果不立即写回真正的储存体,一但电源中断或其它意外会导致数据流失;但若因而每次都将数据写写回真正的储存体,又将会使得CACHE只能发挥加速读取的功能,而不能加速写入的速度,这样的状况使得CACHE写入的方式分为两类:
1. Write-Through: 每次遇到写入时就将数据写入真正的储存体。
2. Write-Back: 遇到写入时不一定回写,只纪录在CACHE内,并将该份数据标示为已更改(dirty),等系统有空或等到一定的时间后再将数据写回真正的储存体,这种做法是承担一点风险来换取效率。
由于很多时候系统不只有重复读写同一块区域,使用两组各自独立的CACHE效能通常比只使用一组较佳,这称为 2-Ways Associate,同样的,使用四组CACHE则称为4ways Associate,但更多组的CACHE会使得算法相对的复杂许多。
CACHE的效能依算法的使用而有好坏之分,估量的单位通常使用命中率 (hits),命中率较高者较佳。
新式的CPU上也有内建的CACHE,称为 LEVEL 1 (L1) 快取, 由于与 CPU 同频率运作,能比在主机板上的 LEVEL 2 (L2) CACHE提供更快速的存取效能。