服务器缓存机制
MySQL缓存机制简单的说就是缓存sql文本及查询结果,如果运行相同的sql,服务器直接从缓存中取到结果,而不需要再去解析和执行sql。如果表更改 了,那么使用这个表的所有缓冲查询将不再有效,查询缓存值的相关条目被清空。更改指的是表中任何数据或是结构的改变,包括INSERT、UPDATE、 DELETE、TRUNCATE、ALTER TABLE、DROP TABLE或DROP DATABASE等,也包括那些映射到改变了的表的使用MERGE表的查询。显然,这对于频繁更新的表,查询缓存是不适合的,而对于一些不常改变数据且有 大量相同sql查询的表,查询缓存会节约很大的性能。
命中条件
缓存存在一个hash表中,通过查询SQL,查询数据库,客户端协议等作为key.在判断是否命中前,MySQL不会解析SQL,而是直接使用SQL去查询缓存,SQL任何字符上的不同,如空格,注释,都会导致缓存不命中.
如果查询中有不确定数据,例如CURRENT_DATE()和NOW()函数,那么查询完毕后则不会被缓存.所以,包含不确定数据的查询是肯定不会找到可用缓存的
工作流程
1. 服务器接收SQL,以SQL和一些其他条件为key查找缓存表(额外性能消耗)
2. 如果找到了缓存,则直接返回缓存(性能提升)
3. 如果没有找到缓存,则执行SQL查询,包括原来的SQL解析,优化等.
4. 执行完SQL查询结果以后,将SQL查询结果存入缓存表(额外性能消耗)
缓存失效
当某个表正在写入数据,则这个表的缓存(命中检查,缓存写入等)将会处于失效状态.在Innodb中,如果某个事务修改了表,则这个表的缓存在事务提交前都会处于失效状态,在这个事务提交前,这个表的相关查询都无法被缓存.
缓存的内存管理
缓存会在内存中开辟一块内存(query_cache_size)来维护缓存数据,其中有大概40K的空间是用来维护缓存的元数据的,例如空间内存,数据表和查询结果的映射,SQL和查询结果的映射等.
MySQL将这个大内存块分为小的内存块(query_cache_min_res_unit),每个小块中存储自身的类型,大小和查询结果数据,还有指向前后内存块的指针.
MySQL需要设置单个小存储块的大小,在SQL查询开始(还未得到结果)时就去申请一块空间,所以即使你的缓存数据没有达到这个大小,也需要用这个大小的数据块去存(这点跟Linux文件系统的Block一样).如果结果超出这个内存块的大小,则需要再去申请一个内存块.当查询完成发现申请的内存块有富余,则会将富余的空间释放掉,这就会造成内存碎片问题,见下图
此处查询1和查询2之间的空白部分就是内存碎片,这部分空闲内存是有查询1查询完以后释放的,假设这个空间大小小于MySQL设定的内存块大小,则无法再被使用,造成碎片问题
在查询开始时申请分配内存Block需要锁住整个空闲内存区,所以分配内存块是非常消耗资源的.注意这里所说的分配内存是在MySQL初始化时就开辟的那块内存上分配的.
缓存的使用时机
衡量打开缓存是否对系统有性能提升是一个很难的话题
1. 通过缓存命中率判断, 缓存命中率 = 缓存命中次数 (Qcache_hits) / 查询次数 (Com_select)
2. 通过缓存写入率, 写入率 = 缓存写入次数 (Qcache_inserts) / 查询次数 (Qcache_inserts)
3. 通过 命中-写入率 判断, 比率 = 命中次数 (Qcache_hits) / 写入次数 (Qcache_inserts), 高性能MySQL中称之为比较能反映性能提升的指数,一般来说达到3:1则算是查询缓存有效,而最好能够达到10:1
缓存配置参数
1. query_cache_type: 是否打开缓存
可选项
1) OFF: 关闭
2) ON: 总是打开
3) DEMAND: 只有明确写了SQL_CACHE的查询才会吸入缓存
2. query_cache_size: 缓存使用的总内存空间大小,单位是字节,这个值必须是1024的整数倍,否则MySQL实际分配可能跟这个数值不同(感觉这个应该跟文件系统的blcok大小有关)
3. query_cache_min_res_unit: 分配内存块时的最小单位大小
4. query_cache_limit: MySQL能够缓存的最大结果,如果超出,则增加 Qcache_not_cached的值,并删除查询结果
5. query_cache_wlock_invalidate: 如果某个数据表被锁住,是否仍然从缓存中返回数据,默认是OFF,表示仍然可以返回
GLOBAL STAUS 中 关于 缓存的参数解释:
Qcache_free_blocks: 缓存池中空闲块的个数
Qcache_free_memory: 缓存中空闲内存量
Qcache_hits: 缓存命中次数
Qcache_inserts: 缓存写入次数
Qcache_lowmen_prunes: 因内存不足删除缓存次数
Qcache_not_cached: 查询未被缓存次数,例如查询结果超出缓存块大小,查询中包含可变函数等
Qcache_queries_in_cache: 当前缓存中缓存的SQL数量
Qcache_total_blocks: 缓存总block数
减少碎片策略
1. 选择合适的block大小
2. 使用 FLUSH QUERY CACHE 命令整理碎片.这个命令在整理缓存期间,会导致其他连接无法使用查询缓存
PS: 清空缓存的命令式 RESET QUERY CACHE
❷ 数据库缓存机制是什么缓存是如何作用数据库
我们都知道 MySQL 的 Table Cache 是表定义的缓存,江湖上流传着各种对这个参数的调优方法。
table cache 的作用,就是节约读取表结构文件的开销。对于table cache 是否命中,其实table cache 是针对于线程的,每个线程有自己的缓存,只缓存本线程的表结构定义。不过我们发现,strace 中没有关于表结构文件的 open 操作(只有 stat 操作,定位表结构文件是否存在),也就是说 table cache 不命中,不一定需要读取表结构文件。这种感觉好像是:在不命中 table cache 时,命中了另外一个表结构缓存。
运维建议:
我们读一下 MySQL 的文档,关于 table_open_cache 的建议值公式:建议值 = 最大并发数 * join 语句涉及的表的最大个数。
通过实验我们容易理解:table_cache 是针对于线程的,所以需要最大并发数个缓存。另外,一个语句 join 涉及的表,需要同时在缓存中存在。所以最小的缓存大小,等于语句 join 涉及的表的最大个数。将这两个数相乘,就得到了 MySQL 的建议值公式。
❸ 什么叫缓存
所谓的缓存,就是将程序或系统经常要调用的对象存在内存中,一遍其使用时可以快速调用,不必再去创建新的重复的实例。这样做可以减少系统开销,提高系统效率。
1、通过文件缓存;顾名思义文件缓存是指把数据存储在磁盘上,不管你是以XML格式,序列化文件DAT格式还是其它文件格式;
2、内存缓存;也就是创建一个静态内存区域,将数据存储进去,例如我们B/S架构的将数据存储在Application中或者存储在一个静态Map中。
3、本地内存缓存;就是把数据缓存在本机的内存中。
4、分布式缓存机制;可能存在跨进程,跨域访问缓存数据
对于分布式的缓存,此时因为缓存的数据是放在缓存服务器中的,或者说,此时应用程序需要跨进程的去访问分布式缓存服务器。
(3)服务器缓存机制扩展阅读
当我们在应用中使用跨进程的缓存机制,例如分布式缓存memcached或者微软的AppFabric,此时数据被缓存在应用程序之外的进程中。
每次,当我们要把一些数据缓存起来的时候,缓存的API就会把数据首先序列化为字节的形式,然后把这些字节发送给缓存服务器去保存。
同理,当我们在应用中要再次使用缓存的数据的时候,缓存服务器就会将缓存的字节发送给应用程序,而缓存的客户端类库接受到这些字节之后就要进行反序列化的操作了,将之转换为我们需要的数据对象。
❹ php的缓存机制有哪些
主要有:
①普遍缓存技术②页面缓存③时间触发缓存④内容触发缓存⑤静态缓存(就生成html文件)
⑥内存缓存⑦php的缓冲器⑧MYSQL缓存⑨基于反向代理的Web缓存,DNS轮询
但是一般常用的就 ①②④,其他的是网站数据量大,交互多,为减小服务器压力才用到
参考资料:http://blog.163.com/yuzhongfeiyan338@126/blog/static/38688323200981604944905/
❺ haproxy dns缓存机制
haproxy dns缓存机制如下:
1.Haproxy支持http反向代理。
2.aproxy支持动态程序的反向代理。
3.Haproxy支持基于数据库的反向代理。
HAProxy是法国人Willy Tarreau开发的一款可应对客户端10000以上的同时连接的高性能的TCP和HTTP负载均衡器。由于其丰富强大的功能在国内备受推崇,是目前主流的负载均衡器。Haproxy是一个开源的高性能的反向代理或者说是负载均衡服务软件之一,它支持双机热备、虚拟主机、基于TCP和HTTP应用代理等功能。其配置简单,而且拥有很好的对服务器节点的健康检查功能(相当于keepalived健康检查),当其代理的后端服务器出现故障时,Haproxy会自动的将该故障服务器摘除,当服务器的故障恢复后haproxy还会自动重新添加回服务器主机。
Haproxy实现了一种事件驱动、单一进程模型,此模型支持非常大的并发连接数。多进程或多线程模型受内存限制、系统调度器限制以及无处不在的锁限制,很少能处理数千并发连接。事件驱动模型因为在有更好的资源和时间管理的用户空间(User-Space)实现所有这些任务,所以没有这些问题。此模型的弊端是,在多核系统上,这些程序通常扩展性较差。这就是为什么必须对其进行优化以使每个CPU时间片(Cycle)做更多的工作。
Haproxy特别适用于那些负载特大的web站点,这些站点通常又需要会话保持或七层处理。haproxy运行在当前的硬件上,完全可以支持数以万计的并发连接。并且它的运行模式使得它可以很简单安全的整合进当前架构中,同时可以保护web服务器不被暴露到网络上。
Haproxy软件引入了frontend,backend的功能,frontend(acl规则匹配)可以根据任意HTTP请求头做规则匹配,然后把请求定向到相关的backend(server pools等待前端把请求转过来的服务器组)。通过frontend和backend,可以很容易的实现Haproxy的7层负载均衡代理功能。
Haproxy是一种高效、可靠、免费的高可用及负载均衡解决方案,非常适合于高负载站点的七层数据请求。客户端通过Haproxy代理服务器获得站点页面,而代理服务器收到客户请求后根据负载均衡的规则将请求数据转发给后端真实服务器。
同一客户端访问服务器,Haproxy保持回话的三种方案:
1) Haproxy将客户端ip进行Hash计算并保存,由此确保相同IP访问时被转发到同一真实服务器上。
2) Haproxy依靠真实服务器发送给客户端的cookie信息进行回话保持。
3) Haproxy保存真实服务器的session及服务器标识,实现会话保持功能。
❻ 联网缓存是什么情况
CPU缓存是介于CPU和内存之间的临时内存。它的容量比内存小,但交换速度快。缓存中的数据是内存的一小部分,但这一小部分会在短时间内被CPU访问。当CPU调用大量数据时,可以避开内存,直接从缓存中调用,从而加快读取速度。可以看出,给CPU增加缓存是一种高效的解决方案,这样整个内存(cache memory)就变成了一个高速存储系统,既有缓存又有内存。缓存对CPU的性能影响很大,主要是CPU的数据交换顺序和CPU与缓存之间的带宽造成的。缓存是为了解决CPU速度和内存速度的速度差。将内存中CPU最频繁访问的数据和指令复制到CPU中的缓存中,这样CPU就可以不像“蜗牛”那样频繁的从内存中取数据,CPU只需要从缓存中取,比内存快很多。这里,需要指出的是:1。因为缓存只是内存中少量数据的副本,所以CPU在缓存中查找数据时,会出现找不到的情况(因为这些数据还没有从内存中复制到缓存中)。这个时候CPU还是会在内存中搜索数据,这样系统的速度会变慢,但是CPU会把这些数据复制到缓存中,以免下次再从内存中取回来。2.因为随着时间的变化,最频繁访问的数据并不是一成不变的,也就是说,刚才不频繁访问的数据此时已经需要频繁访问了,但刚才是最频繁访问的数据,现在是不频繁访问的,所以要按照一定的算法频繁替换缓存中的数据,这样才能保证缓存中的数据是最频繁访问的数据。缓存的工作原理【编辑本段】缓存的工作原理是,当CPU要读取一条数据时,先从缓存中查找,如果找到,立即读取并发送给CPU处理;如果没有找到,则以相对较慢的速度从内存中读取,并发送给CPU进行处理。同时将这个数据所在的数据块转移到缓存中,这样以后就可以从缓存中读取整个数据,而不需要调用内存。正是这种读取机制,使得CPU读取缓存的命中率非常高(大部分CPU可以达到90%左右),也就是说,CPU下次读取的数据有90%在缓存中,只有10%左右需要从内存中读取。这大大节省了CPU直接读取内存的时间,也使得CPU在读取数据时基本上不需要等待。一般来说,CPU读取数据的顺序是先缓存后内存。一级缓存和二级缓存【编辑本段】为了区分这两个概念,我们先来看看RAM。相对于RAM,RAM是断电后信息消失的那种,ROM断电后不会消失。RAM有两种,一种是静态RAM和SRAM。一个是动态RAM和DRAM。前者的存储速度比后者快很多,我们现在用的内存一般都是动态RAM。有菜鸟说,为了提高系统速度,就不能直接扩展缓存吗?扩展越大,缓存的数据就越多,系统就越快?缓存通常是静态RAM,速度很快,但是静态RAM的集成度低(存储同样的数据,静态RAM的体积是动态RAM的6倍),价格高(同样容量的静态RAM是动态RAM的4倍),所以可以看出扩展静态RAM作为缓存是一个非常愚蠢的行为,但是为了提高系统的性能和速度,就必须扩展缓存。这样,就有了一个折中的方法。不是扩展原有的静态ram缓存,而是增加一些高速动态RAM作为缓存。这些高速动态RAM比传统的动态RAM快,但比原来的静态RAM缓存慢。我们把原来的静态RAM缓存称为一级缓存,后面增加的动态RAM称为二级缓存。一级缓存和二级缓存的内容是内存中频繁访问的数据的副本(映射),它们的存在是为了减少高速CPU对慢速内存的访问。通常CPU找数据或指令的顺序是:先在一级缓存里找,找不到就在二级缓存里找,找不到就要在内存里找。缓存技术的发展【编辑本段】最早的CPU缓存是一个整体,容量很低。英特尔公司从奔腾时代就开始对高速缓存进行分类。当时集成在CPU内核中的缓存还不足以满足CPU的需求,制造工艺的限制也无法大幅提升缓存容量。因此,出现了与CPU集成在同一电路板或主板上的缓存。此时CPU内核集成的缓存称为一级缓存,外部缓存称为二级缓存。一级缓存包括数据缓存(D-Cache)和指令缓存(I-Cache)。它们分别用于存储数据和执行这些数据的指令,同时可以被CPU访问,减少了因争用缓存而产生的冲突,提高了处理器效率。当英特尔推出奔腾4处理器时,它用容量为12KμOps的新一级跟踪高速缓存取代了指令高速缓存,这意味着它可以存储12K微指令。随着CPU制造技术的发展,L2缓存可以很容易地集成在CPU内核中,其容量也在逐年增加。现在用是否集成到CPU来定义一级和二级缓存是不准确的。而且,随着L2缓存整合到CPU内核中,以前L2缓存和CPU大差距分频的情况也改变了。此时与主频同速工作,可以为CPU提供更高的传输速度。L2缓存是CPU性能的关键之一。增加L2缓存容量可以在不改变CPU内核的情况下大幅提高性能。而同一个核的高端和低端CPU的区别往往在L2缓存,可见L2缓存对CPU的重要性。当CPU在缓存中找到有用的数据时,称为命中。当缓存中没有CPU需要的数据时(这称为未命中),CPU会访问内存。理论上,在一个有L2缓存的CPU中,读取L1缓存的命中率是80%。也就是说,在CPU的一级缓存中找到的有用数据占总数据的80%,剩下的20%是从二级缓存中读取的。由于无法准确预测要执行的数据,读取L2缓存的命中率在80%左右(从L2缓存读取的有用数据占总数据的16%)。然后其他的数据都要从内存中调用,但这已经是相当小的比例了。目前更高端的CPU也会有三级缓存,是为读取二级缓存后遗漏的数据而设计的。在三级缓存的CPU中,只需要从内存中调用5%左右的数据,进一步提高了CPU的效率。为了保证CPU访问时的高命中率,缓存中的内容要用一定的算法进行替换。一种常用的算法是“最近最少使用算法”(LRU算法),这是为了消除最近最少访问的行。因此,有必要为每一行设置一个计数器。LRU算法是将命中行的计数器重置为零,并将其他行的计数器加1。当需要替换时,消除行计数器的计数值最大的数据行被消除。这是一种高效科学的算法,其计数器清零过程可以从缓存中清除一些频繁调用后不再需要的数据,提高缓存的利用率。在CPU产品中,一级缓存的容量基本在4KB到64KB之间,二级缓存的容量分为128KB、256KB、512KB、1MB、2MB、4MB等。一级缓存容量和二级缓存容量差别不大是提升CPU性能的关键。L2缓存容量的增加是由CPU的制造工艺决定的,容量的增加必然导致CPU中晶体管数量的增加。要在有限的CPU面积上集成更大的缓存,对制造工艺的要求会更高。目前主流的CPU L2缓存在2MB左右,其中Intel公司在2007年陆续推出了台式机用4MB和6MB L2缓存的高性能CPU,但价格相对较高。对于配置没有太高要求的朋友,一般双核CPU配2MB L2缓存基本可以满足日常上网需求。
嗯,怎么说呢?很抽象...比如我和你之间的一个小仓库,你给了我一批5吨的货物,叫我去取,但是我的车一次只能拖3吨,所以你可以把5吨的货物全部放进仓库,我花两次时间去搬,这样可以节省你的时间...让我们专业点...以新浪为例...第一次访问新浪对我来说有点慢。现在新浪的主页已经完全开放了。好的,我会做的。网页关闭了…然后我这个时候打开新浪,完全打开了。不知道大家平时有没有注意到,没有这个东西,就是第一次访问缓存的时候,网页上的一些信息,比如flash图片和文字,是下载到你的电脑上,也就是你的缓存里的。这个缓存可以设置大小…当缓存满了,你可以把文件放入其中,并在缓存中保持最长的时间。挤出上面的——下载一些资料到自己电脑的缓存里,然后你访问网页电脑。这时候他不是先找这个站点能不能连接到这个站点,而是说他先去缓存里找一下,有没有你现在想访问的信息。如果有,他直接从这台电脑上打电话找到并连接到你想访问的网站...这是缓存,不知道你懂不懂...呵呵,不会表达。
缓存大小是CPU的重要指标之一,其结构和大小对CPU速度有很大影响。简单来说,缓存就是用来存储一些常用的或者即将出现的数据或者指令。当需要这些数据或指令时,可以直接从缓存中读取,这比读入内存甚至硬盘要快得多,可以大大提高CPU的处理速度。所谓处理器缓存通常是指L2缓存或外部缓存。即缓存是介于CPU和主存DRAM(动态RAM)之间的一种小规模但高速的存储器,通常由SRAM(静态随机存取存储器)组成。用于存储CPU经常使用的数据,使CPU不必依赖于速度较慢的DRAM(动态随机存取存储器)。L2缓存一直是一种速度极快且价格昂贵的存储器,称为SRAM (static RAM),SRAM(Static RAM)是静态存储器的缩写。因为SRAM采用和CPU一样的半导体工艺,所以和DRAM相比,SRAM的存取速度更快,尺寸更大,价格也更高。处理器缓存的基本思想是用少量的SRAM作为CPU和DRAM存储系统之间的缓冲,即缓存系统。8486及更高级别的微处理器的一个显着特点是在处理器芯片中集成了SRAM作为缓存,由于这些缓存都安装在芯片中,所以称之为片上缓存。86片上缓存的容量通常是8K。奔腾等高档芯片16KB,Power PC可达32KB。奔腾微处理器通过使用数据和双通道高速缓存技术进一步改进了片上高速缓存。相对来说,片上缓存容量小,但是非常灵活方便,大大提高了微处理器的性能。片上缓存也称为一级缓存。由于486、586等高端处理器时钟频率较高,一旦一级缓存未命中,性能会明显变差。在这种情况下,采用的方法是在处理器芯片外部添加缓存,称为L2缓存。L2缓存实际上是CPU和主存之间的真正缓冲区。因为系统板上的响应时间远低于CPU,没有L2缓存是不可能达到486、586等高端处理器的理想速度的。L2缓存的容量通常比L1缓存大一个数量级以上。在系统设置中,用户通常需要确定是否安装了L2缓存及其大小。L2缓存的大小一般为128KB、256KB或512KB。256KB或512KB同步缓存广泛应用于486以上的微机。所谓同步,就是缓存和CPU以相同的时钟周期、相同的速度同步工作。与异步缓存相比,性能可以提高30%以上。目前PC及其服务器系统的发展趋势之一是CPU频率越来越高,系统架构越来越先进,主存DRAM的结构和访问时间提升缓慢。因此,缓存技术越重要,PC系统中的缓存就越大。大多数用户已经把缓存作为评价和购买PC系统的一个重要指标。
❼ php 中如何使用缓存,使用哪种缓存机制最好;
php的缓存三种.有文件缓存,数据库缓存,memcache缓存;
memcache缓存要求对服务器支持,而且它的缓存是由期限的,一般是30天。这种缓存的效率是最高的。读存取的速度最快。
数据库缓存
和
文件缓存比较简单。适用小的项目。和php新手
❽ CPU缓存的工作原理
CPU要读取一个数据时,首先从Cache中查找,如果找到就立即读取并送给CPU处理;如果没有找到,就用相对慢的速度从内存中读取并送给CPU处理,同时把这个数据所在的数据块调入Cache中,可以使得以后对整块数据的读取都从Cache中进行,不必再调用内存。
正是这样的读取机制使CPU读取Cache的命中率非常高(大多数CPU可达90%左右),也就是说CPU下一次要读取的数据90%都在Cache中,只有大约10%需要从内存读取。这大大节省了CPU直接读取内存的时间,也使CPU读取数据时基本无需等待。总的来说,CPU读取数据的顺序是先Cache后内存。 前面是把Cache作为一个整体来考虑的,下面分类分析。Intel从Pentium开始将Cache分开,通常分为一级高速缓存L1和二级高速缓存L2。在以往的观念中,L1 Cache是集成在CPU中的,被称为片内Cache。在L1中还分数据Cache(D-Cache)和指令Cache(I-Cache)。它们分别用来存放数据和执行这些数据的指令,而且两个Cache可以同时被CPU访问,减少了争用Cache所造成的冲突,提高了处理器效能。
在P4处理器中使用了一种先进的一级指令Cache——动态跟踪缓存。它直接和执行单元及动态跟踪引擎相连,通过动态跟踪引擎可以很快地找到所执行的指令,并且将指令的顺序存储在追踪缓存里,这样就减少了主执行循环的解码周期,提高了处理器的运算效率。
以前的L2 Cache没集成在CPU中,而在主板上或与CPU集成在同一块电路板上,因此也被称为片外Cache。但从PⅢ开始,由于工艺的提高L2 Cache被集成在CPU内核中,以相同于主频的速度工作,结束了L2 Cache与CPU大差距分频的历史,使L2 Cache与L1 Cache在性能上平等,得到更高的传输速度。L2Cache只存储数据,因此不分数据Cache和指令Cache。在CPU核心不变化的情况下,增加L2 Cache的容量能使性能提升,同一核心的CPU高低端之分往往也是在L2 Cache上做手脚,可见L2 Cache的重要性。CPU的L1 Cache与L2 Cache惟一区别在于读取顺序。 CPU在Cache中找到有用的数据被称为命中,当Cache中没有CPU所需的数据时(这时称为未命中),CPU才访问内存。从理论上讲,在一颗拥有2级Cache的CPU中,读取L1 Cache的命中率为80%。也就是说CPU从L1 Cache中找到的有用数据占数据总量的80%,剩下的20%从L2 Cache读取。在一些高端领域的CPU(像Intel的Itanium)中,我们常听到L3 Cache,它是为读取L2 Cache后未命中的数据设计的—种Cache。
为了保证CPU访问时有较高的命中率Cache中的内容应该按一定的算法替换,其计数器清零过程可以把一些频繁调用后再不需要的数据淘汰出Cache,提高Cache的利用率。缓存技术的发展
总之,在传输速度有较大差异的设备间都可以利用Cache作为匹配来调节差距,或者说是这些设备的传输通道。在显示系统、硬盘和光驱,以及网络通讯中,都需要使用Cache技术。但Cache均由静态RAM组成,结构复杂,成本不菲,使用现有工艺在有限的面积内不可能做得很大,不过,这也正是技术前进的源动力,有需要才有进步! 随着CPU制造工艺的发展,二级缓存也能轻易的集成在CPU内核中,容量也在逐年提升。用集成在CPU内部与否来定义一、二级缓存,已不确切。而且随着二级缓存被集成入CPU内核中,以往二级缓存与CPU大差距分频的情况也被改变,此时其以相同于主频的速度工作,可以为CPU提供更高的传输速度。同一核心的CPU高低端之分往往也是在二级缓存上有差异,由此可见二级缓存对于CPU的重要性。
CPU产品中,一级缓存的容量基本在4KB到64KB之间,二级缓存的容量则分为128KB、256KB、512KB、1MB、2MB等。一级缓存容量各产品之间相差不大,而二级缓存容量则是提高CPU性能的关键。二级缓存容量的提升是由CPU制造工艺所决定的,容量增大必然导致CPU内部晶体管数的增加,要在有限的CPU面积上集成更大的缓存,对制造工艺的要求也就越高。
双核心CPU的二级缓存比较特殊,和以前的单核心CPU相比,最重要的就是两个内核的缓存所保存的数据要保持一致,否则就会出现错误,为了解决这个问题不同的CPU使用了不同的办法。
❾ 网络中的缓存是什么
CPU缓存(Cache Memory)位于CPU与内存之间的临时存储器,它的容量比内存小但交换速度快。在缓存中的数据是内存中的一小部分,但这一小部分是短时间内CPU即将访问的,当CPU调用大量数据时,就可避开内存直接从缓存中调用,从而加快读取速度。由此可见,在CPU中加入缓存是一种高效的解决方案,这样整个内存储器(缓存+内存)就变成了既有缓存的高速度,又有内存的大容量的存储系统了。缓存对CPU的性能影响很大,主要是因为CPU的数据交换顺序和CPU与缓存间的带宽引起的。
缓存是为了解决CPU速度和内存速度的速度差异问题。内存中被CPU访问最频繁的数据和指令被复制入CPU中的缓存,这样CPU就可以不经常到象“蜗牛”一样慢的内存中去取数据了,CPU只要到缓存中去取就行了,而缓存的速度要比内存快很多。
这里要特别指出的是:
1.因为缓存只是内存中少部分数据的复制品,所以CPU到缓存中寻找数据时,也会出现找不到的情况(因为这些数据没有从内存复制到缓存中去),这时CPU还是会到内存中去找数据,这样系统的速度就慢下来了,不过CPU会把这些数据复制到缓存中去,以便下一次不要再到内存中去取。
2.因为随着时间的变化,被访问得最频繁的数据不是一成不变的,也就是说,刚才还不频繁的数据,此时已经需要被频繁的访问,刚才还是最频繁的数据,现在又不频繁了,所以说缓存中的数据要经常按照一定的算法来更换,这样才能保证缓存中的数据是被访问最频繁的。
缓存的工作原理
[编辑本段]
缓存的工作原理是当CPU要读取一个数据时,首先从缓存中查找,如果找到就立即读取并送给CPU处理;如果没有找到,就用相对慢的速度从内存中读取并送给CPU处理,同时把这个数据所在的数据块调入缓存中,可以使得以后对整块数据的读取都从缓存中进行,不必再调用内存。
正是这样的读取机制使CPU读取缓存的命中率非常高(大多数CPU可达90%左右),也就是说CPU下一次要读取的数据90%都在缓存中,只有大约10%需要从内存读取。这大大节省了CPU直接读取内存的时间,也使CPU读取数据时基本无需等待。总的来说,CPU读取数据的顺序是先缓存后内存。
一级缓存和二级缓存
[编辑本段]
为了分清这两个概念,我们先了解一下RAM 。RAM和ROM相对的,RAM是掉电以后,其中的信息就消失那一种,ROM在掉电以后信息也不会消失那一种。
RAM又分两种,一种是静态RAM,SRAM;一种是动态RAM,DRAM。前者的存储速度要比后者快得多,我们现在使用的内存一般都是动态RAM。
有的菜鸟就说了,为了增加系统的速度,把缓存扩大不就行了吗,扩大的越大,缓存的数据越多,系统不就越快了吗?缓存通常都是静态RAM,速度是非常的快, 但是静态RAM集成度低(存储相同的数据,静态RAM的体积是动态RAM的6倍), 价格高(同容量的静态RAM是动态RAM的四倍), 由此可见,扩大静态RAM作为缓存是一个非常愚蠢的行为, 但是为了提高系统的性能和速度,我们必须要扩大缓存, 这样就有了一个折中的方法,不扩大原来的静态RAM缓存,而是增加一些高速动态RAM做为缓存, 这些高速动态RAM速度要比常规动态RAM快,但比原来的静态RAM缓存慢, 我们把原来的静态ram缓存叫一级缓存,而把后来增加的动态RAM叫二级缓存。
一级缓存和二级缓存中的内容都是内存中访问频率高的数据的复制品(映射),它们的存在都是为了减少高速CPU对慢速内存的访问。 通常CPU找数据或指令的顺序是:先到一级缓存中找,找不到再到二级缓存中找,如果还找不到就只有到内存中找了。
缓存的技术发展
[编辑本段]
最早先的CPU缓存是个整体的,而且容量很低,英特尔公司从Pentium时代开始把缓存进行了分类。当时集成在CPU内核中的缓存已不足以满足CPU的需求,而制造工艺上的限制又不能大幅度提高缓存的容量。因此出现了集成在与CPU同一块电路板上或主板上的缓存,此时就把 CPU内核集成的缓存称为一级缓存,而外部的称为二级缓存。一级缓存中还分数据缓存(Data Cache,D-Cache)和指令缓存(Instruction Cache,I-Cache)。二者分别用来存放数据和执行这些数据的指令,而且两者可以同时被CPU访问,减少了争用Cache所造成的冲突,提高了处理器效能。英特尔公司在推出Pentium 4处理器时,用新增的一种一级追踪缓存替代指令缓存,容量为12KμOps,表示能存储12K条微指令。
随着CPU制造工艺的发展,二级缓存也能轻易的集成在CPU内核中,容量也在逐年提升。现在再用集成在CPU内部与否来定义一、二级缓存,已不确切。而且随着二级缓存被集成入CPU内核中,以往二级缓存与CPU大差距分频的情况也被改变,此时其以相同于主频的速度工作,可以为CPU提供更高的传输速度。
二级缓存是CPU性能表现的关键之一,在CPU核心不变化的情况下,增加二级缓存容量能使性能大幅度提高。而同一核心的CPU高低端之分往往也是在二级缓存上有差异,由此可见二级缓存对于CPU的重要性。
CPU在缓存中找到有用的数据被称为命中,当缓存中没有CPU所需的数据时(这时称为未命中),CPU才访问内存。从理论上讲,在一颗拥有二级缓存的CPU中,读取一级缓存的命中率为80%。也就是说CPU一级缓存中找到的有用数据占数据总量的80%,剩下的20%从二级缓存中读取。由于不能准确预测将要执行的数据,读取二级缓存的命中率也在80%左右(从二级缓存读到有用的数据占总数据的16%)。那么还有的数据就不得不从内存调用,但这已经是一个相当小的比例了。目前的较高端的CPU中,还会带有三级缓存,它是为读取二级缓存后未命中的数据设计的—种缓存,在拥有三级缓存的CPU中,只有约5%的数据需要从内存中调用,这进一步提高了CPU的效率。
为了保证CPU访问时有较高的命中率,缓存中的内容应该按一定的算法替换。一种较常用的算法是“最近最少使用算法”(LRU算法),它是将最近一段时间内最少被访问过的行淘汰出局。因此需要为每行设置一个计数器,LRU算法是把命中行的计数器清零,其他各行计数器加1。当需要替换时淘汰行计数器计数值最大的数据行出局。这是一种高效、科学的算法,其计数器清零过程可以把一些频繁调用后再不需要的数据淘汰出缓存,提高缓存的利用率。
CPU产品中,一级缓存的容量基本在4KB到64KB之间,二级缓存的容量则分为128KB、256KB、512KB、1MB、2MB、4MB等。一级缓存容量各产品之间相差不大,而二级缓存容量则是提高CPU性能的关键。二级缓存容量的提升是由CPU制造工艺所决定的,容量增大必然导致CPU内部晶体管数的增加,要在有限的CPU面积上集成更大的缓存,对制造工艺的要求也就越高。
现在主流的CPU二级缓存都在2MB左右,其中英特尔公司07年相继推出了台式机用的4MB、6MB二级缓存的高性能CPU,不过价格也是相对比较高的,对于对配置要求不是太高的朋友,一般的2MB二级缓存的双核CPU基本也可以满足日常上网需要了。