Deprecated: Creation of dynamic property db::$querynum is deprecated in /www/wwwroot/hb-yanmian.com/inc/func.php on line 1413

Deprecated: Creation of dynamic property db::$database is deprecated in /www/wwwroot/hb-yanmian.com/inc/func.php on line 1414

Deprecated: Creation of dynamic property db::$Stmt is deprecated in /www/wwwroot/hb-yanmian.com/inc/func.php on line 1453

Deprecated: Creation of dynamic property db::$Sql is deprecated in /www/wwwroot/hb-yanmian.com/inc/func.php on line 1454
解决系统性能问题的银弹——缓存技术_ACE缓冲器-小型_江南体育app下载_安卓通用版

江南体育app下载 · ACE缓冲器-小型
  • 解决系统性能问题的银弹——缓存技术
解决系统性能问题的银弹——缓存技术

解决系统性能问题的银弹——缓存技术

  仔细观察一下我们现有的系统,小到一颗CPU,大到一个在线交易系统。任何性能问题都能够最终靠一种方式有效的解决,这样的形式就是缓存。不错,缓存几乎能成为解决性能问题的银弹,百发百中。缓存的最大的目的是降低数据访问延时,实现手段多种多样,下面对不一样的种类的缓存进行介绍。

  能想到的最小粒度的缓存恐怕就是CPU的缓存了。CPU不但有缓存,而且将缓存分成了多种级别,如图1所示,分别是L1、L2和L3 3级缓存。其中L1和L2是一个核心独享的缓存,而L3是同一颗CPU内的多个核心共享的。图1架构是目前CPU中最常见的架构,而CPU关于缓存的架构细节比这个还要复杂。多数CPU是将缓存分为指令缓存和数据缓存2中类型的缓存,有些还有一种称为TLB(translation lookaside buffer)的缓存,用于实现虚拟内存到物理内存的快速转换。

  CPU并非生而就有缓存,以Intel的CPU为例,其在1992年才在386 CPU中引入L1 Cache。而L3Cache的引入则到2008年才在Core i3中引入。如图2是不同存储类型访问时延的差异,以寄存器访问为1个时间单位,那么内存的访问在100单位左右。也就是说,内存的访问延时是寄存器的100倍。

  基于上述原因,在新一代的CPU设计当中增加了缓存模块,其目的是降低访问内存数据的时延。使用Cache提升性能的原理在于数据访问的局部性特点,分别是区域局部性和时间局部性。

  在操作系统层面很多地方都用到了缓存。而操作系统缓存的原理与CPU缓存基本一致,也就2个局部特性。在操作系统中最著名的缓存恐怕就是文件系统的页缓存了吧。同样参考一下图2,能够正常的看到访问磁盘的时延是内存时延的10万倍,因此Linux操作系统中所有文件系统都采用缓存来提升其读写性能。

  除了上面内存访问性能与磁盘访问性能的差异因素外,另外一个因素是机械磁盘随机访问与顺序访问的性能差异。以企业级SATA磁盘为例,随机写的带宽不到1MB/s,而顺序写能轻松的达到100MB/s,差异多达100倍。产生如此大差异的问题大多是机械磁盘读写数据需要寻址,寻址所消耗的时间占整个请求时间的比例很大。

  鉴于上述2个因素的考量,大多数文件系统都实现了基于内存的缓存。这样,用户对于文件系统的访问性能得到了大幅的提升。缓存的主要从两方面提升访问文件系统的性能,一种原因是降低对磁盘的直接访问,另外一个方面是将对磁盘的随机访问尽量转换为顺序访问。

  对于第一个方面,文件系统数据写入缓存后即认为数据写入成功,向上层返回结果。由于访问内存的性能是访问磁盘性能的10万倍。因此,性能自然能够获得极大的提升。如图3所示的上半部分逻辑,写请求依次将数据写入缓存中。对于读请求也有类似的处理,文件系统中称为预读,也就是将数据提前读取到缓存,以此来降低访问磁盘的频度。

  对于第二个方面,由于缓存的存在,当从缓存向磁盘刷写数据的时候以数据的LBA进行排序。这样子就能够降低机械磁盘寻道的时间消耗比例,进而提升系统整体的性能。

  在大系统层面我们以Web应用为例介绍从前端到后端的缓存技术。这还在于在Web开发领域缓存的应用最为广泛,十分便捷我们不难发现问题。缓存的技术领域很广泛,技术的难度也很深,本文无法面面俱到,只是抛砖引玉。

  熟悉前端开发的同学都清楚,一个网站除了动态的内容外,还有很多图片、JS脚本和CSS样表等内容。而图片、JS脚本和CSS等内容一方面量比较大,另外一方面很少变化,除非网站升级。鉴于上述原因,我们是不是可以将这些内容缓存到用户的本地磁盘,这样当用户再次访问网站是就可以直接从本地磁盘加载这一些内容,而不需要从经过浩瀚的网络。

  实质上浏览器已经具备该功能,准确的说不是浏览器,而是HTTP协议。如图我们打开浏览器的调试工具,能够正常的看到请求网页的很多内容并不会从服务器请求,而是从本地磁盘或者内存获取。如图4是请求某个网站页面时部分内容的情况。能够正常的看到很大一部分并非从服务器获取。

  从本地获取有2个很明显的好处,一个是页面的响应时间很快,另外一个是Web服务器的压力得到有很大的降低。

  在HTTP中是通过其响应消息头来确定是不是使用缓存中的内容的,这一条消息头就是Cache-control,当然还要其它一些字段的配合。整个缓存处理的流程还是很复杂的,应该要依据不同的字段作出判断,以便确定从哪里获取内容。如图是整个浏览器的处理流程。

  图6是通过浏览器的调试工具截获的某东主页的一个图片的响应头内容,从图中能够准确的看出里面包含了缓存控制相关的内容。

  浏览器缓存的内容博大精深,很难在本篇文章中解释完全。如果大家想深入的了解这方面的内容,本号推荐大家都看看《HTTP权威指南》,理解解释的非常详细。

  在Web领域一个请求的链路可能会非常长,比如我们访问一个美国的网站,整个通信链路会跨越整个太平洋,距离近2万公里。即使是阳光也要跑几十毫秒才能完成这段里程,而网络需要经过各种中继设备,耗时将近200ms。试想,一个网页通常有上百个元素组成(例如图片,js脚本等),这样在中国打开一个美国的网站将消耗多少时间?

  解决以上问题最为有效的技术就是CDN(Content Delivery Network,内容分发网络)技术,该技术通过分部在离最终用户比较近的边缘服务器提供更快的服务。以上文网站为例,当用户从中国访问美国的网站时,会先从国内的CDN节点获取内容,假如没有才会从美国的源服务器获取内容。因为大部分内容都可以从国内获取,免去了跨越大洋造成的网络延时。

  图7是一个CDN的示意图,其中ORIGINAL SERVER就是源服务器,而EDGE SERVER就是边缘服务器。从图中能够准确的看出,最终用户的访问路径。

  对于Web服务来说,通常通过关系型数据来存储数据,而数据库的数据通常存储在磁盘中。在高负载场景下数据库往往会成为性能瓶颈。因此,为了更好的提高整个服务的承载能力,往往在业务服务器和数据库之间添加一个缓存服务。这个缓存服务的原理其实与上述的CPU缓存或者文件系统缓存有异曲同工之妙。

  由于对于一个Web服务来说,80%以上的请求都是读请求,Web缓存的设计也正是基于这样一个事实。这一些数据可完全缓存到内存中,由此减少数据库访问的负载。由于缓存承载了绝大多数的读请求,因此整个数据库的负载也得到很大的降低。

  如图8是使用Redis缓存的Web服务架构,本文只是一个简化的架构,实际架构要复杂的多(需要仔细考虑可靠性和承载能力等)。在本架构中业务服务器会根据请求类型优先访问缓存,并根据策略更新缓存内容。目前使用最多的缓存应该是Redis缓存,你们可以进一步探索一下。

  本文从微观到宏观,从不同的层面介绍了缓存在提升系统性能方面的应用。当然,缓存的应用领域比本文涉及的还要多得多。这里只是一个引子,希望我们大家能够得到一些启发,为自己系统的性能优化提供一些思路。

  声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如需处理请联系客服。电线;邮箱:。本站原创内容信息没有经过允许不得转载,或转载时需标注明确出处::西部数码资讯门户解决系统性能问题的银弹——缓存技术

  CNNIC发布第45次《中国互联网络发展状况统计报告》 全国6.5亿网民月收入不足5000元

  NSA公布Windows 10严重漏洞影响9亿多台设备 微软已发布最新补丁

  © 2024西部数码资讯门户新闻资讯栏目,为您提供域名注册,域名交易,虚拟服务器,云服务器,云计算,网站建设等领域专业的知识介绍!