Memcached-分布式内存缓存服务器

原创
2014/11/14 17:38
阅读数 150

      许多Web 应用程序都将数据保存到关系型数据库中,应用服务器从中读取数据并在浏览器中显示。但随着数据量的增大,访问的集中,就会出现数据库的负担加重,数据库响应恶化,网站延迟等重大影响。Memcached是高性能的分布式内存缓存服务器。一般的使用目的是通过缓存数据库查询结果,减少对数据库的访问次数,以提高动态Web应用的响应速度、提高扩展性。如图:
分布式缓存-Memcached

Memcached作为高速运行的分布式内存缓存服务器具有以下特点:

       协议简单:memcached的服务器客户端通信并不使用复杂的MXL等格式,而是使用简单的基于文本的协议。

       基于libevent的事件处理:libevent是个程序库,他将Linux 的epoll、BSD类操作系统的kqueue等时间处理功能封装成统一的接口。memcached使用这个libevent库,因此能在Linux、BSD、Solaris等操作系统上发挥其高性能。

       内置内存存储方式:为了提高性能,memcached中保存的数据都存储在memcached内置的内存存储空间中。由于数据仅存在于内存中,因此重启memcached,重启操作系统会导致全部数据消失。另外,内容容量达到指定的值之后memcached回自动删除不适用的缓存。

       Memcached不互通信的分布式:memcached尽管是“分布式”缓存服务器,但服务器端并没有分布式功能。各个memcached不会互相通信以共享信息。他的分布式主要是通过客户端实现的。


Memcached的内存管理

        Memcached默认情况下采用了名为Slab Allocatoion的机制分配,管理内存。

        Slab Allocator的基本原理是按照预定规定的大小,将分配的内存分割成特定长度的块,已完全解决内存碎片问题。Slab Allocator的原理相当简单:将分配的内存分割成各种尺寸的块,并把尺寸相同的块分成组

如图:

分布式缓存-Memcached

Memcached在数据删除方面有效利用资源
       Memcached删除数据时数据不会真正从Memcached中消失。Memcached不会释放已分配的内存。记录超时后,客户端就无法再看见该记录,其存储空间即可重复使用。

       Lazy Expriationmemcached内部不会监视记录是否过期,而是在get时查看记录的时间戳,检查记录是否过期。这种技术称为lazy expiration.因此memcached不会再过期监视上耗费CPU资源。


对于缓存存储容量满的情况下的删除需要考虑多种机制,一方面是按队列机制,一方面应该对应缓存对象本身的优先级,根据缓存对象的优先级进行对象的删除。

LRU:从缓存中有效删除数据的原理
       Memcached会优先使用已超时的记录空间,但即使如此,也会发生追加新纪录时空间不足的情况。此时就要使用名为Last Recently Used(LRU)机制来分配空间。这就是删除最少使用的记录的机制。因此当memcached的内存空间不足时,就从最近未使用的记录中搜索,并将空间分配给新的记录。

Memcached分布式
       Memcached虽然称为分布式缓存服务器,但服务器端并没有“分布式”的功能。Memcached的分布式完全是由客户端实现的。现在我们就看一下memcached是怎么实现分布式缓存的。

        假如下面有memcached服务器node1~node3三台,应用程序要保存键名为“bizDataKey”“pageDataKey”的数据。

        首先向memcached中添加“bizDataKey”。将“bizDataKey”传给客户端程序库后,客户端实现的算法就会根据“键”来决定保存数据的memcached服务器。服务器选定后,即命令它保存“bizDataKey”及其值。
        同样“pageDataKey”都是先选择memcached服务器再保存。

        接下来获取保存的数据。获取时也要将获取的键“pageDataKey”传递给客户端程序库。程序库通过与数据保存时相同的算法,根据”键“选择服务器。
分布式缓存-Memcached

        这样,将不同的键保存到不同的memcached服务器上,就实现了memcached的分布式。memcached服务器增多后,键就会分散,即使一台memcached服务器发生故障无法连接,也不会影响其他的缓存,系统依然能继续运行。


展开阅读全文
加载中
点击引领话题📣 发布并加入讨论🔥
打赏
0 评论
0 收藏
0
分享
返回顶部
顶部