(1)Memcached是什么?html
- Memcached是一个开源的,支持高性能,高并发的分布式内存缓存系统,由C语言编写,总共2000多行代码。从软件名称上看,前3个字符“Mem”就是内存的意思,而接下来的后面5个字符“cache”就是缓存的意思,最后一个字符d,是daemon的意思,表明是服务器端守护进程模式服务。
- Memcached服务分为服务器端和客户端两部分,其中,服务器端软件的名字形如Memcached-1.4.24.tar.gz,客户端软件的名字形如Memcache-2.25.tar.gz
- Memcached软件诞生于2003年,最初由LiveJournal的Brad Fitzpatrick开发完成。Memcache是整个项目的名称,而Memcached是服务器端的主程序名,因其协议简单,应用部署方便,且支持高并发,所以被互联网企业普遍使用,直到如今仍然如此。其官方网站地址:http://memcached.org/.
(2)Memcached的做用前端
- 传统场景中,多数Web应用都将数据保存到关系型数据库中(例如:MySQL),Web服务器从中读取数据并在浏览器中显示。但随着数据量的增大,访问的集中,关系型数据库的负担就会出现加剧,响应缓慢,致使网站打开延迟等问题,影响用户体验。
- 这时就须要Memcached软件出马了。使用Memcached的主要目的是,经过在自身内存中缓存关系型数据库的查询结果,减小数据库被访问的次数,以提升动态Web应用的速度,提升网站架构的并发能力和可扩展性。
- Memcached服务的运行原理是经过在事先规划好的系统内存空间中临时缓存数据库中的各种数据,以达到减小前端业务服务对数据库的直接高并发访问,从而提高大规模网站集群中动态服务的并发访问能力。
-生产场景的Memcached服务通常被用来保存网站中常常被读取的对象或数据,就像咱们的客户端浏览器也会把常常访问的网页缓存起来同样,经过内存缓存来存取对象或数据要比磁盘存取快不少,由于磁盘是机械的,所以,在当今的IT企业中,Memcached的应用范围很普遍。
Memcached是一种内存缓存软件,在工做中常常用来缓存数据库的查询数据,数据被缓存在事先与分配的Memcached管理的内存中,能够经过API或命令的方式存取内存中缓存的这些数据,Memcached服务内存中缓存的数据就像一张巨大的hash表,每条数据都是以key-value对的形式存在。mysql
从逻辑上来讲,当程序访问后端数据库获取数据时会优先访问Memcached缓存,若是缓存中有数据就直接返回给客户端用户,若是没有合适的数据(没有命中),再去后端的数据库读取数据,读取到须要的数据后,就会把数据返回给客户端,同时还会把读取到的数据缓存到Memcached内存中,这样客户端用户再次请求相同的数据时就会直接读取Memcached缓存的数据了,这就大大地减轻了后端数据库的压力,并提升了整个网站的响应速度,提高了用户体验。redis
展现了Memcached缓存系统和后端数据库系统的协做流程算法
如上图所示:使用Memcached缓存查询的数据来减小数据库压力的具体工做流程以下:sql
(1)Web程序首先检查客户端请求的数据是否在Memcached缓存中存在,若是存在,直接把请求的数据返回给客户端,此时再也不请求后端数据库。数据库
(2)若是请求的数据在Memcached缓存中不存在,则程序会去请求数据库服务,把从数据库中取到的数据返回给客户端,同时把新取到的数据缓存一份到Memcached缓存中。后端
具体流程以下:浏览器
(1)当程序更新或删除数据时,会首先处理后端数据库中的数据。缓存
(2)在处理后端数据库中数据的同时,也会通知Memcached,告诉它对应的旧数据失效,从而保证Memcached中缓存的数据始终和数据库中一致,这个数据一致性很是重要,也是大型网站分布式缓存集群最头疼的问题所在。
(3)若是是在高并发读写场合,除了要程序通知Memcached过时的缓存失效外,还可能要经过相关机制,例如在数据库上部署相关程序(如在数据库中设置触发器使用UDFs),实现当数据库有更新时就把数据更新到Memcached服务中,这样一来,客户端在访问新数据时,因预先把更新过的数据库数据复制到Memcached中缓存起来了,因此能够减小第一次查询数据库带来的访问压力,提高Memcached中缓存的命中率,甚至新浪门户还会把持久化存储Redis作成MySQL数据库的从库,实现真正的主从复制。
下图为Memcached网站做为缓存应用更新数据的流程
下图为Memcached服务做为缓存应用经过相关软件更新数据的流程
在生产工做中,网站Web服务器做为缓存应用更新数据的方案更为经常使用,即由网站程序负责更新Memcached缓存。
(1)完整数据缓存
例如:电商的商品分类功能不是常常变更的,所以能够事先放到Memcached里,而后再对外提供数据访问。这个过程被称之为“数据预热”。
此时只需读取缓存,无需读取数据库就能获得Memcached缓存里的全部商品分类数据了,因此数据库的访问压力就会大大下降。
为何商品分类数据能够事先放在缓存里呢?
由于,商品分类几乎都是由内部人员管理的,若是须要更新数据,更新数据库后,就能够把数据同时更新到Memcached里。
若是把商品分类数据作成静态化文件,而后,经过在前端Web缓存或者使用CDN加速效果更好。
(2)热点数据缓存
热点数据缓存通常是用于由用户更新的商品,例如淘宝的卖家,在卖家新增商品后,网站程序就会把商品写入后端数据库,同时把这部分数据,放入Memcached内存中,下一次访问这个商品的请求就直接从Memcached内存中取走了。这种方法用来缓存网站热点的数据,即利用Memcached缓存常常被访问的数据。
提示:
这个过程能够经过程序实现,也能够在数据库上安装相关软件进行设置,直接由数据库把内容更新到Memcached中,就至关于Memcached是MySQL的从库同样。
即把客户端用户请求多个前端应用服务集群产生的session会话信息,统一存储到一个Memcached缓存中。因为session会话数据是存储在内存中的,因此速度很快。
下图为Memcached服务在企业集群架构中的常见工做位置:
Memcached做为高并发,高性能的缓存服务,具备以下特色:
benet-->36,key=benet,value=36
yunjisuan-->28,key=yunjisuan,value=28
#经过benet key能够获取到36值,同理经过yunjisuan key能够获取28值
下面是利用Web端程序实现Memcached分布式的简单代码:
"memcached_servers" ==>array(
'10.4.4.4:11211',
'10.4.4.5:11211',
'10.4.4.6:11211',
下面使用Tengine反向代理负载均衡的一致性哈希算法实现分布式Memcached的配置。
http {
upstream test {
consistent_hash $request_uri;
server 127.0.0.1:11211 id=1001 weight=3;
server 127.0.0.1:11212 id=1002 weight=10;
server 127.0.0.1:11213 id=1003 weight=20;
}
}
提示:
Tengine是淘宝网开源的Nginx的分支,上述代码来自:
http://tengine.taobao.org/document_cn/http_upstream_consistent_hash_cn.html
Memcached是一套相似C/S模式架构的软件,在服务器端启动Memcached服务守护进程,能够指定监听本地的IP地址,端口号,并发访问链接数,以及分配了多少内存来处理客户端请求。
Memcached软件是由C语言来实现的,所有代码仅有2000多行,采用的是异步epoll/kqueue非阻塞I/O网络模型,其实现方式是基于异步的libevent事件单进程,单线程模式。使用libevent做为事件通知机制,应用程序端经过指定服务器的IP地址及端口,就能够链接Memcached服务进行通讯。
- 须要被缓存的数据以key/value键值对的形式保存在服务器端预分配的内存区中,每一个被缓存的数据都有惟一的标识key,操做Memcached中的数据就是经过这个惟一标识的key进行的。缓存到Memcached中的数据仅放置在Memcached服务预分配的内存中,而非存储在Memcached服务器所在的磁盘上,所以存取速度很是快。
- 因为Memcached服务自身没有对缓存的数据进行持久化存储的涉及,所以,在服务器端的Memcached服务进程重启以后,存储在内存中的这些数据就会丢失。且当内存中缓存的数据容量达到启动时设定的内存值时,也会自动使用LRU算法删除过时的数据。
- 开发Memcached的初衷仅是经过内存缓存提高访问效率,并无过多考虑数据的永久存储问题。所以,若是使用Memcached做为缓存数据服务,要考虑数据丢失后带来的问题,例如:是否能够从新生成数据,还有,在高并发场合下缓存宕机或重启会不会致使大量请求直接到数据库,致使数据库没法承受,最终致使网站架构雪崩等。
Memcached采用了以下机制:
多线程处理时采用的是pthread(POSIX)线程模式。
若要激活多线程,可在编译时指定:./configure --enable-threads
锁机制不够完善
负载太重时,能够开启多线程(-t 线程数为CPU核数)
- 当须要大面积重启Memcached时,首先要在前端控制网站入口的访问流量,而后,重启Memcached集群并进行数据预热,全部数据都预热完毕以后,再逐步放开前端网站入口的流量。
- 为了知足Memcached服务数据能够持久化存储的需求,在较早时期,新浪网基于Memcached服务开发了一款NoSQL软件,名字为MemcacheDB,实现了在缓存的基础上增长了持久存储的特性,不过目前逐步被更优秀的Redis软件取代了。
若是因为机房断电或者搬迁服务器集群到新机房,那么启动集群服务器时,必定要从网站集群的后端依次往前端开启,特别是开启Memcached缓存服务器时要提早预热。
(1)Malloc内存管理机制
在讲解Memcached内存管理机制前,先来了解malloc
- malloc的全称是memory allocation,中文名称动态内存分配,当没法知道内存具体位置的时候,想要绑定真正的内存空间,就须要用到动态分配内存。
- 早期的Memcached内存管理是经过malloc分配的内存实现的1,使用完后经过free来回收内存。这种方式容易产生内存碎片并下降操做系统对内存的管理效率。所以,也会加剧操做系统内存管理器的负担,最坏的状况下,会致使操做系统比Memcached进程自己还慢,为了解决上述问题,Slab Allocator内存分配机制就诞生了。
(2)Slab内存管理机制
如今的Memcached是利用Slab Allocation机制来分配和管理内存的,过程以下:
1)提早将大内存分配大小为1MB的若干个slab,而后针对每一个slab再进行小对象填充,这个小对象称为chunk,避免大量重复的初始化和清理,减轻了内存管理器的负担。
Slab Allocation内存分配的原理是按照预先规定的大小,将分配给Memcached服务的内存预先分割成特定长度的内存块(chunk),再把尺寸相同的内存块(chunk)分红组(chunks slab class),这些内存块不会释放,能够重复利用,以下图所示。
2)新增数据对象存储时。因Memcached服务器中保存着slab内空闲chunk的列表,他会根据该列表选择chunk,而后将数据缓存于其中。当有数据存入时,Memcached根据接收到的数据大小,选择最适合数据大小的slab分配一个能存下这个数据的最小内存块(chunk)。例如:有100字节的一个数据,就会被分配存入下面112字节的一个内存块中,这样会有12字节被浪费,这部分空间就不能被使用了,这也是Slab Allocator机制的一个缺点。
Slab Allocator还可重复使用已分配的内存,即分配到的内存不释放,而是重复利用。
(3)Slab Allocation的主要术语
(4)Slab 内存管理机制特色
下面对Mc的内存管理机制进行一个小结
(1)chunk存储item浪费空间
Slab Allocator解决了当初的内存碎片问题,但新的机制也给Memcached带来了新的问题。这个问题就是,因为分配的是特定长度的内存,所以没法有效利用分配的内存。例如,将100字节的数据缓存到128字节的chunk中,剩余的28字节就浪费了,以下图所示:
避免浪费内存的办法是,预先计算出应用存入的数据大小,或把同一业务类型的数据存入一个Memcached服务器中,确保存入的数据大小相对均匀,这样就能够减小内存的浪费。
还有一种办法是,在启动时指定“-f”参数,能在某种程度上控制内存组之间的大小差别。在应用中使用Memcached时,一般能够不从新设置这个参数,即便用默认值1.25进行部署便可。若是想优化Memcached对内存的使用,能够考虑从新计算数据的预期平均长度,调整这个参数来得到合适的设置值,命令以下:
-f <factor>chunk size growth factor (default:1.25)!
(2)Slab尾部剩余空间
- 假设在classid=40中,两个chunk占用了1009384byte,那么就有1048576-1009384=39192byte会被浪费掉。解决办法:规划slab大小=chunk大小*n整数倍。
在启动Memcached时指定Growth Factor因子(经过 -f 选项),就能够在某种程度上控制每组Slab之间的差别。默认值1.25。可是,在该选项出现以前,这个因子曾经被固定为2,称为2“powers of 2”策略。让咱们用之前的设置,以verbose模式启动Memcached试试看:
#memcached -f 2 w
下面是启动后的verbose输出:
slab class 1:chunk size 128 perslab 8192
slab class 2:chunk size 256 perslab 4096
slab class 3:chunk size 512 perslab 2048
slab class 4:chunk size 1024 perslab 1024
slab class 5:chunk size 2048 perslab 512
slab class 6:chunk size 4096 perslab 256
slab class 7:chunk size 8192 perslab 128
slab class 8:chunk size 16384 perslab 64
slab class 9:chunk size 32768 perslab 32
slab class 10:chunk size 65536 perslab 16
slab class 11:chunk size 131072 perslab 8
slab class 12:chunk size 262144 perslab 4
slab class 13:chunk size 524288 perslab 2
可见,从128字节的组开始,组的大小依次增大为原来的2倍。这样设置的问题是,Slab之间的差异比较大,有些状况下就至关浪费内存。所以,为尽可能减小内存浪费,两年前追加了growth factor这个选项。
来看看如今的默认设置(f=1.25)时的输出:
slab class 1:chunk size 88 perslab 11915 <---88*11915=1048520
slab class 2:chunk size 112 perslab 9362
slab class 3:chunk size 144 perslab 7281
slab class 4:chunk size 184 perslab 5698
slab class 5:chunk size 232 perslab 4519
slab class 6:chunk size 296 perslab 3542
slab class 7:chunk size 376 perslab 2788
slab class 8:chunk size 472 perslab 2221
slab class 9:chunk size 592 perslab 1771
slab class 10:chunk size 744 perslab 1409 <---744*1409=1048520
- 此时每一个Slab的大小是同样的,即1048520,1MB。组间的差距比因子为2时小得多,可见,这个值越小,Slab中chunk size的差距就越小,内存浪费也就越小。可见,默认值1.25更适合缓存几百字节的对象。从上面的输出结果来看,可能会以为有些计算偏差,这些偏差是为了保持字节数的对齐而故意设置的。
- 当使用Memcached或是直接使用默认值进行部署时,最好是从新计算一下数据的预期平均长度,调整growth factor,以得到最恰当的设置。内存是珍贵的资源,浪费就太惋惜了。
(1)Memcached懒惰检测对象过时机制
- 首先要知道,Memcached不会主动检测item对象是否过时,而是在进行get操做时检查item对象是否过时以及是否应该删除!
- 由于不会主动检测item对象是否过时,天然也就不会释放已分配给对象的内存空间了,除非为添加的数据设定过时时间或内存缓存满了,在数据过时后,客户端不能经过key取出它的值,其存储空间将被从新利用。
- Memcached使用的这种策略为懒惰检测对象过时策略,即本身不监控存入的key/value对是否过时,而是在获取key值时查看记录的时间戳(sed key flag exptime bytes),从而检查key/value对空间是否过时。这种策略不会在过时检测上浪费CPU资源。
(2)Memcached懒惰删除对象机制
- 当删除item对象时,通常不会释放内存空间,而是作删除标记,将指针放入slot回收插槽,下次分配的时候直接使用。
- Memcached在分配空间时,会优先使用已通过期的key/value对空间;若分配的内存空间占满,Memcached就会使用LRU算法来分配空间,删除最近最少使用的key/value对,从而将其空间分配给新的key/value对。在某些状况下(完整缓存),若是不想使用LRU算法,那么能够经过“-M”参数来启动Memcached,这样,Memcached在内存耗尽时,会返回一个报错信息,以下:
-M rerurn error on memory exhausted(rather than removing items)
下面针对Memcached删除机制进行一个小结
Memcached的安装比较简单,支持Memcached的平台常见的有Linux,FreeBSD,Solaris,Windows。这里以Centos6.5为例进行讲解。
系统安装环境以下:
安装Memcached前须要先安装libevent,有关libevent的内容在前文已经介绍,此处用yum命令安装libevent。操做命令以下:
yum -y install libevent libevent-devel nc #自带光盘里没有,须要公网yum源
yum -y install memcached
提示:
形如“memcache-2.2.7.tgz”文件名的软件为客户端源代码软件,而形如“memcached-1.4.24.tar.gz”的文件为服务器端的源代码软件。
启动第一个Memcached实例
启动第二个Memcached实例
进程与链接设置:
命令参数 | 说明 |
---|---|
-d | 以守护进程(daemon)方式运行服务 |
-u | 指定运行Memcached的用户,若是当前用户为root,须要使用此参数指定用户 |
-l | 指定Memcached进程监听的服务器IP地址,能够不设置此参数 |
-p(小写) | 指定Memcached服务监听TCP端口号。默认为11211 |
-P(大写) | 设置保存Memcached的pid文件($$),保存PID到指定文件 |
内存相关设置:
命令参数 | 说明 |
---|---|
-m | 指定Memcached服务能够缓存数据的最大内存,默认为64MB |
-M | Memcached服务内存不够时禁止LRU,若是内存满了会报错 |
-n | 为key+value——flags分配的最小内存空间,默认为48字节 |
-f | chunk size增加因子,默认为1.25 |
-L | 启用大内存页,能够下降内存浪费,改进性能 |
并发链接设置:
并发链接设置 | 说明 |
---|---|
-c | 最大的并发链接数,默认是1024 |
-t | 线程数,默认4.因为Memcached采用的是NIO,因此太多线程做用不大 |
-R | 每一个event最大请求数,默认是20 |
-C | 禁用CAS(能够禁止版本计数,减小开销) |
测试参数:
-v | 打印较少的errors/warnings |
---|---|
-vv | 打印很是多调试信息和错误输出到控制台 |
-vvv | 打印极多的调试信息和错误输出,也打印内部状态转变 |
其余选项可经过“memcached -h”命令来显示。
向Memcached中添加数据时,注意添加的数据通常为键值对的形式,例如:key1-->values1,key2-->values2
这里把Memcached添加,查询,删除等的命令和MySQL数据库作一个基本类比,见下表:
MySQL数据库管理 | Memcached管理 |
---|---|
MySQL的insert语句 | Memcached的set命令 |
MySQL的select语句 | Memcached的get命令 |
MySQL的delete语句 | Memcached的delete命令 |
(1)经过printf配合nc向Memcached中写入数据,命令以下:
出现STORED表示成功添加key1及对应的数据
若是set命令的字节是6,那么后面就要6个字符(字节)。不然插入数据就会不成功
经过printf配置nc从Memcached中读取数据,命令以下:
这就是读取到的key1对应额值
经过printf配合nc从Memcached中删除数据,命令以下:
提示:
推荐使用上述方法测试操做Memcached
(2)经过telnet命令写入数据时,具体步骤以下:
1)安装telnet工具
yum -y install telnet
2)经过telnet向Memcached中写入数据
如下为操做Memcached的相关命令基本语法:
set key1 0 0 6 \r\n benet \r\n
<command name><key><flags><exptime><bytes><datablock><string><datablock>
STORED
<status>
下表为操做Memcached相关命令的详细说明:
单实例关闭Memcached的方法以下:
若启动了多个实例Memcached,使用killall或pkill方式就会同时关闭这些实例!所以最好在启动时增长-P参数指定固定的pid文件,这样便于管理不一样的实例。
示例以下: