最近项目组有用到这三个缓存,去各自的官方看了下,以为还真的各有千秋!今天特地概括下各个缓存的优缺点,仅供参考!php
Ehcachejava
在Java项目普遍的使用。它是一个开源的、设计于提升在数据从RDBMS中取出来的高花费、高延迟采起的一种缓存方案。正由于Ehcache具备健壮性(基于java开发)、被认证(具备apache 2.0 license)、充满特点(稍后会详细介绍),因此被用于大型复杂分布式web application的各个节点中。mysql
什么特点?git
1. 够快github
Ehcache的发行有一段时长了,通过几年的努力和不可胜数的性能测试,Ehcache终被设计于large, high concurrency systems.web
2. 够简单redis
开发者提供的接口很是简单明了,从Ehcache的搭建到运用运行仅仅须要的是你宝贵的几分钟。其实不少开发者都不知道本身用在用Ehcache,Ehcache被普遍的运用于其余的开源项目算法
好比:hibernatesql
3.够袖珍mongodb
关于这点的特性,官方给了一个很可爱的名字small foot print ,通常Ehcache的发布版本不会到2M,V 2.2.3 才 668KB。
4. 够轻量
核心程序仅仅依赖slf4j这一个包,没有之一!
5.好扩展
Ehcache提供了对大数据的内存和硬盘的存储,最近版本容许多实例、保存对象高灵活性、提供LRU、LFU、FIFO淘汰算法,基础属性支持热配置、支持的插件多
6.监听器
缓存管理器监听器 (CacheManagerListener)和 缓存监听器(CacheEvenListener),作一些统计或数据一致性广播挺好用的
如何使用?
够简单就是Ehcache的一大特点,天然用起来just so easy!
贴一段基本使用代码
CacheManager manager = CacheManager.newInstance("src/config/ehcache.xml"); Ehcache cache = new Cache("testCache", 5000, false, false, 5, 2); cacheManager.addCache(cache);
代码中有个ehcache.xml文件,如今来介绍一下这个文件中的一些属性
memcache
memcache 是一种高性能、分布式对象缓存系统,最初设计于缓解动态网站数据库加载数据的延迟性,你能够把它想象成一个大的内存HashTable,就是一个key-value键值缓存。Danga Interactive为了LiveJournal所发展的,以BSD license释放的一套开放源代码软件。
1.依赖
memcache C语言所编写,依赖于最近版本的GCC和libevent。GCC是它的编译器,同事基于libevent作socket io。在安装memcache时保证你的系统同事具有有这两个环境。
2.多线程支持
memcache支持多个cpu同时工做,在memcache安装文件下有个叫threads.txt中特别说明,By default, memcached is compiled as a single-threaded application.默认是单线程编译安装,若是你须要多线程则须要修改./configure --enable-threads,为了支持多核系统,前提是你的系统必须具备多线程工做模式。开启多线程工做的线程数默认是4,若是线程数超过cpu数容易发生操做死锁的几率。结合本身业务模式选择才能作到物尽其用。
3.高性能
经过libevent完成socket 的通信,理论上性能的瓶颈落在网卡上。
简单安装:
1.分别把memcached和libevent下载回来,放到 /tmp 目录下:
# cd /tmp
# wget http://www.danga.com/memcached/dist/memcached-1.2.0.tar.gz
# wget http://www.monkey.org/~provos/libevent-1.2.tar.gz
2.先安装libevent:
# tar zxvf libevent-1.2.tar.gz
# cd libevent-1.2
# ./configure -prefix=/usr
# make (若是遇到提示gcc 没有安装则先安装gcc)
# make install
3.测试libevent是否安装成功:
# ls -al /usr/lib | grep libevent
lrwxrwxrwx 1 root root 21 11?? 12 17:38 libevent-1.2.so.1 -> libevent-1.2.so.1.0.3
-rwxr-xr-x 1 root root 263546 11?? 12 17:38 libevent-1.2.so.1.0.3
-rw-r-r- 1 root root 454156 11?? 12 17:38 libevent.a
-rwxr-xr-x 1 root root 811 11?? 12 17:38 libevent.la
lrwxrwxrwx 1 root root 21 11?? 12 17:38 libevent.so -> libevent-1.2.so.1.0.3
还不错,都安装上了。
4.安装memcached,同时须要安装中指定libevent的安装位置:
# cd /tmp
# tar zxvf memcached-1.2.0.tar.gz
# cd memcached-1.2.0
# ./configure -with-libevent=/usr
# make
# make install
若是中间出现报错,请仔细检查错误信息,按照错误信息来配置或者增长相应的库或者路径。
安装完成后会把memcached放到 /usr/local/bin/memcached ,
5.测试是否成功安装memcached:
# ls -al /usr/local/bin/mem*
-rwxr-xr-x 1 root root 137986 11?? 12 17:39 /usr/local/bin/memcached
-rwxr-xr-x 1 root root 140179 11?? 12 17:39 /usr/local/bin/memcached-debug
启动memcache服务
启动Memcached服务:
1.启动Memcache的服务器端:
# /usr/local/bin/memcached -d -m 8096 -u root -l 192.168.77.105 -p 12000 -c 256 -P /tmp/memcached.pid
-d选项是启动一个守护进程,
-m是分配给Memcache使用的内存数量,单位是MB,我这里是8096MB,
-u是运行Memcache的用户,我这里是root,
-l是监听的服务器IP地址,若是有多个地址的话,我这里指定了服务器的IP地址192.168.77.105,
-p是设置Memcache监听的端口,我这里设置了12000,最好是1024以上的端口,
-c选项是最大运行的并发链接数,默认是1024,我这里设置了256,按照你服务器的负载量来设定,
-P是设置保存Memcache的pid文件,我这里是保存在 /tmp/memcached.pid,
2.若是要结束Memcache进程,执行:
# cat /tmp/memcached.pid 或者 ps -aux | grep memcache (找到对应的进程id号)
# kill 进程id号
也能够启动多个守护进程,不过端口不能重复。
memcache 的链接
telnet ip port
注意链接以前须要再memcache服务端把memcache的防火墙规则加上
-A RH-Firewall-1-INPUT -m state --state NEW -m tcp -p tcp --dport 3306 -j ACCEPT
从新加载防火墙规则
service iptables restart
OK ,如今应该就能够连上memcache了
在客户端输入stats 查看memcache的状态信息
pid memcache服务器的进程ID
uptime 服务器已经运行的秒数
time 服务器当前的unix时间戳
version memcache版本
pointer_size 当前操做系统的指针大小(32位系统通常是32bit)
rusage_user 进程的累计用户时间
rusage_system 进程的累计系统时间
curr_items 服务器当前存储的items数量
total_items 从服务器启动之后存储的items总数量
bytes 当前服务器存储items占用的字节数
curr_connections 当前打开着的链接数
total_connections 从服务器启动之后曾经打开过的链接数
connection_structures 服务器分配的链接构造数
cmd_get get命令 (获取)总请求次数
cmd_set set命令 (保存)总请求次数
get_hits 总命中次数
get_misses 总未命中次数
evictions 为获取空闲内存而删除的items数(分配给memcache的空间用满后须要删除旧的items来获得空间分配给新的items)
bytes_read 读取字节数(请求字节数)
bytes_written 总发送字节数(结果字节数)
limit_maxbytes 分配给memcache的内存大小(字节)
threads 当前线程数
Redis是在memcache以后编写的,你们常常把这二者作比较,若是说它是个key-value store 的话可是它具备丰富的数据类型,我想暂时把它叫作缓存数据流中心,就像如今物流中心那样,order、package、store、classification、distribute、end。如今还很流行的LAMP PHP架构 不知道和 redis+MySQL 或者 redis + MongoDB的性能比较(听群里的人说mongodb分片不稳定)。
先说说reidis的特性
1. 支持持久化
redis的本地持久化支持两种方式:RDB和AOF。RDB 在redis.conf配置文件里配置持久化触发器,AOF指的是redis没增长一条记录都会保存到持久化文件中(保存的是这条记录的生成命令),若是不是用redis作DB用的话还会不要开AOF ,数据太庞大了,重启恢复的时候是一个巨大的工程!
2.丰富的数据类型
redis 支持 String 、Lists、sets、sorted sets、hashes 多种数据类型,新浪微博会使用redis作nosql主要也是它具备这些类型,时间排序、职能排序、个人微博、发给个人这些功能List 和 sorted set
的强大操做功能息息相关
3.高性能
这点跟memcache很想象,内存操做的级别是毫秒级的比硬盘操做秒级操做天然高效很多,较少了磁头寻道、数据读取、页面交换这些高开销的操做!这也是NOSQL冒出来的缘由吧,应该是高性能
是基于RDBMS的衍生产品,虽然RDBMS也具备缓存结构,可是始终在app层面不是咱们想要的那么操控的。
4.replication
redis提供主从复制方案,跟mysql同样增量复制并且复制的实现都很类似,这个复制跟AOF有点相似复制的是新增记录命令,主库新增记录将新增脚本发送给从库,从库根据脚本生成记录,这个过程很是快,就看网络了,通常主从都是在同一个局域网,因此能够说redis的主从近似及时同步,同事它还支持一主多从,动态添加从库,从库数量没有限制。 主从库搭建,我以为仍是采用网状模式,若是使用链式(master-slave-slave-slave-slave·····)若是第一个slave出现宕机重启,首先从master 接收 数据恢复脚本,这个是阻塞的,若是主库数据几TB的状况恢复过程得花上一段时间,在这个过程当中其余的slave就没法和主库同步了。
5.更新快
这点好像从我接触到redis到目前为止 已经发了大版本就4个,小版本没算过。redis做者是个很是积极的人,不管是邮件提问仍是论坛发帖,他都能及时耐心的为你解答,维护度很高。有人维护的话,让咱们用的也省心和放心。目前做者对redis 的主导开发方向是redis的集群方向。
redis的安装
redis的安装其实仍是挺简单的,总的来讲就三步:下载tar包,解压tar包,安装。
不过最近我在2.6.7后用centos 5.5 32bit 时碰到一个安装问题,下面我就用图片分享下安装过程碰到的问题,在redis 文件夹内执行make时有个以下的错 undefined reference to '__sync_add_and_fetch_4'
上网找了了好多最后在 https://github.com/antirez/redis/issues/736 找到解决方案,write CFLAGS= -march=i686 on src/Makefile head!
记得要把刚安装失败的文件删除,从新解压新的安装文件,修改Makefile文件,再make安装。就不会发现原来那个错误了
关于redis的一些属性注释和基本类型操做在上一篇redis 的开胃菜有详细的说明,这里就再也不重复累赘了(实质是想偷懒 ,哈哈!)
最后,把memcache和redis放在一块儿不得不会让人想到二者的比较,谁快谁好用啊,群里面已经为这个事打架好久了,我就把我看到的在这里跟你们分享下。
在别人发了一个memcache性能比redis好不少后,redis 做者 antirez 发表了一篇博文,主要是说到如何给redis 和 memcache 作压力测试,文中讲到有我的说许多开源软件都应该丢进厕所,由于他们的压力测试脚本太2了,做者对这个说明了一番。redis vs memcache is definitely an apple to apple comparison。 呵呵,很明确吧,二者的比较是否是有点鸡蛋挑骨头的效果,做者在相同的运行环境作了三次测试取多好的值,获得的结果以下图:
须要申明的是这次测试在单核心处理的过程的数据,memcache是支持多核心多线程操做的(默认没开)因此在默认状况下上图具备参考意义,若然则memcache快于redis。那为何redis不支持多线程多核心处理呢?做者也发表了一下本身的见解,首先是多线程不变于bug的修复,实际上是不易软件的扩展,还有数据一致性问题由于redis全部的操做都是原子操做,做者用到一个词nightmare 噩梦,呵呵! 固然不支持多线程操做,确定也有他的弊端的好比性能想必必然差,做者从2.2版本后专一redis cluster的方向开发来缓解其性能上的弊端,说白了就是纵向不行,横向提升。
原文地址:http://blog.csdn.net/jationxiaozi/article/details/8509732