Redis学习笔记

NoSql入门和概述

入门概述 

1 互联网时代背景下 大机遇,为何用nosql

 1单机MySQL的美好年代

在90年代,一个网站的访问量通常都不大,用单个数据库彻底能够轻松应付。
在那个时候,更多的都是静态网页,动态交互类型的网站很少。html

 

上述架构下,咱们来看看数据存储的瓶颈是什么?
1.数据量的总大小 一个机器放不下时
2.数据的索引(B+ Tree)一个机器的内存放不下时
3.访问量(读写混合)一个实例不能承受
 若是知足了上述1 or 3个,进化......java

2 Memcached(缓存)+MySQL+垂直拆分

后来,随着访问量的上升,几乎大部分使用MySQL架构的网站在数据库上都开始出现了性能问题,web程序再也不仅仅专一在功能上,同时也在追求性能。程序员们开始大量的使用缓存技术来缓解数据库的压力,优化数据库的结构和索引。开始比较流行的是经过文件缓存来缓解数据库压力,可是当访问量继续增大的时候,多台web机器经过文件缓存不能共享,大量的小文件缓存也带了了比较高的IO压力。在这个时候,Memcached就天然的成为一个很是时尚的技术产品。node

 Memcached做为一个独立的分布式的缓存服务器,为多个web服务器提供了一个共享的高性能缓存服务,在Memcached服务器上,又发展了根据hash算法来进行多台Memcached缓存服务的扩展,而后又出现了一致性hash来解决增长或减小缓存服务器致使从新hash带来的大量缓存失效的弊端mysql

3 Mysql主从读写分离 

因为数据库的写入压力增长,Memcached只能缓解数据库的读取压力。读写集中在一个数据库上让数据库不堪重负,大部分网站开始使用主从复制技术来达到读写分离,以提升读写性能和读库的可扩展性。Mysql的master-slave模式成为这个时候的网站标配了。linux

 4 分表分库+水平拆分+mysql集群 

 在Memcached的高速缓存,MySQL的主从复制,读写分离的基础之上,这时MySQL主库的写压力开始出现瓶颈,而数据量的持续猛增,因为MyISAM使用表锁,在高并发下会出现严重的锁问题,大量的高并发MySQL应用开始使用InnoDB引擎代替MyISAM。c++


 同时,开始流行使用分表分库来缓解写压力和数据增加的扩展问题。这个时候,分表分库成了一个热门技术,是面试的热门问题也是业界讨论的热门技术问题。也就在这个时候,MySQL推出了还不太稳定的表分区,这也给技术实力通常的公司带来了但愿。虽然MySQL推出了MySQL Cluster集群,但性能也不能很好知足互联网的要求,只是在高可靠性上提供了很是大的保证。git

5 MySQL的扩展性瓶颈

MySQL数据库也常常存储一些大文本字段,致使数据库表很是的大,在作数据库恢复的时候就致使很是的慢,不容易快速恢复数据库。好比1000万4KB大小的文本就接近40GB的大小,若是能把这些数据从MySQL省去,MySQL将变得很是的小。关系数据库很强大,可是它并不能很好的应付全部的应用场景。MySQL的扩展性差(须要复杂的技术来实现),大数据下IO压力大,表结构更改困难,正是当前使用MySQL的开发人员面临的问题。程序员

6 今天是什么样子??

7 为何用NoSQL

 

为何使用NoSQL ?github


今天咱们能够经过第三方平台(如:Google,Facebook等)能够很容易的访问和抓取数据。用户的我的信息,社交网络,地理位置,用户生成的数据和用户操做日志已经成倍的增长。咱们若是要对这些用户数据进行挖掘,那SQL数据库已经不适合这些应用了, NoSQL数据库的发展也却能很好的处理这些大的数据。web

2 是什么

NoSQL(NoSQL = Not Only SQL ),意即“不只仅是SQL”,
泛指非关系型的数据库。随着互联网web2.0网站的兴起,传统的关系数据库在应付web2.0网站,特别是超大规模和高并发的SNS类型的web2.0纯动态网站已经显得力不从心,暴露了不少难以克服的问题,而非关系型的数据库则因为其自己的特色获得了很是迅速的发展。NoSQL数据库的产生就是为了解决大规模数据集合多重数据种类带来的挑战,尤为是大数据应用难题,包括超大规模数据的存储。


(例如谷歌或Facebook天天为他们的用户收集万亿比特的数据)。这些类型的数据存储不须要固定的模式,无需多余操做就能够横向扩展。

3 能干吗

易扩展

NoSQL数据库种类繁多,可是一个共同的特色都是去掉关系数据库的关系型特性。
数据之间无关系,这样就很是容易扩展。也无形之间,在架构的层面上带来了可扩展的能力。

大数据量高性能

NoSQL数据库都具备很是高的读写性能,尤为在大数据量下,一样表现优秀。
这得益于它的无关系性,数据库的结构简单。
通常MySQL使用Query Cache,每次表的更新Cache就失效,是一种大粒度的Cache,
在针对web2.0的交互频繁的应用,Cache性能不高。而NoSQL的Cache是记录级的,
是一种细粒度的Cache,因此NoSQL在这个层面上来讲就要性能高不少了

多样灵活的数据模型

NoSQL无需事先为要存储的数据创建字段,随时能够存储自定义的数据格式。而在关系数据库里,
增删字段是一件很是麻烦的事情。若是是很是大数据量的表,增长字段简直就是一个噩梦

传统RDBMS VS NOSQL

 

RDBMS vs NoSQL


RDBMS
- 高度组织化结构化数据
- 结构化查询语言(SQL)
- 数据和关系都存储在单独的表中。
- 数据操纵语言,数据定义语言
- 严格的一致性
- 基础事务


NoSQL
- 表明着不只仅是SQL
- 没有声明性查询语言
- 没有预约义的模式
-键 - 值对存储,列存储,文档存储,图形数据库
- 最终一致性,而非ACID属性
- 非结构化和不可预知的数据
- CAP定理
- 高性能,高可用性和可伸缩性

 

 

4 去哪下

Redis

memcache

Mongdb

5 怎么玩

KV

Persistence

......

3V+3高 

大数据时代的3V 

海量Volume
多样Variety
实时Velocity

 

互联网需求的3高

高并发
高可扩
高性能

 

当下的NoSQL经典应用 

 当下的应用是sql和nosql一块儿使用

阿里巴巴中文站商品信息如何存放

看看阿里巴巴中文网站首页
以女装/女包包为例

架构发展历程
演变过程
第5代
第5代架构使命
......
和咱们相关的,多数据源多数据类型的存储问题

1 商品基本信息 

名称、价格,出厂日期,生产厂商等

关系型数据库:mysql/oracle目前淘宝在去O化(也即拿掉Oracle),
注意,淘宝内部用的Mysql是里面的大牛本身改造过的

 

为何去IOE

 2008年,王坚加盟阿里巴巴成为集团首席架构师,即如今的首席技术官。这位前微软亚洲研究院常务副院长被马云定位为:将帮助阿里巴巴集团创建世界级的技术团队,并负责集团技术架构以及基础技术平台搭建。
在加入阿里后,带着技术基因和学者风范的王坚就在阿里巴巴集团提出了被称为“去IOE”(在IT建设过程当中,去除IBM小型机、Oracle数据库及EMC存储设备)的想法,并开始把云计算的本质,植入阿里IT基因。
王坚这样归纳“去IOE”运动和阿里云之间的关系:“去IOE”完全改变了阿里集团IT架构的基础,是阿里拥抱云计算,产出计算服务的基础。“去IOE”的本质是分布化,让随处能够买到的Commodity PC架构成为可能,使云计算可以落地的首要条件。
 

2 商品描述、详情、评价信息(多文字类)

多文字信息描述类,IO读写性能变差

文档数据库MongDB中

 

3 商品的图片

商品图片展示类
分布式的文件系统中

淘宝本身的TFS

Google的GFS

Hadoop的HDFS

 

4 商品的关键字

搜索引擎,淘宝内用

ISearch

 

5 商品的波段性的热点高频信息

内存数据库

tair、Redis、Memcache

6 商品的交易、价格计算、积分累计

外部系统,外部第3方支付接口

支付宝

总结大型互联网应用(大数据、高并发、
多样数据类型)的难点和解决方案

难点

数据类型多样性

数据源多样性和变化重构

数据源改造而数据服务平台不须要大面积重构

自由主题

给学生画图介绍EAI和统一数据平台服务层

解决办法
阿里、淘宝干了什么?UDSL

是什么

 

什么样

映射

API

热点缓存

......

 

 NoSQL数据模型简介

以一个电商客户、订单、订购
、地址模型来对比下关系型
数据库和非关系型数据库

传统的关系型数据库你如何设计?

ER图(1:1/1:N/N:N,主外键等常见)

nosql你如何设计

什么是BSON

BSON()是一种类json的一种二进制形式的存储格式,简称Binary JSON,
它和JSON同样,支持内嵌的文档对象和数组对象

 

给学生用BSon画出构建的数据模型

{
 "customer":{
   "id":1136,
   "name":"Z3",
   "billingAddress":[{"city":"beijing"}],
   "orders":[
    {
      "id":17,
      "customerId":1136,
      "orderItems":[{"productId":27,"price":77.5,"productName":"thinking in java"}],
      "shippingAddress":[{"city":"beijing"}]
      "orderPayment":[{"ccinfo":"111-222-333","txnid":"asdfadcd334","billingAddress":{"city":"beijing"}}],
      }
    ]
  }
}
View Code

二者对比,问题和难点

为何上述的状况能够用聚合模型来处理
高并发的操做是不太建议有关联查询的,
互联网公司用冗余数据来避免关联查询
分布式事务是支持不了太多的并发的

 

 

聚合模型

KV键值

bson

列族

顾名思义,是按列存储数据的。最大的特色是方便存储结构化和半结构化数据,方便作数据压缩,
对针对某一列或者某几列的查询有很是大的IO优点。

 

图形

 

 NoSQL数据库的四大分类

KV键值:典型介绍

新浪:BerkeleyDB+redis

美团:redis+tair

阿里、百度:memcache+redis

 

文档型数据库(bson格式比较多):典型介绍

CouchDB

MongoDB

MongoDB 是一个基于分布式文件存储的数据库。由 C++ 语言编写。旨在为 WEB 应用提供可扩展的高性能数据存储解决方案。


MongoDB 是一个介于关系数据库和非关系数据库之间的产品,是非关系数据库当中功能最丰富,最像关系数据库的。

 

列存储数据库

Cassandra, HBase

分布式文件系统

图关系数据库

社交网络,推荐系统等。专一于构建关系图谱

Neo4J, InfoGrid

四者对比 

 

在分布式数据库中CAP原理CAP+BASE 

 传统的ACID分别是什么

A (Atomicity) 原子性
C (Consistency) 一致性
I (Isolation) 独立性
D (Durability) 持久性

 

 CAP 

C:Consistency(强一致性)
A:Availability(可用性)
P:Partition tolerance(分区容错性)

 

 CAP的3进2

CAP理论就是说在分布式存储系统中,最多只能实现上面的两点。
而因为当前的网络硬件确定会出现延迟丢包等问题,因此


分区容忍性是咱们必须须要实现的。


因此咱们只能在一致性和可用性之间进行权衡,没有NoSQL系统能同时保证这三点。
=======================================================================================================================
C:强一致性 A:高可用性 P:分布式容忍性
 CA 传统Oracle数据库


 AP 大多数网站架构的选择


 CP Redis、Mongodb


 注意:分布式架构的时候必须作出取舍。
一致性和可用性之间取一个平衡。多余大多数web应用,其实并不须要强一致性。
所以牺牲C换取P,这是目前分布式数据库产品的方向
=======================================================================================================================
一致性与可用性的决择


对于web2.0网站来讲,关系数据库的不少主要特性却每每无用武之地


数据库事务一致性需求 
  不少web实时系统并不要求严格的数据库事务,对读一致性的要求很低, 有些场合对写一致性要求并不高。容许实现最终一致性。


数据库的写实时性和读实时性需求
  对关系数据库来讲,插入一条数据以后马上查询,是确定能够读出来这条数据的,可是对于不少web应用来讲,并不要求这么高的实时性,比方说发一条消息之 后,过几秒乃至十几秒以后,个人订阅者才看到这条动态是彻底能够接受的。


对复杂的SQL查询,特别是多表关联查询的需求 
  任何大数据量的web系统,都很是忌讳多个大表的关联查询,以及复杂的数据分析类型的报表查询,特别是SNS类型的网站,从需求以及产品设计角 度,就避免了这种状况的产生。每每更多的只是单表的主键查询,以及单表的简单条件分页查询,SQL的功能被极大的弱化了。
View Code

 经典CAP图 

 CAP理论的核心是:一个分布式系统不可能同时很好的知足一致性,可用性和分区容错性这三个需求,
最多只能同时较好的知足两个。
所以,根据 CAP 原理将 NoSQL 数据库分红了知足 CA 原则、知足 CP 原则和知足 AP 原则三 大类:
CA - 单点集群,知足一致性,可用性的系统,一般在可扩展性上不太强大。
CP - 知足一致性,分区容忍必的系统,一般性能不是特别高。
AP - 知足可用性,分区容忍性的系统,一般可能对一致性要求低一些。
View Code

 

 BASE

BASE就是为了解决关系数据库强一致性引发的问题而引发的可用性下降而提出的解决方案。


BASE实际上是下面三个术语的缩写:
    基本可用(Basically Available)
    软状态(Soft state)
    最终一致(Eventually consistent)


它的思想是经过让系统放松对某一时刻数据一致性的要求来换取系统总体伸缩性和性能上改观。为何这么说呢,原因就在于大型系统每每因为地域分布和极高性能的要求,不可能采用分布式事务来完成这些指标,要想得到这些指标,咱们必须采用另一种方式来完成,这里BASE就是解决这个问题的办法
View Code

 

 分布式+集群简介

分布式系统


分布式系统(distributed system)
 由多台计算机和通讯的软件组件经过计算机网络链接(本地网络或广域网)组成。分布式系统是创建在网络之上的软件系统。正是由于软件的特性,因此分布式系统具备高度的内聚性和透明性。所以,网络和分布式系统之间的区别更多的在于高层软件(特别是操做系统),而不是硬件。分布式系统能够应用在在不一样的平台上如:Pc、工做站、局域网和广域网上等。














简单来说:
1分布式:不一样的多台服务器上面部署不一样的服务模块(工程),他们之间经过Rpc/Rmi之间通讯和调用,对外提供服务和组内协做。


2集群:不一样的多台服务器上面部署相同的服务模块,经过分布式调度软件进行统一的调度,对外提供服务和访问。
 
View Code

Redis入门介绍

入门概述 

1是什么

Redis:REmote DIctionary Server(远程字典服务器)

 

是彻底开源免费的,用C语言编写的,遵照BSD协议,
是一个高性能的(key/value)分布式内存数据库,基于内存运行
并支持持久化的NoSQL数据库,是当前最热门的NoSql数据库之一,
也被人们称为数据结构服务器

 

Redis 与其余 key - value 缓存产品有如下三个特色

Redis支持数据的持久化,能够将内存中的数据保持在磁盘中,重启的时候能够再次加载进行使用
Redis不只仅支持简单的key-value类型的数据,同时还提供list,set,zset,hash等数据结构的存储
Redis支持数据的备份,即master-slave模式的数据备份

 

2 能干吗

内存存储和持久化:redis支持异步将内存中的数据写到硬盘上,同时不影响继续服务

 

取最新N个数据的操做,如:能够将最新的10条评论的ID放在Redis的List集合里面

 

模拟相似于HttpSession这种须要设定过时时间的功能

 

发布、订阅消息系统

 

定时器、计数器

 

3 去哪下

http://redis.io/

http://www.redis.cn/

4 怎么玩

数据类型、基本操做和配置

持久化和复制,RDB/AOF

事务的控制

复制

......

VMWare+VMTools千里之行始于足下

VMWare虚拟机的安装

CentOS或者RedHad5的安装

如何查看本身的linux是32位仍是64位

getconf LONG_BIT
返回是多少就是几位

 

1、启动 redis 服务

[root@MyLinux bin]# ./redis-server redis.conf
2、使用客户端链接服务

[root@MyLinux bin]# ./redis-cli -h 192.168.25.128 -p 6379
3、如何关闭服务端

[root@MyLinux bin]# ./redis-cli shutdown
4、如何退出客户端的链接

192.168.25.128:6379> exit
5、helloworld

192.168.25.128:6379> set str helloworld
 6、取值

192.168.25.128:6379> get str
7、返回值

"helloworld"
View Code

 

 

假如出现了不支持虚拟化的问题

 

个人笔记本cpu是64位的,操做系统也是64位的,问题应该如虚拟机右下角提示所说,

是“宿主机BIOS设置中的硬件虚拟化被禁用了。”
须要打开笔记本BIOS中的IVT对虚拟化的支持。
找到菜单“Security”–“System Security”,
将Virtualization Technology(VTx)和Virtualization Technology DirectedI/O(VTd)设置为 Enabled。
保存并退出BIOS设置,重启电脑,

 

 VMTools的安装

 设置共享目录

上述环境都OK后开始进行Redis的服务器安装配置

 

 

Redis的安装

 Windows版安装

Window 下安装
下载地址:https://github.com/dmajkic/redis/downloads
下载到的Redis支持32bit和64bit。根据本身实际状况选择,将64bit的内容cp到自定义盘符安装目录取名redis。 如 C:\reids
打开一个cmd窗口 使用cd命令切换目录到 C:\redis 运行 redis-server.exe redis.conf 。
若是想方便的话,能够把redis的路径加到系统的环境变量里,这样就免得再输路径了,后面的那个redis.conf能够省略,
若是省略,会启用默认的。输入以后,会显示以下界面:

这时候另启一个cmd窗口,原来的不要关闭,否则就没法访问服务端了。
切换到redis目录下运行 redis-cli.exe -h 127.0.0.1 -p 6379 。
设置键值对 set myKey abc
取出键值对 get myKey
View Code  

重要提示:  

因为企业里面作Redis开发,99%都是Linux版的运用和安装,
几乎不会涉及到Windows版,上一步的讲解只是为了知识的完整性,
Windows版不做为重点,同窗能够下去本身玩,企业实战就认一个版:Linux

Linux版安装

1.下载得到redis-3.0.4.tar.gz后将它放入咱们的Linux目录/opt

2./opt目录下,解压命令:tar -zxvf redis-3.0.4.tar.gz

3.解压完成后出现文件夹:redis-3.0.4

4.进入目录:cd redis-3.0.4

5.在redis-3.0.4目录下执行make命令

运行make命令时故
意出现的错误解析:

安装gcc:

能上网:yum install gcc-c++

不上网:

 

二次make

jemalloc/jemalloc.h:没有那个文件或目录

Redis Test(能够不用执行)

下载TCL的网址:
http://www.linuxfromscratch.org/blfs/view/cvs/general/tcl.html
安装TCL

 

 

6.若是make完成后继续执行make install

 

7.查看默认安装目录:usr/local/bin

redis-benchmark:性能测试工具,能够在本身本子运行,看看本身本子性能如何,服务启动起来后执行

8.redis-check-aof:修复有问题的AOF文件,rdb和aof后面讲

9.redis-check-dump:修复有问题的dump.rdb文件

redis-cli:客户端,操做入口

redis-sentinel:redis集群使用

redis-server:Redis服务器启动命令

 

10.启动

修改redis.conf文件将里面的daemonize no 改为 yes,让服务在后台启动

将默认的redis.conf拷贝到本身定义好的一个路径下,好比/myconf

启动

连通测试

/usr/local/bin目录下运行redis-server,运行拷贝出存放了自定义conf文件目录下的redis.conf文件

 

 

11.永远的helloworld

 

12.关闭

单实例关闭:redis-cli shutdown

多实例关闭,指定端口关闭:redis-cli -p 6379 shutdown

Redis启动后杂项基础知识讲解

 

单进程 

 select命令切换数据库

默认16个数据库,相似数组下表从零开始,初始默认使用零号库

设置数据库的数量,默认数据库为0,能够使用SELECT <dbid>命令在链接上指定数据库id
  databases 16

 

 dbsize查看当前数据库的key的数量

 flushdb:清空当前库

Flushall;通杀所有库 

 统一密码管理,16个库都是一样密码,要么都OK要么一个也链接不上

 Redis索引都是从零开始

 为何默认端口是6379

 

Redis数据类型

 Redis的五大数据类型

string(字符串)

String(字符串)


string是redis最基本的类型,你能够理解成与Memcached如出一辙的类型,一个key对应一个value。


string类型是二进制安全的。意思是redis的string能够包含任何数据。好比jpg图片或者序列化的对象 。


string类型是Redis最基本的数据类型,一个redis中字符串value最多能够是512M

 

hash(哈希,相似java里的Map)

Hash(哈希)
Redis hash 是一个键值对集合。
Redis hash是一个string类型的field和value的映射表,hash特别适合用于存储对象。


相似Java里面的Map<String,Object>

 

list(列表)

List(列表)
Redis 列表是简单的字符串列表,按照插入顺序排序。你能够添加一个元素导列表的头部(左边)或者尾部(右边)。
它的底层实际是个链表

set(集合)

Set(集合)
Redis的Set是string类型的无序集合。它是经过HashTable实现实现的,

 

zset(sorted set:有序集合)

zset(sorted set:有序集合)
Redis zset 和 set 同样也是string类型元素的集合,且不容许重复的成员。
不一样的是每一个元素都会关联一个double类型的分数。
redis正是经过分数来为集合中的成员进行从小到大的排序。zset的成员是惟一的,但分数(score)却能够重复。

 

 

哪里去得到redis常见数据类型操做命令

http://redisdoc.com/

 

Redis 键(key)

经常使用

案例

 keys *

 exists key的名字,判断某个key是否存在

 move key db   --->当前库就没有了,被移除了

 expire key 秒钟:为给定的key设置过时时间

 ttl key 查看还有多少秒过时,-1表示永不过时,-2表示已过时

 type key 查看你的key是什么类型

 

 

 

Redis字符串(String)

经常使用

单值单value

 

案例

 getrange/setrange

getrange:获取指定区间范围内的值,相似between......and的关系
从零到负一表示所有

setrange设置指定区间范围内的值,格式是setrange key值 具体值

 

 setex(set with expire)键秒值/setnx(set if not exist)

setex:设置带过时时间的key,动态设置。
setex 键 秒值 真实值

setnx:只有在 key 不存在时设置 key 的值。

 

 mset/mget/msetnx

mset:同时设置一个或多个 key-value 对。


mget:获取全部(一个或多个)给定 key 的值。


msetnx:同时设置一个或多个 key-value 对,当且仅当全部给定 key 都不存在。
 

 

 getset(先get再set)

getset:将给定 key 的值设为 value ,并返回 key 的旧值(old value)。
简单一句话,先get而后当即set

 

 

Redis列表(List)

经常使用

单值多value

案例

 lpush/rpush/lrange

 lpop/rpop

 lindex,按照索引下标得到元素(从上到下)

经过索引获取列表中的元素 lindex key index

 

 llen

 lrem key 删N个value

 * 从left往right删除2个值等于v1的元素,返回的值为实际删除的数量
 *  LREM list3 0 值,表示删除所有给定的值。零个就是所有值

 

 ltrim key 开始index 结束index,截取指定范围的值后再赋值给key

ltrim:截取指定索引区间的元素,格式是ltrim list的key 起始索引 结束索引

 rpoplpush 源列表 目的列表

移除列表的最后一个元素,并将该元素添加到另外一个列表并返回

 

 lset key index value

 linsert key  before/after 值1 值2

在list某个已有值的先后再添加具体值

性能总结

它是一个字符串链表,left、right均可以插入添加;
若是键不存在,建立新的链表;
若是键已存在,新增内容;
若是值全移除,对应的键也就消失了。
链表的操做不管是头和尾效率都极高,但假如是对中间元素进行操做,效率就很惨淡了。

 

 

 

Redis集合(Set)

经常使用

单值多value

案例

 sadd/smembers/sismember

 

 scard,获取集合里面的元素个数

获取集合里面的元素个数

 

 srem key value 删除集合中元素

 srandmember key 某个整数(随机出几个数)

 *   从set集合里面随机取出2个
 *   若是超过最大数量就所有取出,
 *   若是写的值是负数,好比-3 ,表示须要取出3个,可是可能会有重复值。

 

 spop key 随机出栈

 smove key1 key2 在key1里某个值      做用是将key1里的某个值赋给key2

 

 数学集合类

差集:sdiff

在第一个set里面而不在后面任何一个set里面的项

 

交集:sinter

并集:sunion

Redis哈希(Hash)

 经常使用

KV模式不变,但V是一个键值对 

案例

  hset/hget/hmset/hmget/hgetall/hdel

 hlen

 hexists key 在key里面的某个值的key

 hkeys/hvals

 hincrby/hincrbyfloat

 hsetnx

不存在赋值,存在了无效。

Redis有序集合Zset(sorted set)

多说一句 

在set基础上,加一个score值。
以前set是k1 v1 v2 v3,
如今zset是k1 score1 v1 score2 v2

 

经常使用

 

案例

 zadd/zrange   withscores

 zrem key 某score下对应的value值,做用是删除元素

删除元素,格式是zrem zset的key 项的值,项的值能够是多个

zrem key score某个对应值,能够是多个值

 

 zcard/zcount key score区间/zrank key values值,做用是得到下标值/zscore key 对应值,得到分数

zcard :获取集合中元素个数

zcount :获取分数区间内元素个数,zcount key 开始分数区间 结束分数区间

zrank: 获取value在zset中的下标位置

zscore:按照值得到对应的分数

 

 zrevrank key values值,做用是逆序得到下标值

正序、逆序得到下标索引值

 zrevrange

 zrevrangebyscore  key 结束score 开始score

zrevrangebyscore zset1 90 60 withscores    分数是反着来的

解析配置文件 redis.conf

它在哪

地址

 

为何我将它拷贝出来单独执行?

 

units单位

 

INCLUDES包含

 

GENERAL通用

daemonize

pidfile

port

tcp-backlog

tcp-backlog
设置tcp的backlog,backlog实际上是一个链接队列,backlog队列总和=未完成三次握手队列 + 已经完成三次握手队列。
在高并发环境下你须要一个高backlog值来避免慢客户端链接问题。注意Linux内核会将这个值减少到/proc/sys/net/core/somaxconn的值,因此须要确认增大somaxconn和tcp_max_syn_backlog两个值
来达到想要的效果

timeout

bind 

tcp-keepalive

单位为秒,若是设置为0,则不会进行Keepalive检测,建议设置成60 

loglevel

logfile

syslog-enabled

是否把日志输出到syslog中

syslog-ident

指定syslog里的日志标志

syslog-facility

指定syslog设备,值能够是USER或LOCAL0-LOCAL7

databases

 

SNAPSHOTTING快照

Save

stop-writes-on-bgsave-error

若是配置成no,表示你不在意数据不一致或者有其余的手段发现和控制

 

 rdbcompression

rdbcompression:对于存储到磁盘中的快照,能够设置是否进行压缩存储。若是是的话,redis会采用
LZF算法进行压缩。若是你不想消耗CPU来进行压缩的话,能够设置为关闭此功能

 

 rdbchecksum

rdbchecksum:在存储快照后,还可让redis使用CRC64算法来进行数据校验,可是这样作会增长大约
10%的性能消耗,若是但愿获取到最大的性能提高,能够关闭此功能

 

 dbfilename

 dir

REPLICATION复制

 

SECURITY安全

访问密码的查看、设置和取消

 

查看:

config get requirepass

 

修改:

config set  requirepass “123456

 

登入:

auth 123456

 

 

LIMITS限制

maxclients

设置redis同时能够与多少个客户端进行链接。默认状况下为10000个客户端。当你
没法设置进程文件句柄限制时,redis会设置为当前的文件句柄限制值减去32,由于redis会为自
身内部处理逻辑留一些句柄出来。若是达到了此限制,redis则会拒绝新的链接请求,而且向这
些链接请求方发出“max number of clients reached”以做回应。

maxmemory

设置redis能够使用的内存量。一旦到达内存使用上限,redis将会试图移除内部数据,移除规则能够经过maxmemory-policy来指定。若是redis没法根据移除规则来移除内存中的数据,或者设置了“不容许移除”,
那么redis则会针对那些须要申请内存的指令返回错误信息,好比SET、LPUSH等。


可是对于无内存申请的指令,仍然会正常响应,好比GET等。若是你的redis是主redis(说明你的redis有从redis),那么在设置内存使用上限时,须要在系统中留出一些内存空间给同步队列缓存,只有在你设置的是“不移除”的状况下,才不用考虑这个因素

 

maxmemory-policy

 (1volatile-lru:使用LRU算法移除key,只对设置了过时时间的键
(2)allkeys-lru:使用LRU算法移除key
(3volatile-random:在过时集合中移除随机的key,只对设置了过时时间的键
(4)allkeys-random:移除随机的key
(5volatile-ttl:移除那些TTL值最小的key,即那些最近要过时的key
(6)noeviction:不进行移除。针对写操做,只是返回错误信息

 

maxmemory-samples

设置样本数量,LRU算法和最小TTL算法都并不是是精确的算法,而是估算值,因此你能够设置样本的大小,
redis默认会检查这么多个key并选择其中LRU的那个

 

APPEND ONLY MODE追加

 appendonly

 appendfilename

appendfsync

always:同步持久化 每次发生数据变动会被当即记录到磁盘  性能较差但数据完整性比较好

everysec:出厂默认推荐,异步操做,每秒记录   若是一秒内宕机,有数据丢失

no

 

 

no-appendfsync-on-rewrite:重写时是否能够运用Appendfsync,用默认no便可,保证数据安全性。

 

auto-aof-rewrite-min-size:设置重写的基准值

 

auto-aof-rewrite-percentage:设置重写的基准值

 

 常见配置redis.conf介绍

参数说明
redis.conf 配置项说明以下:
1. Redis默认不是以守护进程的方式运行,能够经过该配置项修改,使用yes启用守护进程
  daemonize no
2. 当Redis以守护进程方式运行时,Redis默认会把pid写入/var/run/redis.pid文件,能够经过pidfile指定
  pidfile /var/run/redis.pid
3. 指定Redis监听端口,默认端口为6379,做者在本身的一篇博文中解释了为何选用6379做为默认端口,由于6379在手机按键上MERZ对应的号码,而MERZ取自意大利歌女Alessia Merz的名字
  port 6379
4. 绑定的主机地址
  bind 127.0.0.1
5.当 客户端闲置多长时间后关闭链接,若是指定为0,表示关闭该功能
  timeout 300
6. 指定日志记录级别,Redis总共支持四个级别:debug、verbose、notice、warning,默认为verbose
  loglevel verbose
7. 日志记录方式,默认为标准输出,若是配置Redis为守护进程方式运行,而这里又配置为日志记录方式为标准输出,则日志将会发送给/dev/null
  logfile stdout
8. 设置数据库的数量,默认数据库为0,能够使用SELECT <dbid>命令在链接上指定数据库id
  databases 16
9. 指定在多长时间内,有多少次更新操做,就将数据同步到数据文件,能够多个条件配合
  save <seconds> <changes>
  Redis默认配置文件中提供了三个条件:
  save 900 1
  save 300 10
  save 60 10000
  分别表示900秒(15分钟)内有1个更改,300秒(5分钟)内有10个更改以及60秒内有10000个更改。
 
10. 指定存储至本地数据库时是否压缩数据,默认为yes,Redis采用LZF压缩,若是为了节省CPU时间,能够关闭该选项,但会致使数据库文件变的巨大
  rdbcompression yes
11. 指定本地数据库文件名,默认值为dump.rdb
  dbfilename dump.rdb
12. 指定本地数据库存放目录
  dir ./
13. 设置当本机为slav服务时,设置master服务的IP地址及端口,在Redis启动时,它会自动从master进行数据同步
  slaveof <masterip> <masterport>
14. 当master服务设置了密码保护时,slav服务链接master的密码
  masterauth <master-password>
15. 设置Redis链接密码,若是配置了链接密码,客户端在链接Redis时须要经过AUTH <password>命令提供密码,默认关闭
  requirepass foobared
16. 设置同一时间最大客户端链接数,默认无限制,Redis能够同时打开的客户端链接数为Redis进程能够打开的最大文件描述符数,若是设置 maxclients 0,表示不做限制。当客户端链接数到达限制时,Redis会关闭新的链接并向客户端返回max number of clients reached错误信息
  maxclients 128
17. 指定Redis最大内存限制,Redis在启动时会把数据加载到内存中,达到最大内存后,Redis会先尝试清除已到期或即将到期的Key,当此方法处理 后,仍然到达最大内存设置,将没法再进行写入操做,但仍然能够进行读取操做。Redis新的vm机制,会把Key存放内存,Value会存放在swap区
  maxmemory <bytes>
18. 指定是否在每次更新操做后进行日志记录,Redis在默认状况下是异步的把数据写入磁盘,若是不开启,可能会在断电时致使一段时间内的数据丢失。由于 redis自己同步数据文件是按上面save条件来同步的,因此有的数据会在一段时间内只存在于内存中。默认为no
  appendonly no
19. 指定更新日志文件名,默认为appendonly.aof
   appendfilename appendonly.aof
20. 指定更新日志条件,共有3个可选值: 
  no:表示等操做系统进行数据缓存同步到磁盘(快) 
  always:表示每次更新操做后手动调用fsync()将数据写到磁盘(慢,安全) 
  everysec:表示每秒同步一次(折衷,默认值)
  appendfsync everysec
 
21. 指定是否启用虚拟内存机制,默认值为no,简单的介绍一下,VM机制将数据分页存放,由Redis将访问量较少的页即冷数据swap到磁盘上,访问多的页面由磁盘自动换出到内存中(在后面的文章我会仔细分析Redis的VM机制)
   vm-enabled no
22. 虚拟内存文件路径,默认值为/tmp/redis.swap,不可多个Redis实例共享
   vm-swap-file /tmp/redis.swap
23. 将全部大于vm-max-memory的数据存入虚拟内存,不管vm-max-memory设置多小,全部索引数据都是内存存储的(Redis的索引数据 就是keys),也就是说,当vm-max-memory设置为0的时候,实际上是全部value都存在于磁盘。默认值为0
   vm-max-memory 0
24. Redis swap文件分红了不少的page,一个对象能够保存在多个page上面,但一个page上不能被多个对象共享,vm-page-size是要根据存储的 数据大小来设定的,做者建议若是存储不少小对象,page大小最好设置为32或者64bytes;若是存储很大大对象,则能够使用更大的page,若是不 肯定,就使用默认值
   vm-page-size 32
25. 设置swap文件中的page数量,因为页表(一种表示页面空闲或使用的bitmap)是在放在内存中的,,在磁盘上每8个pages将消耗1byte的内存。
   vm-pages 134217728
26. 设置访问swap文件的线程数,最好不要超过机器的核数,若是设置为0,那么全部对swap文件的操做都是串行的,可能会形成比较长时间的延迟。默认值为4
   vm-max-threads 4
27. 设置在向客户端应答时,是否把较小的包合并为一个包发送,默认为开启
  glueoutputbuf yes
28. 指定在超过必定的数量或者最大的元素超过某一临界值时,采用一种特殊的哈希算法
  hash-max-zipmap-entries 64
  hash-max-zipmap-value 512
29. 指定是否激活重置哈希,默认为开启(后面在介绍Redis的哈希算法时具体介绍)
  activerehashing yes
30. 指定包含其它的配置文件,能够在同一主机上多个Redis实例之间使用同一份配置文件,而同时各个实例又拥有本身的特定配置文件
  include /path/to/local.conf
View Code

 

redis的持久化

整体介绍

 

RDB(Redis DataBase)

是什么:

在指定的时间间隔内将内存中的数据集快照写入磁盘,
也就是行话讲的Snapshot快照,它恢复时是将快照文件直接读到内存里
Redis会单首创建(fork)一个子进程来进行持久化,会先将数据写入到
一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。
整个过程当中,主进程是不进行任何IO操做的,这就确保了极高的性能
若是须要进行大规模数据的恢复,且对于数据恢复的完整性不是很是敏感,那RDB方
式要比AOF方式更加的高效。RDB的缺点是最后一次持久化后的数据可能丢失。

Fork

fork的做用是复制一个与当前进程同样的进程。新进程的全部数据(变量、环境变量、程序计数器等)
数值都和原进程一致,可是是一个全新的进程,并做为原进程的子进程

rdb 保存的是dump.rdb文件

配置位置

如何触发RDB快照

配置文件中默认的快照配置

冷拷贝后从新使用

能够cp dump.rdb dump_new.rdb

 

命令save或者是bgsave

BGSAVE:Redis会在后台异步进行快照操做,
快照同时还能够响应客户端请求。能够经过lastsave
命令获取最后一次成功执行快照的时间

 

执行flushall命令,也会产生dump.rdb文件,但里面是空的,无心义

 

如何恢复

将备份文件 (dump.rdb) 移动到 redis 安装目录并启动服务便可

 

CONFIG GET dir获取目录

 

优点

适合大规模的数据恢复
对数据完整性和一致性要求不高

劣势

在必定间隔时间作一次备份,因此若是redis意外down掉的话,就
会丢失最后一次快照后的全部修改
fork的时候,内存中的数据被克隆了一份,大体2倍的膨胀性须要考虑

如何中止

动态全部中止RDB保存规则的方法:redis-cli config set save ""

 

小总结

 

 

AOF(Append Only File)

是什么:

以日志的形式来记录每一个写操做,将Redis执行过的全部写指令记录下来(读操做不记录),
只许追加文件但不能够改写文件,redis启动之初会读取该文件从新构建数据,换言之,redis
重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工做

Aof保存的是appendonly.aof文件

 配置位置

 AOF启动/修复/恢复

 正常恢复

 启动:设置Yes异常恢复 

修改默认的appendonly no,改成yes 
将有数据的aof文件复制一份保存到对应目录(config get dir)
恢复:重启redis而后从新加载

 

异常恢复

备份被写坏的AOF文件
修复:redis-check-aof --fix进行修复
恢复:重启redis而后从新加载

rewrite

是什么:

AOF采用文件追加方式,文件会愈来愈大为避免出现此种状况,新增了重写机制,
当AOF文件的大小超过所设定的阈值时,Redis就会启动AOF文件的内容压缩,
只保留能够恢复数据的最小指令集.能够使用命令bgrewriteaof

重写原理

AOF文件持续增加而过大时,会fork出一条新进程来将文件重写(也是先写临时文件最后再rename),
遍历新进程的内存中数据,每条记录有一条的Set语句。重写aof文件的操做,并无读取旧的aof文件,
而是将整个内存中的数据库内容用命令的方式重写了一个新的aof文件,这点和快照有点相似

触发机制

Redis会记录上次重写时的AOF大小,默认配置是当AOF文件大小是上次rewrite后大小的一倍且文件大于64M时触发

优点

每修改同步:appendfsync always   同步持久化 每次发生数据变动会被当即记录到磁盘  性能较差但数据完整性比较好

每秒同步:appendfsync everysec    异步操做,每秒记录   若是一秒内宕机,有数据丢失

不一样步:appendfsync no   从不一样步

劣势

相同数据集的数据而言aof文件要远大于rdb文件,恢复速度慢于rdb
aof运行效率要慢于rdb,每秒同步策略效率较好,不一样步效率和rdb相同

 

 

总结(Which one)

 

 

Redis的事务

是什么

能够一次执行多个命令,本质是一组命令的集合。一个事务中的
全部命令都会序列化,按顺序地串行化执行而不会被其它命令插入,不准加塞

 

能干吗

一个队列中,一次性、顺序性、排他性的执行一系列命令

 

怎么玩

经常使用命令

case1:正常执行

Case2:放弃事务

Case3:全体连坐

Case4:冤头债主

Case5:watch监控

 

悲观锁/乐观锁/CAS(Check And Set)

悲观锁

悲观锁(Pessimistic Lock), 顾名思义,就是很悲观,每次去拿数据的时候都认为别人会修改,
因此每次在拿数据的时候都会上锁,这样别人想拿这个数据就会block直到它拿到锁。
传统的关系型数据库里边就用到了不少这种锁机制,
好比行锁,表锁等,读锁,写锁等,都是在作操做以前先上锁

 

乐观锁

乐观锁(Optimistic Lock), 顾名思义,就是很乐观,每次去拿数据的时候都认为别人不会修改,因此不会上锁,可是在更新的时候会判断一下在此期间别人有没有去更新这个数据,能够使用版本号等机制。乐观锁适用于多读的应用类型,这样能够提升吞吐量,

乐观锁策略:提交版本必须大于记录当前版本才能执行更新

 

CAS

 

初始化信用卡可用余额和欠额

无加塞篡改:

先监控再开启multi,
保证两笔金额变更在同一个事务内

有加塞篡改:

监控了key,若是key被修改了,后面一个事务的执行失效

 unwatch:

一旦执行了exec以前加的监控锁都会被取消掉了

小结:

Watch指令,相似乐观锁,事务提交时,若是Key的值已被别的客户端改变,
好比某个list已被别的客户端push/pop过了,整个事务队列都不会被执行

经过WATCH命令在事务执行以前监控了多个Keys,假若在WATCH以后有任何Key的值发生了变化,
EXEC命令执行的事务都将被放弃,同时返回Nullmulti-bulk应答以通知调用者事务执行失败

 

3阶段

开启:以MULTI开始一个事务
入队:将多个命令入队到事务中,接到这些命令并不会当即执行,而是放到等待执行的事务队列里面

 

执行:由EXEC命令触发事务

 

 

单独的隔离操做:事务中的全部命令都会序列化、按顺序地执行。事务在执行的过程当中,不会被其余客户端发送来的命令请求所打断。

 

3特性

没有隔离级别的概念:队列中的命令没有提交以前都不会实际的被执行,由于事务提交前任何指令都不会被实际执行,
也就不存在”事务内的查询要看到事务里的更新,在事务外查询不能看到”这个让人万分头痛的问题

 

不保证原子性:redis同一个事务中若是有一条命令执行失败,其后的命令仍然会被执行,没有回滚

 

 

Redis的发布订阅

是什么

进程间的一种消息通讯模式:发送者(pub)发送消息,订阅者(sub)接收消息。

 

 订阅/发布消息图:

命令

案列

先订阅后发布后才能收到消息,
1 能够一次性订阅多个,SUBSCRIBE c1 c2 c3


2 消息发布,PUBLISH c2 hello-redis
===========================================================================================================
3 订阅多个,通配符*, PSUBSCRIBE new*
4 收取消息, PUBLISH new1 redis2015
View Code

 

Redis的复制(Master/Slave)

是什么

行话:也就是咱们所说的主从复制,主机数据更新后根据配置和策略,
自动同步到备机的master/slaver机制,Master以写为主,Slave以读为主

能干吗

读写分离
容灾恢复
配从(库)不配主(库)

 

怎么玩

从库配置:slaveof 主库IP 主库端口:
每次与master断开以后,都须要从新链接,除非你配置进redis.conf文件


info replication

 

 

修改配置文件细节操做:
info replication
拷贝多个redis.conf文件
开启daemonize yes
pid文件名字
指定端口
log文件名字
dump.rdb名字

 

经常使用3招

一主二仆

Init
一个Master两个Slave
日志查看
主从问题演示:

1 切入点问题?slave一、slave2是从头开始复制仍是从切入点开始复制?好比从k4进来,那以前的123是否也能够复制

2 从机是否能够写?set能否?

3 主机shutdown后状况如何?从机是上位仍是原地待命

4 主机又回来了后,主机新增记录,从机还可否顺利复制?

5 其中一台从机down后状况如何?依照原有它能跟上大部队吗?

 

薪火相传

上一个Slave能够是下一个slave的Master,Slave一样能够接收其余
slaves的链接和同步请求,那么该slave做为了链条中下一个的master,
能够有效减轻master的写压力


中途变动转向:会清除以前的数据,从新创建拷贝最新的


slaveof 新主库IP 新主库端口

 

反客为主

SLAVEOF no one
使当前数据库中止与其余数据库的同步,转成主数据库

 

 

复制原理

slave启动成功链接到master后会发送一个sync命令

 

Master接到命令启动后台的存盘进程,同时收集全部接收到的用于修改数据集命令,
在后台进程执行完毕以后,master将传送整个数据文件到slave,以完成一次彻底同步

 

 

全量复制:而slave服务在接收到数据库文件数据后,将其存盘并加载到内存中。

 

 

增量复制:Master继续将新的全部收集到的修改命令依次传给slave,完成同步

 

 

可是只要是从新链接master,一次彻底同步(全量复制)将被自动执行

 

 

 

哨兵模式(sentinel)

是什么

反客为主的自动版,可以后台监控主机是否故障,若是故障了根据投票数自动将从库转换为主库

怎么玩(使用步骤)

调整结构,6379带着80、81

 

自定义的/myredis目录下新建sentinel.conf文件,名字毫不能错

 

配置哨兵,填写内容:
 sentinel monitor 被监控数据库名字(本身起名字) 127.0.0.1 6379 1

上面最后一个数字1,表示主机挂掉后salve投票看让谁接替成为主机,得票数多少后成为主机
启动哨兵:
redis-sentinel /myredis/sentinel.conf 
上述目录依照各自的实际状况配置,可能目录不一样

正常主从演示

原有的master挂了
投票新选
从新主从继续开工,info replication查查看
问题:若是以前的master重启回来,会不会双master冲突?

 

 

复制的缺点

复制延时

因为全部的写操做都是先在Master上操做,而后同步更新到Slave上,因此从Master同步到Slave机器有必定的延迟,当系统很繁忙的时候,延迟问题会更加严重,Slave机器数量的增长也会使这个问题更加严重。

Redis的Java客户端Jedis

安装JDK

 tar -zxvf jdk-7u67-linux-i586.tar.gz
 vi /etc/profile
重启一次Centos
编码验证

 

安装eclipse

 

Jedis所须要的jar包

commons-pool-1.6.jar
jedis-2.1.0.jar

 

 

Jedis经常使用操做

前提是你已经把redis的端口放到了防火墙计划中,

 /sbin/iptables -I INPUT -p tcp --dport 6379 -j ACCEPT

 /etc/rc.d/init.d/iptables save
1
2
3
更改redis.conf 文件

bind 127.0.0.1

protected-mode yes
1
2
3
更改成

# bind 127.0.0.1

protected-mode no
1
2
3
而后重启redis, 
前提是你如今已经运行着redis呢 
关闭redis

# redis-cli shutdown
1
redis-cli是你的安装路径, 即 make install的时候, 你会指定一个路径, 
重启redis

redis-server /opt/local/redis/redis-4.0.6/redis.conf
1
redis-server 一样也是安装路径下的. 
这样设置外网访问就成功了.
设置外网访问

 

测试连通性

public class Demo01 {
  public static void main(String[] args) {
    //链接本地的 Redis 服务
    Jedis jedis = new Jedis("127.0.0.1",6379);
    //查看服务是否运行,打出pong表示OK
    System.out.println("connection is OK==========>: "+jedis.ping());
  }
}

5+1

一个key
五大数据类型

事务提交

平常:
package com.atguigu.redis.test;


import redis.clients.jedis.Jedis;
import redis.clients.jedis.Response;
import redis.clients.jedis.Transaction;


public class Test03 
{
  public static void main(String[] args) 
  {
     Jedis jedis new Jedis("127.0.0.1",6379);
     
     //监控key,若是该动了事务就被放弃
     /*3
     jedis.watch("serialNum");
     jedis.set("serialNum","s#####################");
     jedis.unwatch();*/
     
     Transaction transaction = jedis.multi();//被看成一个命令进行执行
     Response<String> response = transaction.get("serialNum");
     transaction.set("serialNum","s002");
     response = transaction.get("serialNum");
     transaction.lpush("list3","a");
     transaction.lpush("list3","b");
     transaction.lpush("list3","c");
     
     transaction.exec();
     //2 transaction.discard();
     System.out.println("serialNum***********"+response.get());
          
  }
}

 

加锁

public class TestTransaction {


  public boolean transMethod() {
     Jedis jedis new Jedis("127.0.0.1", 6379);
     int balance;// 可用余额
     int debt;// 欠额
     int amtToSubtract = 10;// 实刷额度


     jedis.watch("balance");
     //jedis.set("balance","5");//此句不应出现,讲课方便。模拟其余程序已经修改了该条目
     balance = Integer.parseInt(jedis.get("balance"));
     if (balance < amtToSubtract) {
       jedis.unwatch();
       System.out.println("modify");
       return false;
     } else {
       System.out.println("***********transaction");
       Transaction transaction = jedis.multi();
       transaction.decrBy("balance", amtToSubtract);
       transaction.incrBy("debt", amtToSubtract);
       transaction.exec();
       balance = Integer.parseInt(jedis.get("balance"));
       debt = Integer.parseInt(jedis.get("debt"));


       System.out.println("*******" + balance);
       System.out.println("*******" + debt);
       return true;
     }
  }


  /**
   * 通俗点讲,watch命令就是标记一个键,若是标记了一个键, 在提交事务前若是该键被别人修改过,那事务就会失败,这种状况一般能够在程序中
   * 从新再尝试一次。
   * 首先标记了键balance,而后检查余额是否足够,不足就取消标记,并不作扣减; 足够的话,就启动事务进行更新操做,
   * 若是在此期间键balance被其它人修改, 那在提交事务(执行exec)时就会报错, 程序中一般能够捕获这类错误再从新执行一次,直到成功。
   */
  public static void main(String[] args) {
     TestTransaction test new TestTransaction();
     boolean retValue = test.transMethod();
     System.out.println("main retValue-------: " + retValue);
  }
}

 

 

主从复制

主写

从读

JedisPool

获取Jedis实例须要从JedisPool中获取

 

用完Jedis实例须要返还给JedisPool
若是Jedis在使用过程当中出错,则也须要还给JedisPool

 

 

案例见代码:

package com.atguigu.redis.test;


import redis.clients.jedis.Jedis;
import redis.clients.jedis.JedisPool;
import redis.clients.jedis.JedisPoolConfig;


public class JedisPoolUtil {
  
 private static volatile JedisPool jedisPool = null;//被volatile修饰的变量不会被本地线程缓存,对该变量的读写都是直接操做共享内存。
  
  private JedisPoolUtil() {}
  
  public static JedisPool getJedisPoolInstance()
 {
     if(null == jedisPool)
    {
       synchronized (JedisPoolUtil.class)
      {
          if(null == jedisPool)
         {
           JedisPoolConfig poolConfig new JedisPoolConfig();
           poolConfig.setMaxActive(1000);
           poolConfig.setMaxIdle(32);
           poolConfig.setMaxWait(100*1000);
           poolConfig.setTestOnBorrow(true);
            
            jedisPool new JedisPool(poolConfig,"127.0.0.1");
         }
      }
    }
     return jedisPool;
 }
  
  public static void release(JedisPool jedisPool,Jedis jedis)
 {
     if(null != jedis)
    {
      jedisPool.returnResourceObject(jedis);
    }
 }
}
 
JedisPoolUtil
package com.atguigu.redis.test;


import redis.clients.jedis.Jedis;
import redis.clients.jedis.JedisPool;


public class Test01 {
  public static void main(String[] args) {
     JedisPool jedisPool = JedisPoolUtil.getJedisPoolInstance();
     Jedis jedis null;
     
     try 
     {
       jedis = jedisPool.getResource();
       jedis.set("k18","v183");
       
     } catch (Exception e) {
       e.printStackTrace();
     }finally{
       JedisPoolUtil.release(jedisPool, jedis);
     }
  }
}
 
Demo5
jedisPool.getResource();

配置总结all

JedisPool的配置参数大部分是由JedisPoolConfig的对应项来赋值的。


maxActive:控制一个pool可分配多少个jedis实例,经过pool.getResource()来获取;若是赋值为-1,则表示不限制;若是pool已经分配了maxActive个jedis实例,则此时pool的状态为exhausted。
maxIdle:控制一个pool最多有多少个状态为idle(空闲)的jedis实例;
whenExhaustedAction:表示当pool中的jedis实例都被allocated完时,pool要采起的操做;默认有三种。
 WHEN_EXHAUSTED_FAIL --> 表示无jedis实例时,直接抛出NoSuchElementException;
 WHEN_EXHAUSTED_BLOCK --> 则表示阻塞住,或者达到maxWait时抛出JedisConnectionException;
 WHEN_EXHAUSTED_GROW --> 则表示新建一个jedis实例,也就说设置的maxActive无用;
maxWait:表示当borrow一个jedis实例时,最大的等待时间,若是超过等待时间,则直接抛JedisConnectionException;
testOnBorrow:得到一个jedis实例的时候是否检查链接可用性(ping());若是为true,则获得的jedis实例均是可用的;


testOnReturn:return 一个jedis实例给pool时,是否检查链接可用性(ping());


testWhileIdle:若是为true,表示有一个idle object evitor线程对idle object进行扫描,若是validate失败,此object会被从pool中drop掉;这一项只有在timeBetweenEvictionRunsMillis大于0时才有意义;


timeBetweenEvictionRunsMillis:表示idle object evitor两次扫描之间要sleep的毫秒数;


numTestsPerEvictionRun:表示idle object evitor每次扫描的最多的对象数;


minEvictableIdleTimeMillis:表示一个对象至少停留在idle状态的最短期,而后才能被idle object evitor扫描并驱逐;这一项只有在timeBetweenEvictionRunsMillis大于0时才有意义;


softMinEvictableIdleTimeMillis:在minEvictableIdleTimeMillis基础上,加入了至少minIdle个对象已经在pool里面了。若是为-1,evicted不会根据idle time驱逐任何对象。若是minEvictableIdleTimeMillis>0,则此项设置无心义,且只有在timeBetweenEvictionRunsMillis大于0时才有意义;


lifo:borrowObject返回对象时,是采用DEFAULT_LIFO(last in first out,即相似cache的最频繁使用队列),若是为False,则表示FIFO队列;


==================================================================================================================
其中JedisPoolConfig对一些参数的默认设置以下:
testWhileIdle=true
minEvictableIdleTimeMills=60000
timeBetweenEvictionRunsMillis=30000
numTestsPerEvictionRun=-1
View Code

 

timeout
客户端超过多少秒空闲后关闭(0是禁止此功能),若是小于0启动失败
tcp-keepalive
用于检测tcp链接是否还存活,建议设置300(单位是秒),若是小于0启动失败
protected-mode
当设置为yes后,若是没有经过bind设置address以及没有设置password,那么redis只接受来loopback address 127.0.0.1和::1的链接和unix domain socket
port
制定监听端口(若是设置0,redis不会在tcp socket监听,若是设置小于0或者大于65535启动失败)
tcp-backlog
tcp监听队列长度,若是大于/proc/sys/net/core/somaxconn,会取/proc/sys/net/core/somaxconn的值,因此调高此值的时候应该关注/proc/sys/net/ipv4/tcp_max_syn_backlog和/proc/sys/net/core/somaxconn的值
若是小于0启动失败
bind
绑定网络接口,默认接受来自全部网络接口的链接
能够绑定多个,最多同时绑定16个
unixsocket
制定用于监听l链接的unix socket的路径,没有默认值
unixsocketperm
unixsocket path的权限,不能大于777
save
1 save 900 1 格式
在900秒内有1个key改变了则执行save
2 save "" 格式
以前的save 配置无效
dir
数据库存储的目录,必须是有效而且存在的目录
loglevel
日志级别,取值范围debug,verbose,notice,warning
logfile
日志文件名
always-show-logo
老是显示logo
syslog-enabled
启用写入日志到system logger
syslog-ident
syslog的identity
syslog-facility
syslog的facility,取值范围,user,local0-local7
databases
database数量,若是小于1则启动失败
include
加载其余配置文件
maxclients
同时最大的链接数,默认10000,若是小于1启动失败
maxmemory
最大使用内存,超过则触发内存策略
maxmemory-policy
取值范围
1 volatile-lru 在设置了过时的key中经过lfu算法查找key淘汰
2 volatile-lfu 在全部key中经过lru算法查找key淘汰
3 volatile-random 在设置了过时的key中随机查找key淘汰
4 volatile-ttl 最近要超时的key淘汰
5 allkeys-lru 全部key经过lru算法查找key淘汰
6 allkeys-lfu 全部key经过lfu算法查找key淘汰
7 allkeys-random 全部key随机查找key淘汰
8 noeviction 不淘汰,对于写操做返回错误
maxmemory-samples
lru,lfu会对这个数量的key进行检查,设置太高会消耗cpu,若是小于0则启动失败
proto-max-bulk-len
批量请求的大小限制
client-query-buffer-limit
客户端查询缓存大小限制,若是multi/exec 大能够考虑调节
lfu-log-factor
小于0则启动失败
lfu-decay-time
小于0则启动失败
slaveof/replicaof
配置主机复制的主ip和端口
replicaof ip port
repl-ping-slave-period/repl-ping-replica-period
从发给主的心跳周期,若是小于0则启动失败
repl-timeout
多少秒没收到心跳的响应认为超时,最好设置的比 repl-ping-slave-period/repl-ping-replica-period大
若是小于0则启动失败
repl-disable-tcp-nodelay
是否禁用tcp-nodelay,若是设置yes,会致使主从同步有40ms滞后(linux默认),若是no,则主从同步更及时
repl-diskless-sync
以往主从复制是生成rdb文件,而后传输给从节点,配置成yes后能够不进行写磁盘直接进行复制,适用于磁盘慢网络带宽大的场景
repl-diskless-sync-delay
让主节点等待更多从节点来同时复制,设置太小,复制时来的从节点必须等待下一次rdb transfer
单位秒,若是小于0则启动失败
repl-backlog-size
复制积压大小,解决复制过程当中从节点重连后不须要full sync,这个值越大,那么从节点断开到重连的时间就能够更长
repl-backlog-ttl
复制积压的生命期,超过多长时间从节点还没重连,则释放内存
masterauth
主从复制的认证
slave-serve-stale-data/replica-serve-stale-data
默认yes
当从节点和主节点的链接断开或者复制正在进行中
设置yes,那么继续提供服务
设置no,那么返回sync with master in progress
slave-read-only/replica-read-only
配置从节点是否只读,可是配置的修改仍是能够的
slave-ignore-maxmemory/replica-ignore-maxmemory
从节点是否忽略maxmemory配置,默认yes
rdbcompression
压缩string 对象,可是会消耗cpu,能够设置为no
rdbchecksum
是否检查rdbchecksum,默认yes,能够设置no
activerehashing
默认每1秒10次消耗1ms来作rehashing来释放内存,会增长请求的延时,若是你对延时敏感,则设置no,默认yes
lazyfree-lazy-eviction
默认no,那么redis是同步释放内存,也就是中止完成其余请求来作释放内存操做,若是遇到key复杂度很大时(0(n))的会增长请求延时
若是yes,那么则先删除dict中的key,而后把释放内存的任务提交给后台线程作
lazyfree-lazy-expire
默认no,那么redis是同步删除过时key,也就是中止完成其余请求来作删除过时key,若是遇到key复杂度很大时(0(n))的会增长请求延时
若是yes,把删除key的任务提交给后台线程作
lazyfree_lazy_server-del
默认no,那么redis是同步删除key,也就是中止完成其余请求来作删除key,若是遇到key复杂度很大时(0(n))的会增长请求延时
若是yes,那么则先删除dict中的key,而后把删除key的任务提交给后台线程作(若是key很小则暂时不删除,只是减小了引用)
slave-lazy-flush/replica-lazy-flush
默认no,那么redis是同步清空数据库,也就是中止完成其余请求来作清空数据库,若是遇到数据库很大会增长请求延时
若是yes,那么则新建dict等数据结构,而后把清空数据库提交给后台线程作
activedefrag
若是你遇到内存碎片的问题,那么设置为yes,默认no
daemonize
是否以守护进程运行,默认no
hash-max-ziplist-entries
hash中的项数量小于或等于这个值使用ziplist
超过这个值使用hash
dynamic-hz
设置yes,则根据客户端链接数能够自动调节hz
hz
调节可让redis再空闲时间更多的作一些任务(如关闭超时客户端等)
appendonly
是否开启aof
appendfilename
aof文件名
no-appendfsync-on-rewrite
设置yes后,若是有保存的进程在执行,则不执行aof的appendfsync策略的fsync
appendfsync
执行fynsc的策略
取值范围:
1 everysec 每秒执行sync
2 always 等到下次执行beforeslee时执行fsync
3 no 不执行fsync
设置always每每比较影响性能,可是数据丢失的风险最低
通常推荐设置everysec
auto-aof-rewrite-percentage
相对于上次aof文件大小的增加百分好比果超过这个值,则重写aof
auto-aof-rewrite-min-size
自动重写aof文件的最小大小,比 auto-aof-rewrite-percentage优先级高
aof-rewrite-incremental-fsync
设置yes,则每32mb 执行fsync一次(增量式,避免一次性大写入致使的延时)
设置no,则一次性fsync
rdb-save-incremental-fsync
设置yes,则每32mb 执行fsync一次(增量式,避免一次性大写入致使的延时)
设置no,则一次性fsync
aof-load-truncated
加入aof文件被截断了
1 设置yes,redis能够启动而且显示日志告知这个信息
2 设置no,redis启动失败,显示错误
aof-use-rdb-preamble
aof前部分用rdb,后面保存时缓存的命令仍是用aof格式
优势:保存和恢复更快
设置yes开启
requirepass
用于在客户端执行命令前,要求执行 auth password
pidfile
存储redis pid的文件,redis启动后建立,退出后删除
dbfilename
rdb文件名
active_defrag_threshold_upper
开启内存碎片整理的最小内存碎片百分比
小于0或者大于1000则启动失败
active_defrag_threshold_upper
内存碎片百分比超过这个值,则使用active-defrag-cycle-max
小于0或者大于1000则启动失败
active-defrag-ignore-bytes
开启内存碎片整理的最小内存碎片字节数
若是小于等于0则启动失败
active-defrag-cycle-max
最小努力cpu百分比,用来作内存碎片整理
若是小于1或者大于99则启动失败
active-defrag-cycle-min
最大努力cpu百分比,用来作内存碎片整理
若是小于1或者大于99则启动失败
active-defrag-max-scan-fields
用于主动的内存碎片整理的set/hash/zset/list 中的最大数量的项
若是小于1,启动失败
hash-max-ziplist-value
hash 中的项大小小于或等于这个值使用ziplist
超过这个值使用hash
stream-node-max-bytes
stream 的最大内存开销字节数
stream-node-max-entries
stream 的最大项数量
list-max-ziplist-size
负值表示节点大小
-5 每一个list节点大小不能超过64 Kb
-4 每一个list节点大小不能超过32 Kb
-3 每一个list节点大小不能超过16 Kb
-2 每一个list节点大小不能超过8 Kb
-1 每一个list节点大小不能超过4 Kb
推荐-1,-2
正值表示节点数量
知足设置的值,则使用ziplist表示,节约内存
超过设置的值,则使用普通list
list-compress-depth
不压缩quicklist 距离首尾节点小于等于这个值的ziplist节点
默认首尾节点不压缩,
设置为1
head->next->...->prev->tail
不压缩next,prev,以此类推
0表示都不压缩
set-max-intset-entries
当set 的元素数量小于这个值且元素能够用int64范围的整型表示时,使用inset,节约内存
大于或者元素没法用int64范围的整型表示时用set表示
zset-max-ziplist-entries
当sorted set 的元素数量小于这个值时,使用ziplist,节约内存
大于这个值zset表示
zset-max-ziplist-value
当sorted set 的元素大小小于这个值时,使用ziplist,节约内存
大于这个值zser表示
hll-sparse-max-bytes
大于这个值,hyperloglog使用稠密结构
小于等于这个值,使用稀疏结构
大于16000无心义,建议设置3000
rename-command
重命名命令,建议重命名一些敏感的命令(如flushall,flushdb)
cluster-enabled
开启集群模式
cluster-config-file
集群配置文件名
cluster-announce-ip
集群的节点的汇报ip,防止nat
cluster-announce-port
集群的节点的汇报port,防止nat
cluster-announce-bus-port
集群的节点的汇报bus-port,防止nat
cluster-require-full-coverage
默认若是不是全部slot已经分配到节点,那么集群没法提供服务
设置为no,则能够提供服务
cluster-node-timeout
认为集群节点失效状态的时间
若是小于0则启动失败
cluster-migration-barrier
当存在孤立主节点后(没有从节点),其余从节点会迁移做为这个孤立的主节点的从节点(前提是这个从节点以前的主节点至少还有这个数额个从节点)
不建议设置为0
想禁用能够设置一个很是大的值
若是小于0则启动失败
cluster-slave-validity-factor
若是从节点和master距离上一次通讯超过 (node-timeout * replica-validity-factor) + repl-ping-replica-period时间,则没有资格失效转移为master
若是小于0则启动失败
cluster-slave-no-failover/cluster-replica-no-failover
在主节点失效期间,从节点不容许对master失效转移
取值yes,no
lua-time-limit
lua脚本的最大执行时间,超过这个时间后,恢复客户端的查询错误
0或者负数则无限制
slowlog-log-slower-than
执行命令大于这个值计入慢日志
若是设置为0,则全部命令所有记录慢日志
单位毫秒
latency-monitor-threshold
为了收集可能致使延时的数据根源,redis延时监控系统在运行时会采样一些操做
经过 LATENCY命令 能够打印一些图样和获取一些报告
这个系统仅仅记录那个执行时间大于或等于经过latency-monitor-threshold配置来指定的
当设置为0时这个监控系统关闭
单位毫秒
slowlog-max-len
最大的慢日志条数,这个会占用内存的
能够经过slowlog reset来释放内存
能够经过slowlog len来查看当前条数
client-output-buffer-limit
0则无限制
格式client-output-buffer-limit <class> <hard limit> <soft limit> <soft seconds>
client-output-buffer达到hard limit或者保持超过soft limit 持续sof seconds则断开链接
class 分为3种
1 normal 普通客户端包裹monitor客户端
2 replica 从节点
2 pubsub 至少pubsub一个channel或者pattern的客户端
stop-writes-on-bgsave-error
basave错误后是否中止接受写请求
slave-priority/replica-priority
当master不在工做后,从节点提高为master的优先级,0则不会提高为master
越小优先级越高
slave-announce-ip/replica-announce-ip
从节点上报给master的本身ip,防止nat问题
slave-announce-port/replica-announce-port
从节点上报给master的本身port,防止nat问题
min-slaves-to-write
最少从节点数,不知足min-slaves-to-write个 低于min-slaves-max-lag/min-replicas-max-lag时间的从节点,master不在接受写请求
若是小于0则启动失败
默认0,也就是禁用状态
min-slaves-max-lag/min-replicas-max-lag
最大从节点的落后时间,不知足min-slaves-to-write个 低于这个时间的从节点,master不在接受写请求
若是小于0则启动失败
notify-keyspace-events
取值范围(能够多个一块儿)
K     Keyspace events, published with keyspace@<db> prefix.
E     Keyevent events, published with keyevent@<db> prefix.
g     Generic commands (non-type specific) like DEL, EXPIRE, RENAME,
$    String commands
l     List commands
s     Set commands
h     Hash commands
z     Sorted set commands
x     Expired events (events generated every time a key expires)
e     Evicted events (events generated when a key is evicted for maxmemory)
A     Alias for  g$lshzxe , so that the "AKE" string means all the events.
supervised
默认no
supervised no - 没有监督互动
supervised upstart - 经过将Redis置于SIGSTOP模式来启动信号
supervised systemd - signal systemd将READY = 1写入$ NOTIFY_SOCKET
supervised auto - 检测upstart或systemd方法基于 UPSTART_JOB或NOTIFY_SOCKET环境变量
sentinel monitor
格式sentinel monitor <master-name> <ip> <redis-port> <quorum>
如sentinel monitor mymaster 127.0.0.1 6379 2
告知sentinel监控这个ip和redis-port端口的redis,当至少达到quorum数量的sentinel赞成才认为他客观离线(O_DOWN)
sentinel down-after-milliseconds
格式sentinel down-after-milliseconds <master-name> <milliseconds>
附属的从节点或者sentinel和他超过milliseconds时间没有达到,则主观离线(S_DOWN)
sentinel failover-timeout
格式 sentinel failover-timeout <master-name> <milliseconds>
用在不少方面:
1 距离被一个给定的Sentiel对同一个master进行过failedover的上一次的时间是此设置值的2倍
2 从从节点根据sentinel当前配置复制一个错误的主节点到复制新的主节点的时间须要的时间(从sentinel检测到配置错误起计算)
3 取消一个在进行中可是尚未产生配置变化(slave of no one尚未被提高的从节点确认)的failover须要的时间
4  进行中的failover等待全部从节点 从新配置为新master的从节点的最大时间.然而 虽然在这个时间后全部从节点将被sentinel从新配置,但并非指定的正确的parallel-syncs 过程
sentinel parallel-syncs
格式 sentinel parallel-syncs <master-name> <numreplicas>
制定多少个从节点能够在failover期间同时配置到新的主节点.若是你用从节点服务查询,那么使用一个较低的值来避免全部的从节点都不可达,切好此时他们在和主节点同步
sentinel notification-script
格式  sentinel notification-script <master-name> <script-path>
对任何生成的在WARNING 级别的sentinel 事件会调用这通知脚本(例如sdown,odown等)
这个脚本应该经过email,sms等其余消息系统通知系统管理员监控的redis系统有错
调用这个脚本带有2个参数,第一个是事件类型,第二个是事件描述
若是这个选项设置的话这个脚本必须存在
sentinel client-reconfig-script
格式sentinel client-reconfig-script <master-name> <script-path>
当主节点因为failover改变,一个脚本能够执行,用于执行通知客户端配置改变了主节点在不一样地址的特定应用的任务。
下面的参数将传递给这个脚本
<master-name> <role> <state> <from-ip> <from-port> <to-ip> <to-port>
state当前老是failover
role不是leader就是observer
从from-ip,from-port,to-ip,to-port 用于和旧主节点和被选举的节点(当前主节点)通讯的地址
这个脚本是能够被屡次调用的
auth-pass
格式  sentinel auth-pass <master-name> <password>
设置用于和主节点以及从节点通讯的密码.若是在监控redis实例中有密码的话是有用的
注意这个主节点密码一样用于从节点,因此给主节点和从节点实例设置不一样的密码是不可能的
而后你能够拥有不开启认证的redis实例和须要认证的redis实例混合(只要须要密码的redis实例密码设置同样)
由于当认证关闭时,auth 命令将在redis实例中无效
SENTINEL rename-command
如 SENTINEL rename-command mymaster CONFIG GUESSME
有时,redis服务 有些sentinel工做正常须要的命令,重命名为猜不到的字符串.一般是在提供者提供redis做为服务并且不但愿客户从新配置在管理员控制台外修改配置的场景中的config,slaveof,
在这个状况,告诉sentinel使用不一样的命令名字而不是常规的是可能的.
sentinel announce-ip
格式 sentinel announce-ip <ip>
在nat环境下是有用的
sentinel announce-port
格式sentinel announce-port <port>
在nat环境下是有用的
sentinel deny-scripts-reconfig
格式sentinel deny-scripts-reconfig yes
默认sentinel set 在运行期是不能改变notification-script和 client-reconfig-script .
这个避免一些细小的安全问题,在这里客户端能够设置脚本为任何东西并且触发一个failover用于让这个程序执行

做者:wwq1988
连接:https://www.jianshu.com/p/85115435fd24
来源:简书
简书著做权归做者全部,任何形式的转载都请联系做者得到受权并注明出处。
redis 配置总结
相关文章
相关标签/搜索