Ø YUM包管理器html
Ø Root或sudo权限java
Ø JRE6或者JRE7node
Ø JNA(Java native Access)(生产环境须要)python
Ø 安装配置JRE(略)git
Ø 添加软件包仓库到YUM的软件库github
将如下内容添加进/etc/yum.repos.d/datastax.repo文件便可:web
[datastax]数据库
name = DataStax Repo for ApacheCassandraapache
baseurl =http://rpm.datastax.com/community编程
enabled = 1
gpgcheck = 0
Ø 安装2.0版最新的软件包
$ sudo yuminstall dsc20
Ø 安装JNA
$ sudo yuminstall jna
通过上述步骤即安装好了Cassandra,随后即可对其进行配置。以此方式安装的Cassandra会建立一个名为cassandra的用户,cassandra以此用户启动服务。
Ø JRE6或者JRE7
Ø JNA(Java native Access) (生产环境须要)
Ø 安装配置JRE(略)
Ø 下载Cassandra二进制 tarball
由http://planetcassandra.org/Download/StartDownload页面手工下载对应版本的Cassandra,或者经过curl -OLhttp://downloads.datastax.com/community/dsc.tar.gz命令自动下载最新的DataStaxCommunity,也可由http://cassandra.apache.org/download/页面手工下载对应版本。
Ø 解压tarball
tar –xzvf dsc-cassandra-2.0.0-bin.tar.gz
根据下载的版本也多是:tar –xzvf apache-cassandra-2.0.0-bin.tar.gz
Ø 安装配置JNA
² 下载jna.jar(https://github.com/twall/jna/ )。
² 将下载的jna.jar添加进Cassandra安装目录的lib目录下或将其添加进CLASSPATH环境变量中
² 在/etc/security/limits.conf文件中加入以下行:
$USER soft memlock unlimited
$USER hard memlock unlimited
其中$USER为运行cassandra的用户
Ø 建立数据目录和日志目录并指定给用于运行cassandra服务的具备相应读写权限的用户
$ sudo mkdir/var/lib/cassandra
$ sudo mkdir/var/log/cassandra
$ sudo chown-R $USER: $GROUP /var/lib/cassandra
$ sudo chown-R $USER: $GROUP /var/log/Cassandra
Cassandra配置文件中默认使用上述目录分别做为数据目录和日志目录,可建立不一样的目录,赋予对应的权限,并在配置文件中从新指定以改变默认行为。
至此已安装好了Cassandra,随后即可对其进行配置。
Cassandra的主配置文件为cassandra.yaml,其位置随Cassandra安装方式不一样而不一样。
Ø 对于CassandraPackage安装:/etc/cassandra/conf
Ø 对于CassandraBinary安装:<install_location>/conf
Ø 对于DataStaxEnterprise Packaged安装:/etc/dse/cassandra
Ø 对于DataStaxEnterpriseBinary安装:<install_location>/resources/cassandra/conf
配置文件中的配置参数被分为以下几个组
Ø Initialization properties:控制集群内的节点如何配置,包括节点间通信,数据分区及复制布置。
Ø Global row and key caches properties:用于缓存表的参数的配置参数。
Ø Performance tuning properties:调整性能和系统资源的利用,包括内存、磁盘I/O、CPU、读和写。
Ø Binary and RPC protocol timeout properties:用于二进制协议的超时设置。
Ø Remote procedure call tuning(RPC)properties:用于配置和调整RPCs(客户端链接)
Ø Fault detection properties:用于处理运行状况较差或者失败的节点。
Ø Automatic backup properties:用于自动化备份。
Ø Security properties:用于服务器端和客户端的安全设置
每一个组包都含若干具体的参数(具体内容可参考:http://www.datastax.com/documentation/cassandra/1.2/webhelp/index.html#cassandra/configuration/configCassandra_yaml_r.html)
例如,对于新安装的Cassandra可能会修改配置文件中的下面几个参数
Ø data_file_directories:数据目录,对于包方式(如deb或rpm)安装的Cassandra,该目录会在安装过程当中自动建立并具备正确的权限,默认位置为/var/lib/cassandra/data。
Ø commitlog_directory:commit log目录,对于包方式安装的Cassandra,该目录会在安装过程当中自动建立并具备正确的权限,默认位置为/var/lib/cassandra/commitlog。
Ø saved_caches_directory:保存的缓存目录,对于包方式安装的Cassandra,该目录会在安装过程当中自动建立并具备正确的权限,默认位置为/var/lib/cassandra/saved_caches。
若是以二进制方式或源码方式安装Cassandra需自行建立相应目录,赋予正确的权限。又或者不想使用默认的位置,也能够自行建立新的目录,赋予正确的权限,并在配置文件中指定。好比:
data_file_directories:/data/cassandra/data
commitlog_directory:/data/cassandra/commitlog
saved_caches_directory:/data/cassandra/saved_caches
另外,对于包方式安装的Cassandra,还会在安装过程当中自动建立/var/log/cassandra目录并赋予正确的权限。默认状况下Cassandra将其日志写进该目录的system.log文件中。可经过修改log4j-server.properies文件(与cassandra.yaml位于同一目录)中的log4j.appender.R.File来改变默认行为,好比:log4j.appender.R.File=/data/cassandra/system.log
还可能要修改JVM级别的参数,该部分的参数可在cassandra-env.sh文件(与cassandra.yaml位于同一目录)中设置。
对于二进制包安装方式
Ø 执行bin/cassandra–f,前台启动cassandra,cassandra会将日志输出到标准输出中。若没在输出中看到“error”、“fatal”或者相似“java stack trace”的内容代表cassandra可正常工做。可经过“Control-C“中止casandra。
Ø 执行bin/cassandra,后台启动cassandra。
Ø 可经过kill或pkill命令中止cassandra
对于YUM安装方式
Ø 执行sudoservice Cassandra start启动cassandra
Ø 执行sudoservice Cassandra stop 中止cassandra
执行bin/cqlsh,出现以下提示则代表链接成功(需python2.7):
Connected toTest Cluster at localhost:9160.
[cqlsh 4.0.0 |Cassandra 2.0.0 | CQL spec 3.1.0 | Thrift protocol 19.37.0]
Use HELP forhelp.
可在cqlsh命令提示符下输入help或?得到帮助,输入exit或quit退出cqlsh,命令默认以“;”结束。
查看keyspace
DESCRIBEkeyspaces;
建立keyspace
CREATEKEYSPACE mykeyspace WITH REPLICATION = { 'class' : 'SimpleStrategy','replication_factor' : 2 };
切换keyspace
USE mykeyspace;
建立表
CREATE TABLEusers (
user_id int PRIMARY KEY,
fname text,
lname text
);
查看表
DESCRIBETABLES;
插入数据
INSERT INTOusers (user_id, fname, lname)
VALUES (1745, 'john', 'smith');
INSERT INTOusers (user_id, fname, lname)
VALUES (1744, 'john', 'doe');
INSERT INTOusers (user_id, fname, lname)
VALUES (1746, 'john', 'smith');
查询数据
SELECT * FROMusers;
创建索引后使用WHERE从句查找
CREATE INDEXON users (lname);
SELECT * FROMusers WHERE lname = 'smith';
删除表
DROP TABLEusers;
至此已经拥有了单节点的Cassandra,且可以经过cqlsh链接至cassandra并使用CQL执行操做。下面对Cassandra做进一步介绍。
Ø 在每一个节点上装配Cassandra
Ø 为集群肯定名称
Ø 获取每一个节点的IP
Ø 肯定用来作种子的节点(Cassandra经过种子节点来找到彼此并了解环的拓扑)
Ø 肯定snitch(用于肯定向/从哪一个数据中心和网架写入/读取数据。有不一样的类型可选,具体参考:http://www.datastax.com/documentation/cassandra/2.0/webhelp/cassandra/architecture/architectureSnitchesAbout_c.html)
1.假定使用如下已经安装了Cassandra的节点配置集群(资源有限,这里只用两台机器来讲明过程。真实环境下最好是有多台机器,且一个集群中最好有一个以上的种子)
node0192.168.83.35 (seed)
node1192.168.83.37
2.假定节点所在机器有防火墙,注意开放Cassandra所使用的端口(相关端口可查http://www.datastax.com/documentation/cassandra/2.0/webhelp/cassandra/security/secureFireWall_r.html)
3.若Cassandra正运行则先关闭,后清除数据。
$ sudo servicecassandra stop
或者(根据安装方式而不一样)
$ ps auwx |grep cassandra
$ sudo kill <pid>
4.清除数据
$ sudo rm -rf/var/lib/cassandra/*
5.修改cassandra.yaml文件中的相应内容
cluster_name:'MyDemoCluster'
num_tokens:256
seed_provider:
- class_name:org.apache.cassandra.locator.SimpleSeedProvider
parameters:
- seeds: "192.168.83.35"
listen_address:192.168.83.35
rpc_address:0.0.0.0
endpoint_snitch:SimpleSnitch
如果创建全新的还不包含数据的集群则加上auto_bootstrap:false
6.剩余节点的配置与除了listen_address应当为自身IP外,其余配置与上述相同
7.先启动逐个启动seed节点,再逐个启动剩余节点
$ sudo servicecassandra start
或者
$ cd<install_location>
$ bin/Cassandra
8.使用nodetoolstatus命令查看集群是否成功运行
这里,数据中心指的就是一组节点,与复制组是同义词。多数据中心集群中,数据能够在不一样数据中心间自动、透明复制。
与单节点集群配置基本相同,不一样的是还须要肯定数据中心和网架的命名。
1.假定在如下已经安装了Cassandra的节点配置集群
node0 192.168.83.35(seed1)
node1 192.168.83.36
node2 192.168.83.37
node3 192.180.83.35(seed2)
node4 192.180.83.36
node5 192.168.83.37
2.若如防火墙,则先开放相应端口(同上)
3.若Cassandra正运行则先关闭(同上)
4.清除数据(同上)
5.修改cassandra.yaml文件中的相应内容
…同上…
endpoint_snitch:PropertyFileSnitch
如果创建全新的还不包含数据的集群则加上auto_bootstrap:false
6.剩余节点的配置与除了listen_address应当为自身IP外,其余配置与上述相同
7.步骤5中指定endpoint_snitch为PropertyFileSnitch因此要编辑对应的cassandra-topologies.properties配置文件(若endpoint_snitch指定为GossipingPropertyFileSnitch则要编辑cassandra-rackdc.properties,指定为YamlFileNetworkTopologySnitch则要编辑cassandra-topology.yaml)
# CassandraNode IP=Data Center:Rack
192.168.83.35=DC1:RAC1
192.168.83.36=DC2:RAC1
192.168.83.37=DC1:RAC1
192.180.83.35 =DC2:RAC1
192.180.83.36=DC1:RAC1
192.168.83.37=DC2:RAC1
以后还要为位置的节点设置一个默认的数据中心和网架名
# default forunknown nodes
default=DC1:RAC1
8.逐个启动种子节点,以后逐个启动剩余节点(同上)
9.验证环是否成功启动(同上)
CQL:CassandraQuery Language
激活CQL:cqlsh、DataStaxJava Driver、Thrift方法set_cql_version、Python驱动中的connect()调用。
使用cqlsh
bin/cqlsh hostport –u username –p password
建立keyspace
keyspace为表命名空间,指明节点中数据如何复制,通常一个应用对应一个keyspace。cassandra中的复制控制以单个keyspace为基础。
CREATEKEYSPACE demodb WITH REPLICATION = {'class' : 'SimpleStrategy','replication_factor': 3};
class指明复制策略,replication_factor指明复制的份数
使用keyspace
USE demodb;
更新keyspace
ALTER KEYSPACEdemodb WITH REPLICATION = { 'class' : 'SimpleStrategy', 'replication_factor' : 2};
ALTER KEYSPACEdemodb WITH REPLICATION ={'class' : 'NetworkTopologyStrategy', 'dc1' : 3, 'dc2': 2};
以后在每一个受影响的节点执行nodetoolrepair demodb
建立表
use demodb
CREATE TABLEusers (
user_name varchar,
password varchar,
gender varchar,
session_token varchar,
state varchar,
birth_year bigint,
PRIMARY KEY (user_name));
使用复合primary key建立表
CREATE TABLEemp (
empID int,
deptID int,
first_name varchar,
last_name varchar,
PRIMARY KEY (empID, deptID));
插入数据
INSERT INTOemp (empID, deptID, first_name, last_name) VALUES (104, 15, 'jane', 'smith');
查询表(以系统表为例)
system是Cassandra的系统库,当前含schema_keyspaces、local、peers、schema_columns和schema_columnfamilies几个表,分别包含keyspace信息,本地节点信息、集群节点信息、columns信息和columnfamilies信息
use system
SELECT * from schema_keyspaces;获取到当前节点中的eyspace
SELECT * FROMpeers获取节点所在集群信息
提取并排序查询结果
SELECT * FROMemp WHERE empID IN (103,104) ORDER BY deptID DESC;
使用keyspace限定符
常用USE keyspacename来切换keyspace可能不方便,可以使用keyspace限定符指定表所属的keyspace,如
SELECT * fromsystem.schema_keyspaces;
可在ALTER TABLEC、REATE TABLE、DELETE、INSERT、SELECT、TRUNCATE、UPDATE中使用
指定column的过时时间
INSERT INTOemp (empID, deptID, first_name, last_name) VALUES (105, 17, 'jane', 'smith')USING TTL 60;
其中USING TTL 60指明该条数据60秒后过时,届时会被自动删除。另外指定了TTL的数据columns会在compaction和repair操做中被自动删除。指定TTL会有8字节额外开销。
查询过时时间
SELECT TTL(last_name)from emp;
更新过时时间
INSERT INTOemp (empID, deptID, first_name, last_name) VALUES (105, 17, 'miaomiao', 'han')USING TTL 3600;也即,以新的TTL重插一遍数据便可。(指定插入的整条数据的过时时间)
或者UPDATA emp USINGTTL 3600 SET last_name='han' where empid=105 and deptid=17; (指定set指明的数据的过时时间)
查询写入时间
SELECTWRITETIME(first_name) from emp;可查的该数据什么时候被插入。
添加columns
ALTER TABLEemp ADD address varchar;
更改column数据类型
ALTER TABLEemp ALTER address TYPE text;
移除数据
² 指定过时时间(同上)
² 删除table或keyspace
DROP TABLE table_name
DROP KEYSPACE keyspace_name;
² 删除columns和rows
DELETE last_name FROM emp WHEREempid=104 and deptid=15;
DELETE FROM emp WHERE empid=104 anddeptid=15;
使用collection类型
² set类型
CREATE TABLE users (
user_id text PRIMARY KEY,
first_name text,
last_name text,
emails set<text>
);
n INSERT INTO users (user_id, first_name, last_name, emails) VALUES('frodo','Frodo', 'Baggins', {'f@baggins.com', 'baggins@gmail.com'});
n UPDATE users SET emails = emails + {'fb@friendsofmordor.org'} WHEREuser_id = 'frodo';
n UPDATE users SET emails = emails - {'fb@friendsofmordor.org'} WHEREuser_id = 'frodo';
n UPDATE users SET emails = {} WHERE user_id = 'frodo';
n DELETE emails FROM users WHERE user_id = 'frodo';
² list类型
n ALTER TABLE users ADD top_places list<text>;
n UPDATE users SET top_places = [ 'rivendell', 'rohan' ] WHERE user_id= 'frodo';
n UPDATE users SET top_places = [ 'the shire' ] + top_places WHEREuser_id = 'frodo';
n UPDATE users SET top_places = top_places + [ 'mordor' ] WHEREuser_id = 'frodo';
n UPDATE users SET top_places[2] = 'riddermark' WHERE user_id ='frodo';
n DELETE top_places[3] FROM users WHERE user_id = 'frodo';
n UPDATE users SET top_places = top_places - ['rivendell'] WHEREuser_id = 'frodo';
² map类型
n ALTER TABLE users ADD todo map<timestamp, text>;
n UPDATE users SET todo =
{ '2012-9-24' : 'entermordor',
'2012-10-2 12:00' : 'throwring into mount doom' }
WHERE user_id = 'frodo';
n UPDATE users SET todo['2012-10-2 12:00'] = 'throw my precious intomount doom'WHERE user_id = 'frodo';
n INSERT INTO users (user_id,todo) VALUES ('miaohan', { '2013-9-22 12:01' : 'birthday wishes to Bilbo', '2013-10-1 18:00' : 'Check into Inn of Prancing Pony' });
n DELETE todo['2012-9-24'] FROM users WHERE user_id = 'frodo';
n UPDATE users USING TTL 60 SET todo['2012-10-1'] = 'find water' WHEREuser_id = 'frodo';
注;可为上述三种集合类型的每一个元素设置单独的过时时间。
建立和使用索引
CREATE INDEXlast_name_key ON users(last_name);
SELECT * FROMusers WHERE last_name = 'Baggins'(需建立了索引才能在WHERE中使用该列进行查询,暂无多列索引,需逐列分别创建索引)
轻量级事务
使用IF从句实现
n INSERT INTO emp(empid,deptid,address,first_name,last_name) VALUES(102,14,'luoyang','Jane Doe','li') IF NOT EXISTS;
n UPDATE emp SET address = 'luoyang' WHERE empid = 103 and deptid = 16IF last_name='zhang';
使用counter
用于记录特定时间或处理的次数。对应的column需使用counter数据类型,该类数据通常存储于专门的表中,且使用UPDATE载入并增减counter值,不使用INSERT插入counter值。只能在原数值的基础上增减,不能为直接指定一个数值。
CREATEKEYSPACE counterks WITH REPLICATION = { 'class' : 'SimpleStrategy','replication_factor' : 3 };
CREATE TABLEcounterks.page_view_counts
(counter_valuecounter,
url_name varchar,
page_name varchar,
PRIMARY KEY (url_name, page_name)
);
UPDATEcounterks.page_view_counts
SET counter_value = counter_value + 1
WHERE url_name='www.datastax.com' ANDpage_name='home';
若原来不存在WHERE条件中指定的内容,该条语句会将表中的url_name值置为'www.datastax.com'将page_name置为’home’,将counter_value指定为默认初始值0加1。若WHERE条件中指定的内容存在,则将counter_value置为原来的counter_value加1
UPDATEcounterks.page_view_counts
SET counter_value = counter_value + 2
WHERE url_name='www.baidu.com' ANDpage_name='map';
更多CQL内容请参见:http://www.datastax.com/documentation/cql/3.1/webhelp/index.html
三方面安全策略
Ø Client-to-node/node-to-node加密(SSL):加密传输的数据
Ø 基于登陆帐户/密码的认证:肯定谁可使用数据库
Ø 对象受权管理:肯定用户可在在数据库上干什么
准备证书
Ø 为每一个节点产生私钥/公钥对
keytool-genkey -alias cassandra_vms00780 -keystore ~/keys/.keystore
Ø 导出公钥部分到单独的证书文件,并拷贝该文件到其余全部节点
keytool-export -alias cassandra_vms00780 -file ~keys/cassandra_vms00780.cer -keystore ~/keys/.keystore
Ø 将每一个节点的证书添加到全部节点的信任库中
keytool-import -v -trustcacerts -alias cassandra_vms00780 -file cassandra_vms00780.cer–keystore ~/keys/ .truststore
Ø 保证将.keystore和truststore文件分发到全部节点
Ø 确认.keystore文件只对Cassandradaemon可读
编辑配置文件
配置cassandra.yaml文件中client_encryption_options部分的参数
client_encryption_options:
enabled: true
keystore: ~keys/.keystore## .keystore file路径
keystore_password:<keystore password> ## 产生keystore时用的密码
truststore: ~keys/.truststore
truststore_password:<truststore password>
require_client_auth:<true or false>
准备证书
同上
编辑配置文件
配置cassandra.yaml文件中server_encryption_options部分的参数
server_encryption_options:
internode_encryption: <internode_option:all/none/dc/rack>
keystore: ~keys/.keystore
keystore_password: <keystore password>
truststore:~keys/.truststore
truststore_password: <truststorepassword>
require_client_auth: <true or false>
可在主目录依据样例文件cqlshrc.sample建立.cqlshrc文件
[authentication]
username = cassandra
password = cassandra
[connection]
hostname = localhost
port = 9160
factory =cqlshlib.ssl.ssl_transport_factory
[ssl]
certfile =~/keys/cassandra.cert
validate = true
[certfiles]
192.168.1.3 =~/keys/cassandra01.cert
192.168.1.4 =~/keys/cassandra02.cert
基于Cassandra控制的登陆帐户和密码
认证用的登陆名和经bcrypt散列的密码存储于system_auth.credentials表中
第一步
Ø 若要使用基于用户名/密码的认证机制,须要先配置cassandra.yaml文件中authenticator的值为PasswordAuthenticator(该参数默认值为AllowAllAuthenticator,即,不进行任何认证)。这样cassandra会在system_auth.user建立一个超级用户,用户名和密码均为cassandra。以后,配置system_auth这个keyspace的replication factor为较大的值(详见第5章使用建立、更新keyspace部分的内容)
认证语句
Ø ALTER USER
ALTER USERuser_name WITH PASSWORD 'password' (NOSUPERUSER| SUPERUSER)
注:SUPERUSER可更改其余用户的密码和SUPERUSER状态(NOSUPERUSER或 SUPERUSER),但不能改变本身的SUPERUSER状态。普通用户只能更改本身的密码。
Ø CREATE USER
CREATE USERuser_name WITH PASSWORD 'password' (NOSUPERUSER| SUPERUSER)
只有SUPERUSER可建立用户,建立的用户默认为NOSUPERUSER
Ø DROP USER
DROP USER user_name
只有SUPERUSER可删除用户,用户不能本身删除本身。
Ø LIST USERS
LIST USERS(为何没有结果???)
列出用户
更改默认SUPERUSER
Ø 使用默认SUPERUSER也即cassandra登陆
./cqlsh -ucassandra -p Cassandra
Ø 新建另外一SUPERUSER,以后删除原cassandraSUPERUSER
create userus_yanzhaozhang with password 'cassandra' superuser;
drop usercassandra;
Ø 重启cassandra,使用新的SUPERUSER登陆,执行后续操做。
若使用cqlsh登陆,可将认证信息存储于.cqlshrc文本文件,放置在用户主目录中,以避免重复录入登陆信息。注意对该文本文件设置对应的权限以防信息泄露。
[authentication]
username = example_username
password = example_password
对象权限管理基于内部受权,与关系型数据库GRANT/REVOKE语法相似。
首先要配置cassandra.yaml中authorizer的值为CassandraAuthorizer(默认为AllowAllAuthorizer,容许任何用户的任何动做),设定为该值后会将受权信息存储在system_auth.permissions表中。
以后,配置system_auth这个keyspace的replicationfactor为较大的值。
经过设置permissions_validity_in_ms选项调整权限有效期。
语法
GRANTpermission_name PERMISSION
| ( GRANT ALLPERMISSIONS ) ON resource TO user_name
REVOKE (permission_name PERMISSION )
| ( REVOKE ALLPERMISSIONS )
ON resourceFROM user_name
LISTpermission_name PERMISSION
| ( LIST ALLPERMISSIONS )
ON resource OF user_name
NORECURSIVE
其中permission_name为
Ø ALL
Ø ALTER
Ø AUTHORIZE
Ø CREATE
Ø DROP
Ø MODIFY
Ø SELECT
resource为
Ø ALL KEYSPACES
Ø KEYSPACE keyspace_name
Ø TABLE keyspace_name.table_name
需在防火墙策略中开放一下端口
Ø 公共端口
n 22 ssh端口
n 8888 OpsCenter website端口
Ø Cassandra节点间端口
n 1024+ JMX reconnection/loopback端口
n 7000 Cassand集群内节点间通信端口
n 7199 Cassandra JMX 监控端口
n 9160 Cassandra客户端端口
Ø Cassandra OpsCenter 端口
n 61620 OpsCenter监控端口
n 61621 OpsCenter代理端口
点对点分布式系统,集群中各节点平等,数据分布于集群中各节点,各节点间每秒交换一次信息。每一个节点的commit log捕获写操做来确保数据持久性。数据先被写入memtable-内存中的数据结构,待该结构满后数据被写入SSTable-硬盘中的数据文件。全部的写内容被自动在集群中分区并复制。
Cassandra数据库面向行。受权用户可链接至任意数据中心的任意节点,并经过相似SQL的CQL查询数据。集群中,一个应用通常包含一个keyspace,一个keyspace中包含多个表。
客户端链接到某一节点发起读或写请求时,该节点充当客户端应用与拥有相应数据的节点间的协调者(coordinator)以根据集群配置肯定环中的哪一个节点当获取这个请求。
关键词
Ø Gossip:点对点通讯协议,用以Cassandra集群中节点间交换位置和状态信息。
Ø Partitioner:决定如何在集群中的节点间分发数据,也即在哪一个节点放置数据的第一个replica。
Ø Replica placement strategy:决定在哪些节点放置数据的其余replica。Cassandra在集群中的多个节点存储数据的多份拷贝-replicas来确保可靠和容错。
Ø Snitch:定义了复制策略用来放置replicas和路由请求所使用的拓扑信息
Ø cassandra.yaml文件:Cassandra主配置文件
Ø system:Cassandra的系统keyspace,存放table、keyspace的属性信息等。而属性信息可经过CQL或其余驱动设置。
Cassandra使用点对点通信协议gossip在集群中的节点间交换位置和状态信息。gossip进程每秒运行一次,与至多3个其余节点交换信息,这样全部节点可很快了解集群中的其余节点信息。
配置gossip(在cassandra.ymal中设置)
Ø cluster_name:节点所属集群名,集群中每一个节点应相同。
Ø listen_address:供其余节点链接至该节点的IP地址或主机名,当由localhost设为公共地址。
Ø seed_provider:逗号分隔的IP地址(种子列表),gossip经过种子节点学习环的拓扑,集群中各节点种子列表当相同。多数据中心集群中每一个数据中心的种子列表当至少包含一个该中心内的节点。
Ø storage_port:节点间通信端口,集群中各节点当一致。
Ø initial_token:用于single-node-per-token结构,节点在环空间只拥有一段连续的token范围。
Ø num_tokens:用于virtual nodes,定义了节点在环空间所拥有的随机分配的token数目。
失败检测与恢复
Ø gossip可检测其余节点是否正常以免将请求路由至不可达或者性能差的节点(后者需配置为dynamic snitch方可)。
Ø 可经过配置phi_convict_threshold来调整失败检测的敏感度。
Ø 对于失败的节点,其余节点会经过gossip按期与之联系以查看是否恢复而非简单将之移除。若需强制添加或移除集群中节点需使用nodetool工具。
Ø 一旦某节点被标记为失败,其错过的写操做会有其余replicas存储一段时间(需开启hinted handoff,若节点失败的时间超过了max_hint_window_in_ms,错过的写再也不被存储。)Down掉的节点通过一段时间恢复后需执行repair操做,通常在全部节点运行nodetool repair以确保数据一致。
Cassandra中分发、复制同时进行。Cassandra被设计为点对点系统,会建立数据的多个副本存储在集群中的一组节点中。Cassandra中数据被组织为表,由primary key标识,primary key决定数据将被存储在哪一个节点。
需指定的内容
Virtual nodes:指定数据与物理节点的所属关系
Partitioner:在集群内划分数据
Replicationstrategy:决定如何处理每行数据的replicas
Snitch:定义replicationstrategy放置数据的replicas时使用的拓扑信息
一致性哈希
表中每行数据由primary key标识,Cassandra为每一个primarykey分配一个hash值,集群中每一个节点拥有一个或多个hash值区间。这样即可根据primary key对应的hash值将该条数据放在包含该hash值的hash值区间对应的节点中。
虚拟节点
使用虚拟接电视数据在集群中的分布
若不使用虚拟节点则需手工为集群中每一个节点计算和分配一个token。每一个token决定了节点在环中的位置以及节点应当承担的一段连续的数据hash值的范围。如上图上半部分,每一个节点分配了一个单独的token表明环中的一个位置,每一个节点存储将row key映射为hash值以后落在该节点应当承担的惟一的一段连续的hash值范围内的数据。每一个节点也包含来自其余节点的row的副本。而是用虚拟节点容许每一个节点拥有多个较小的不连续的hash值范围。如上图中下半部分,集群中的节点是用了虚拟节点,虚拟节点随机选择且不连续。数据的存放位置也由row key映射而得的hash值肯定,可是是落在更小的分区范围内。
使用虚拟节点的好处
Ø 无需为每一个节点计算、分配token
Ø 添加移除节点后无需从新平衡集群负载
Ø 重建死掉的节点更快
Ø 改善了在同一集群使用异种机器
数据复制
Cassandra在多个节点中存放replicas以保证可靠性和容错性。replicationstrategy决定放置replicas的节点。replicas的总数由复制因子- replication factor肯定,好比因子为2表明每行有两份拷贝,每份拷贝存储在不一样的节点中。全部的replicas无主从之分。replication factor一般不能超过集群中节点总数。然而,可现增长replication facto以后在将节点增至指望的数量。当replication facto超过总结点数时,写操做被拒绝,但读操做可进行,只要知足指望的一致性级别。
当前有两种可用的复制策略:
Ø SimpleStrategy:仅用于单数据中心,将第一个replica放在由partitioner肯定的节点中,其他的replicas放在上述节点顺时针方向的后续节点中。
Ø NetworkTopologyStrategy:可用于较复杂的多数据中心。能够指定在每一个数据中心分别存储多少份replicas。在每一个数据中心放置replicas的方式相似于SimpleStrategy,但倾向于将replicas放在不一样rack,由于同一rack的节点倾向于同时失败。配置每一个数据中心分别放置多少replicas时要考虑两个主要方面:(1)可知足本地读而非跨数据中心读;(2)失败场景。两种经常使用的配置方式为(1)每一个数据中心两份replicas,(2)每一个数据中心3份replicas。固然,用于特殊目的的非对称配置也是能够的,好比在读操做较频繁的数据中心配置3份replicas而在用于分析的数据中心配置一份replicas。
复制策略在建立keyspace时指定,如
CREATEKEYSPACE Excelsior WITH REPLICATION = { 'class' : 'SimpleStrategy','replication_factor' : 3 };
CREATEKEYSPACE "Excalibur" WITH REPLICATION = {'class' :'NetworkTopologyStrategy', 'dc1' : 3, 'dc2' : 2};
其中dc一、dc2这些数据中心名称要与snitch中配置的名称一致。
在Cassandra中,table的每行由惟一的primarykey标识,partitioner实际上为一hash函数用以计算primary key的token。Cassandra依据这个token值在集群中放置对应的行。
三种partitioner(在cassandra.yaml中设置)
Ø Murmur3Partitioner:当前的默认值,依据MurmurHash哈希值在集群中均匀分布数据。
Ø RandomPartitioner:依据MD5哈希值在集群中均匀分布数据。
Ø ByteOrderedPartitioner:依据行key的字节从字面上在集群中顺序分布数据。(不推荐使用)
Murmur3Partitioner和RandomPartitioner使用token向每一个节点指派等量的数据从而将keyspace中的表均匀分布在环中,即便不一样的表使用不一样的primary key。读写请求均被均匀的分布。ByteOrderedPartitioner容许经过primary key顺序扫描(可经过index达到一样目的),但已引发以下问题(1)较复杂的负载均衡,(2)顺序的写易致使热点,(3)多表不均匀的负载均衡。
注意:若使用虚拟节点(vnodes)则无需手工计算tokens。若不使用虚拟节点则必须手工计算tokens将所得的值指派给cassandra.ymal主配置文件中的initial_token参数。具体可参考:http://www.datastax.com/documentation/cassandra/2.0/webhelp/index.html#cassandra/architecture/../configuration/configGenTokens_c.html
提供网络拓扑信息,用以肯定向/从哪一个数据中心或者网架写入/读取数据。
注意:(1)全部节点需用相同的snitch;(2)集群中已插入数据后由更改了snitch则需运行一次fullrepair。
Ø Dynamic snitching
监控从不一样replica读操做的性能,选择性能最好的replica。dynamic snitch默认开启,全部其余snitch会默认使用dynamic snitch 层。
Ø SimpleSnitch
默认值,用于单数据中心部署,不使用数据中心和网架信息。使用该值时keyspace复制策略中惟一需指定的是replication factor
Ø RackInferringSnitch
根据数据中心和网架肯定节点位置,而数据中心及网架信息又有节点的IP地址隐含指示。
Ø PropertyFileSnitch
根据数据中心和网架肯定节点位置,而网络拓扑信息又由用户定义的配置文件cassandra-topology.properties 获取。在节点IP地址格式不统一没法隐含指示数据中心及网架信息或者复杂的复制组中使用该值。需注意的是:(1)配置文件中数据中心名需与keyspace中复制策略中指定的数据中心名称一致;(2)配置文件中需包含集群中任一节点;(3)集群中各节点内cassandra-topology.properties配置文件需相同。
Ø GossipingPropertyFileSnitch
Ø 在cassandra-rackdc.properties配置文件中定义本节点所属的数据中心和网架,利用gossip协议与其余节点交换该信息。若从PropertyFileSnitch切至该值,则需逐节点逐次更新值为GossipingPropertyFileSnitch以确保gossip有时间传播信息。
Ø EC2Snitch
用于部署在Amazon EC2中且全部节点在单个区域中的集群。
Ø EC2MultiRegionSnitch
Ø 用于部署在AmazonEC2中,且节点跨多个区域的集群。
client链接至节点并发出read/write请求时,该node充当client端应用与包含请求数据的节点(或replica)之间的协调者,它利用配置的partitioner和replicaplacement策略肯定那个节点当获取请求。
协调者(coordinator)将write请求发送到拥有对应row的全部replica节点,只要节点可用便获取并执行写请求。写一致性级别(write consistency level)肯定要有多少个replica节点必须返回成功的确认信息。成功意味着数据被正确写入了commit log个memtable。
上例为单数据中心,11个节点,复制因子为3,写一致性等级为ONE的写状况。
基本同上,但会在各数据中心分别选择一个协调者以处理该数据中心内的写请求。与client直接链接的coordinator节点只需将写请求发送到远程数据中心的coordinator一个节点便可,剩余的由该coordinator完成。若一致性级别设置为ONE或者LOCAL_QUORUM则仅与直接协调者位于同一数据中心的节点需返回成功确认。
上例为双单数据中心,各11个节点,复制因子为6,写一致性等级为ONE的写状况。
Ø 直接读请求
Ø 后台读修复请求
与直接读请求联系的replica数目由一致性级别肯定。后台读修复请求被发送到没有收到直接读请求的额外的replica,以确保请求的row在全部replica上一致。
协调者首先与一致性级别肯定的全部replica联系,被联系的节点返回请求的数据,若多个节点被联系,则来自各replica的row会在内存中做比较,若不一致,则协调者使用含最新数据的replica向client返回结果。
同时,协调者在后台联系和比较来自其他拥有对应row的replica的数据,若不一致,会向过期的replica发写请求用最新的数据进行更新。这一过程叫read repair。
上例为单数据中心,11个节点,复制因子为3,一致性级别为QUORUM的读状况。
使用相似Log-StructuredMerge Tree的存储结构,而非典型的关系型数据库使用的B-Tree结构。存储引擎连续的将数据以追加的模式写物磁盘并持续存储数据。节点间/内的操做并行运行。因不使用B-Tree故无需协同控制,在写时没必要执行更新。Cassandra在SSD中性能表现极佳。
高吞吐量和低延迟
操做并行运行,吞吐量和延迟相互独立。log-structured设计避免询盘开销。去除on-disk数据修改,省时且延长SSD寿命。无on-disk型的数据修改故无需锁定写请求这样的协同控制。无主、从,在全部节点运行一样的代码。
单独的表目录
/var/lib/cassandra/data/ks1/cf1/ks1-cf1-ja-1-Data.db
其中/var/lib/cassandra/data/为cassandra.yaml中指定的数据文件目录。ks1为keyspace名cf1/为columnfamilies名。这样可将表链接至选定的目标位置以便于将活跃的表移到更快的存储介质,或者将表分不到多个可用的存储设备以均衡负载
复制的角色
经过在多个同级节点建立数据的多个副本保证可靠性和容错。表是非关系型的,无需过多额外工做来维护关联的表的完整性,所以写操做较关系型数据库快不少。
写过程
先将数据写进内存中的数据结构memtable,同时追加到磁盘中的commitlog中。表使用的越多,对应的memtable应越大,cassandra动态的为memtable分配内存,也可本身手工指定。memtable内容超出指定容量后memtable数据(包括索引)被放进将被刷入磁盘的队列,可经过memtable_flush_queue_size配置队列长度。若将被刷入磁盘的数据超出了队列长度,cassandra会锁定写。memtable表中的数据由连续的I/O刷进磁盘中的SSTable,以后commit log被清空。每一个表有独立的memtable和SSTable。
更新(cassandra中插入重复的primarykey也被看作是更新操做)
不直接在磁盘中原地更新而是先在memtable进行全部的更新。最后更新内容被刷入磁盘存储在新的SSTable中,仅当column的时间戳比既存的column更新时才覆盖原来的数据。
删除
Ø 不会当即从磁盘移除删除的数据
被删除的数据会被tombstone标记以指定其状态,它会存在必定的时间(由gc_grace_seconds指定),超出该时间后compaction进程永久删除该column。
Ø 若不例行性的执行节点repair操做,被删除的column可能从新出现
若删除期间节点down掉,被标记为tombstone的column会发送信号给Cassandra使其重发删除请求给该replica节点。若replica在gc_grace_seconds期间复活,会最终受到删除请求,若replica在gc_grace_seconds以后复活,节点可能错过删除请求,而在节点恢复后当即删除数据。需按期执行节点修复操做来避免删除数据重现。
hinted handoff writes
在不要求一致性时确保写的高可用,在cassandra.yaml中开启该功能。执行write操做时若拥有对应row的replica down掉了或者无回应,则协调者会在本地的system.hints表中存储一个hint,指示该写操做需在不可用的replica恢复后从新执行。默认hints保存3小时,可经过max_hint_window_in_ms改变该值。
提示的write不计入consistencylevel中的ONE,QUORUM或ALL,但计入ANY。ANY一致性级别可确保cassandra在全部replica不可用时仍可接受write,而且在适当的replica可用且收到hint重放后该write操做可读。
移除节点后节点对应的hints自动移除,删除表后对应的hints也会被移除。
仍需按期执行repair(避免硬件故障形成的数据丢失)
从SSD并行随机读取,延时极低(不推荐cassandra使用转盘式硬盘)。以partition key读/写,消除了关系型数据库中复杂的查询。
读SSTable
首先检查Bloom filter,每一个SSTable都有一个Bloomfilter,用以在进行任何磁盘I/O前检查请求的partition key对应的数据在SSTable中存在的可能性。若数据极可能存在,则检查Partition key cache(Cassandra表partition index的缓存),以后根据index条目是否在cache中找到而执行不一样步骤:
Ø 找到
从compression offset map中查找拥有对应数据的压缩快。
从磁盘取出压缩的数据,返回结果集。
Ø 未找到
搜索Partition summary(partition index的样本集)肯定index条目在磁盘中的近似位置。
从磁盘中SSTable内取出index条目。
从compression offset map中查找拥有对应数据的压缩快。
从磁盘取出压缩的数据,返回结果集。
回顾插入/更新数据
读的过程
由insert/update过程可知,read请求到达某一节点后,必须结合全部包含请求的row中的column的SSTable以及memtable来产生请求的数据。
例如,要更新包含用户数据的某个row中的email 列,cassandra并不重写整个row到新的数据文件,而仅仅将新的email写进新的数据文件,username等仍处于旧的数据文件中。上图中红线表示Cassandra须要整合的row的片断用以产生用户请求的结果。为节省CPU和磁盘I/O,Cassandra会缓存合并后的结果,且可直接在该cache中更新row而不用从新合并。
不支持RDBMS中具备回滚和锁定机制的ACID事务,但提供了必定程度的原子性(行级)、隔离性(行级)、持久性和eventual/tunable 类型的一致性(因不支持链接和外键,故不提供ACID场景下的一致性)。
Ø 原子性
row-level,对一个row的插入/更新被当作一个原子操做。不支持要么都作要么都不作的多行插入/更新。不支持在一个replica上write成功而在其余replica上write失败的回滚。用时间戳肯定column的最新更新。若多个session同时更新一样的column则使用最近的更新。
Ø 一致性
l Tuneable一致性
提供partition容错。用户能够以单个操做为基础决定需多少个节点接收DML操做或响应SELECT操做。
l Linearizable一致性
l 轻量事务(compare-and-set)的一系列隔离级别。在tuneable一致性不足以知足要求时使用,如执行无间断的相继操做或同时/不一样时运行一个操做产生一样的结果。Cassandra2.0使用相似2-phase commit的Paxos consensus协议实现Linearizable一致性。(为支持该一致性引入了SERIAL类型的consistency level及在CQL中使用了带IF从句的轻量事务)
Ø 隔离性
Cassandra2.0开始支持row-level的隔离性。对行的写操做在完成以前对其余用户不可见。
Ø 持久性
同时将数据写入内存中的memtable及磁盘中的commit log。服务器故障时若memtable还没有刷入磁盘,在故障恢复后可重放commit log恢复丢失数据。这提供了本地持久性。数据在其余节点的副本增强了持久性。
轻量事务
Cassandra2.0中引入,弥补Tuneable一致性。
n INSERT INTO emp(empid,deptid,address,first_name,last_name) VALUES(102,14,'luoyang','Jane Doe','li') IF NOT EXISTS;
n UPDATE emp SET address = 'luoyang' WHERE empid = 103 and deptid = 16IF last_name='zhang';
Cassandra中,一致性级别可配置,以肯定请求的数据如何在不一样的replica保持一致性,从而平衡响应时间和数据精确性。
Ø 写一致性
指明在返回确认至客户端前,write操做必须成功的replica数。
l ANY:write至少在一个replica成功。即便全部replica 都down掉,在写hinted handoff后write仍成功。在replica恢复后该write可读。
l ONE:write必须成功写入至少一个replica的commit log和memtable。
l TWO:至少两个
l THREE:至少三个
l QUORUM:至少(replication_factor/ 2) + 1个
l LOCAL_QUORUM:至少(replication_factor/ 2) + 1个,且与协调者处于同一数据中心
l EACH_QUORUM:全部数据中心,至少(replication_factor/ 2) + 1个
l ALL:所有
l SERIAL:至少(replication_factor/ 2) + 1个,用于达成轻量事务的linearizable consistency
需注意的是:实际上write仍是会被发到全部相关的replica中,一致性级别只是肯定必须要反馈的replica数。
Ø 读一致性
指明在返回数据值客户端前,须要相应read请求的相关replica数。Cassandra从这些数量的replica中根据时间戳检查最新的数据。级别同写一致性。
可经过cqlsh命令CONSISTENCY设置keyspace的一致性,也可编程设置一致性。
工具:nodetool utility、DataStaxOpsCenter、JConsole
Ø nodetool utility:Cassandra发行版附带的命令行工具,用于监控和常规数据库操做。一些经常使用命令如status、cfstats、cfhistograms、netstats、tpstats等。
Ø DataStax OpsCenter:图形用户界面工具,从中央控制台监控和管理集群中全部节点。
Ø JConsole:JMX兼容工具用以监控java应用程序,提供Overview、Memory、Thread、Classes、VM summary、Mbeans方面的信息。
Bloom filters用以在执行I/O前肯定SSTable是否含特定的row。用于index扫描而不用于range扫描。经过bloom_filter_fp_chance参数配置其属性值,范围为0至1.0(关闭),值越大则使用的内存越少,但也意味着若SSTable由较多碎片则致使较高的磁盘I/O。默认值依赖于compaction_strategy类型。值的设置依赖工做负荷,如,若需在一特定表上运行繁重的scan则需将bloom_filter_fp_chance设置高一点。
经过以下语句设置:
ALTER TABLEaddamsFamily WITH bloom_filter_fp_chance = 0.1;
设置好后需使用Initiatecompaction或Upgrade SSTables方式之一从新产生Bloom filter。
两类cache:partitionkey cache和row cache
Ø partition key cache:Cassandra表partition index的cache
Ø row cache:一个row首次被访问后整个row(合并自多个对应的SSTable及memtable)被放在row cache中以便于后续对改row的访问能直接由内存获取数据。
对于不多访问的archive表当禁用缓存。
开启与配置cache
Ø 开启
CREATE TABLEusers (
userid text PRIMARY KEY,
first_name text,
last_name text,
)
WITH caching ='all';
Ø 配置
在cassandra.yaml中,调整下列参数;
l key_cache_keys_to_save
l key_cache_save_period
l key_cache_size_in_mb
l row_cache_keys_to_save
l row_cache_size_in_mb
l row_cache_save_period
l row_cache_provider
工做原理:
第一个read操做直接命中rowcache,从内存取出数据。第二个read操做为命中row cache,但命中partition key cache,并由此整合全部相关的SSTable及memtable中的片断为请求的row,返回row并写进row cache。
cache使用优化建议
Ø 将不多请求的数据或row很长的数据放在cache较小或不使用cache的表中
Ø 用较多的节点部署各节点负载较轻的集群
Ø 逻辑上将read稠密的数据分开在离散的表中
可改善write性能。Cassandra在commit logspace threshold超出时将memtables内容刷进磁盘建立SSTable。在cassandra.ymal中配置commit log space threshold来调整memtable吞吐量。配置的值依赖于数据和write负载。下列两种状况可考虑增长吞吐量:
Ø write负载包含大量在小数据集上的更新操做
Ø 稳定持续的写操做
周期性的后台进程。Compaction期间Cassandra经过整合row片断合并SSTable、移除过时的tombstones、重建索引等,并在新SSTable合并完成后移除旧的SSTable。
两类Compaction
Ø SizeTieredCompactionStrategy
收集尺寸相近的SSTable合并为一个较大的SSTable。
Ø LeveledCompactionStrategy
建立相对较小的SSTable,尺寸被固定为不一样等级(L0、L一、L2……),同一级内SSTable大小相同,每差一个等级尺寸差10倍。SSTable从较小的等级逐渐合并至较高的等级。
Compaction操做会临时增长磁盘I/O,但完成后可改善read性能。
开启与配置Compaction
Ø 使用CQL语句CREATE/ALTER TABLE
l ALTER TABLE users WITH
compaction = { 'class' : 'LeveledCompactionStrategy', 'sstable_size_in_mb' : 10 }
l ALTER TABLE users
WITH compaction ={'class' : 'SizeTieredCompactionStrategy','min_threshold' : 6 }
更多属性参见CQL keyspace and table properties.
Ø 配置cassandra.yaml文件
l snapshot_before_compaction
l in_memory_compaction_limit_in_mb
l multithreaded_compaction
l compaction_preheat_key_cache
l concurrent_compactors
l compaction_throughput_mb_per_sec
经过减小数据体积和磁盘I/O来最大化存储能力。大大提高读性能且不会像传统关系型数据库中的Compression操做下降write性能。
何时执行Compression
适用于拥有大量的row且每一个row与其余row有同样的column或尽量多相同的column的表。越类似压缩比越高,性能提高越明显。row具备差别较大的column集的表不适于Compression。如Dynamic表。
配置好compression后后续建立的SSTable被压缩,以前已经存在的SSTable不被当即压缩直到正常的Cassandracompaction进程开始。可以使用nodetool upgradesstables命令强制压缩既存的SSTable
配置Compression
Ø 禁用
CREATE TABLEDogTypes (
block_id uuid,
species text,
alias text,
population varint,
PRIMARY KEY (block_id)
)
WITH compression = {'sstable_compression' : '' };
Ø 开启
CREATE TABLEDogTypes (
block_id uuid,
species text,
alias text,
population varint,
PRIMARY KEY (block_id)
)
WITH compression = {'sstable_compression' : 'LZ4Compressor' };
Ø 调整
ALTER TABLECatTypes
WITH compression = { 'sstable_compression' :'DeflateCompressor', 'chunk_length_kb' : 64 }
性能降低或内存消耗过多时需考虑调整Java资源。有两个文件用于Cassandra中环境设置:
Ø comf/cassandra-env.sh:配置JVM
Ø bin、cassandra-in.sh:配置Cassandra环境变量
调整Heap尺寸时MAX_HEAP_SIZE与HEAP_NEWSIZE要同时设置,前者设置JVM最大heap尺寸,后者设置新生代的尺寸,新生代尺寸越大垃圾回收暂停时间越长,反之垃圾回收消耗越大。
当前默认配置:
系统内存 |
Heap 大小 |
少于 2GB |
系统内存的1/2 |
2GB t到 4GB |
1GB |
大于 4GB |
系统内存的1/4,但不会超过8GB |
heap大小并不是越大越好:首先Java6处理8GB以上的垃圾收集的能力会迅速缩减;其次会减小操做系统缓存页所能使用的内存。
Cassandra1.2之后版本Bloomfilter和compression offset map是off-heap的,不算在JVM的heap以内。Cassandra2.0后partition summary也是off-heap的。若在Cassandra中使用JNA库,row cache也会升级为off-heap。这些可帮减小heap大小,加强JVM GC性能,从而增长Cassandra高效处理每一个节点中数据的能力。
若GC频发发生且在适度的时间完成代表JVM GC压力过大,此时需做出增长节点、下降cache大小、调整JVM中有关GC的参数等补救措施。
JavaManagement Extensions (JMX)提供了管理和监控Java应用和服务的各类工具。如JConsole,、the nodetool utility和 DataStax OpsCenter这些JMX兼容工具。
comf/cassandra-env.sh中其余相关参数
Ø com.sun.management.jmxremote.port
Ø com.sun.management.jmxremote.ssl
Ø com.sun.management.jmxremote.authenticate
Ø -Djava.rmi.server.hostname
使用nodetool的repair命令,修复与给定的数据范围相关的replica间的不一致性。在下属情形运行修复:
Ø 规律的、计划的集群维护操做期间(除非没有执行过delete)
Ø 节点恢复后
Ø 在包含较少被访问的数据的节点上
Ø 在down掉的节点更新数据
运行节点修复的方针:
Ø 常规修复操做执行次数由gc_grace值硬性规定。需在该时间内在每一个节点至少运行一次修复操做。
Ø 同时在多于一个的节点运行常规修复时需谨慎,最好在低峰期规律运行修复。
Ø 在不多delete或overwrite数据的系统中,可增长gc_grace的值。
修复操做消耗磁盘I/O,可经过下述途径减轻:
Ø 使用nodetool的compactionthrottling选项。
Ø 使用nodetoolsnapshot以后从snapshot执行修复。
修复操做会致使overstreaming(问题源于Cassandra内部Merkletrees数据结构)。好比只有一个损坏的partition但却需发送不少的stream,且若节点中存在的partition越多问题越严重。这会引发磁盘空间浪费和没必要要的compaction。可以使用subrange 修复来减轻overstreaming。subrange repair只修复属于节点的部分数据。
Ø 在既存集群中添加节点
以使用vnodes的节点为例(推荐此种方式,虚拟节点相关内容见第7节)
1. 在新节点安装Cassandra,关闭cassandra,清除数据。
2. 在cassandra.yaml和cassandra-topology.properties中配置以下属性:
l cluster_name
l listern_address/broadcast_address
l endpoint_snitch
l num_tokens
l seed_provider
3. 逐个启动新节点中的cassandra,不一样节点的初始化之间保持两分钟的间隔。可用nodetool netstats监控启动和数据流处理
4. 待全部新节点运行起来后逐个在每一个以前已存在的节点执行nodetool cleanup来移除再也不属于这些节点的key。在下一个节点执行nodetool cleanup前必须等上一个节点中的nodetool cleanup结束。另外cleanup操做可考虑在低峰期进行。
Ø 向既存集群中添加数据中心
以使用vnodes的节点构成的集群为例
1. 确保keyspace使用NetworkTopologyStrategy复制策略
2. 对于每一个新节点在cassandra.yaml中设置以下属性
l auto_bootstrap: false.
l 设置其余与所属集群匹配的属性(参见上一部分:在既存集群中添加节点)
3. 根据设置的snitch类型在各新节点配置对应的指明网络拓扑的配置文件(无需重启)
4. 确保使用的客户端不会自动探测新的节点。
5. 若使用QUORUM一致性级别,需检查LOCAL_QUORUM或EACH_QUORUM一致性级别是否知足多数据中心的要求
6. 逐个在每一个节点开启cassandra。注意初始化时间间隔。
7. 全部节点运行起来后执行下列操做
Ø 替换死掉的节点
以使用vnodes的节点构成的集群为例
1. 用nodetool status命令确认环中死掉的节点,从输出中记录该节点的HOST ID。
2. 添加并启动新的替代节点(参见:在既存集群中添加节点)
3. 使用nodetool removenode命令根据记录的死亡节点的HOST ID从集群中移除死掉的节点。
Ø 移除数据中心
1. 确认没有client正在向数据中心内的任何节点写数据
2. 在数据中心内的各节点中执行nodetool repair以确保数据从该中心获得正确的传播。更改全部的keyspace属性确保再也不引用即将移除的数据中心。
3. 在数据中心内的各节点分别运行nodetool decommission
Cassandra经过为磁盘中的数据文件(SSTable文件)建立快照来备份数据。可为单个表、单个keyspace、全部keyspace建立快照。可用并行SSH工具为整个集群建立快照。建立时不保证全部replica一致,但在恢复快照时Cassandra利用内建的一致性机制保持一致性。建立了系统范围的快照后可开启增量备份只备份自上次快照以来变化了的数据(每当一个SSTable被flush后,一个对应的硬连接被拷贝至与/snapshot同级的/backups子目录(需使用JNA))。
若在Cassandra中使用了JNA,则快照经过硬连接建立。不然会因将文件拷贝至不一样的位置而增长磁盘I/O。
在每一个节点执行nodetoolsnapshot命令为节点建立快照。也可经过并行SSH工具(如pssh)运行nodetool snapshot建立全局的快照。
$ nodetool -h localhost -p 7199 snapshot demdb
执行命令后首先会将内存中的数据刷进磁盘,以后为每一个keyspace的SSTable文件建立硬连接。快照的默认位置为/var/lib/cassandra/data/<keyspace_name>/<table_name>/snapshots。其中/var/lib/cassandra/data部分依据数据目录设置而不一样。
要保证空间充足,建立后可考虑移至其余位置。
建立新的快照并不会自动删除旧的快照,需在建立新快照前经过nodetool clearsnapshot命令移除旧的快照。
$ nodetool -h localhost -p 7199 clearsnapshot
一样可经过并行SSH工具(如pssh)运行nodetoolclearsnapshot一次删除全部节点的快照。
默认不开启,可经过在各节点的cassandra.yaml配置文件中设置incremental_backups为true来开启增量备份。开启后会为每一个新的被刷入的SSTable建立一个硬连接并拷贝至数据目录的/backups子目录。
Cassandra不会自动删除增量备份文件,建立新的快照前需手工移除旧的增量备份文件。
需全部的快照文件,若使用了增量备份还需快照建立以后全部的增量备份文件。一般,在从快照恢复数据前需先truncate表。(若备份发生在delete前而恢复发生在delete后且没truncate表时,则不能获得最原始的数据,由于直到compaction操做发生前被标记为tombstone的数据与原始数据处于不一样的SSTable中,因此恢复包含原始数据的SSTable不会移除被标记被tombstone的数据,这些数据仍然显示为将被删除)。
能够用以下方式从快照恢复数据
Ø 使用sstableloader工具
http://www.datastax.com/documentation/cassandra/2.0/webhelp/cassandra/tools/toolsBulkloader_t.html
Ø 先拷贝snapshot目录中的快照文件至相应数据目录。以后经过JConsole调用column family MBean 中的JMX方法loadNewSSTables()或者使用nodetool refresh命令而不调用上述方法。
Ø 使用重启节点的方式
1. 若恢复单节点则先关闭该节点,若恢复整个集群则需先关闭全部节点
2. 清除/var/lib/cassandra/commitlog中的全部文件
3. 删除<data_directory_location>/<keyspace_name>/<table_name>中全部*.db文件
4. 拷贝最新<data_directory_location>/<keyspace_name>/<table_name>/snapshots/<snapshot_name>的快照文件至<data_directory_location>/<keyspace_name>/<table_name>/snapshots/<snapshot_name>
5. 若使用了增量备份则还需拷贝<data_directory_location>/<keyspace_name>/<table_name>/backups中的内容至<data_directory_location>/<keyspace_name>/<table_name>
6. 重启节点
7. 运行nodetool repair
Ø nodetool:管理Cassandra集群的命令行工具
Ø sstableloader:载入大量外部数据至一集群;将已经存在的SSTable载入到另一个节点数不一样或者复制策略不一样的集群;从快照恢复数据。上述操做无需停机。
Ø cassandra:启动cassandra 服务器进程
Ø cassandra-stress:基于java的Cassandra集群压力测试工具。
Ø cassandra-shuffle:在不停机的状态下将single-token-per-node的结构转化为使用虚拟节点的结构。
Ø sstablescrub:清洗指定的表的SSTable。
Ø sstable2json/json2sstable:前者将磁盘中表示表的SStable转化为JSON格式的文档,用于调试和测试目的;后者作反向转换。
Ø sstablekeys:sstable2json –e 的缩写,仅做用于key。
Ø sstableupgrade:将特定表中或快照中的SSTable升级至匹配当前Cassandra版本。
http://www.datastax.com/documentation/cassandra/2.0/webhelp/index.html