Zookeeper的ACL机制和Quota机制网上资料较少,这里作一个总结,以供你们参考。java
ZooKeeper的权限管理亦即ACL控制功能经过Server、Client两端协调完成:node
Server端:apache
一个ZooKeeper的节点(znode)存储两部份内容:数据和状态,状态中包含ACL信息。建立一个znode会产生一个ACL列表,列表中每一个ACL包括:api
l 验证模式(scheme)session
l 具体内容(Id)(当scheme=“digest”时,Id为用户名密码,例如“root:J0sTy9BCUKubtK1y8pkbL7qoxSw=”)框架
l 权限(perms)ide
ZooKeeper提供了以下几种验证模式(scheme):spa
l digest:Client端由用户名和密码验证,譬如user:password,digest的密码生成方式是Sha1摘要的base64形式3d
l auth:不使用任何id,表明任何已确认用户。rest
l ip:Client端由IP地址验证,譬如172.2.0.0/24
l world:固定用户为anyone,为全部Client端开放权限
l super:在这种scheme状况下,对应的id拥有超级权限,能够作任何事情(cdrwa)
注意的是,exists操做和getAcl操做并不受ACL许可控制,所以任何客户端能够查询节点的状态和节点的ACL。
节点的权限(perms)主要有如下几种:
l Create 容许对子节点Create操做
l Read 容许对本节点GetChildren和GetData操做
l Write 容许对本节点SetData操做
l Delete 容许对子节点Delete操做
l Admin 容许对本节点setAcl操做
Znode ACL权限用一个int型数字perms表示,perms的5个二进制位分别表示setacl、delete、create、write、read。好比0x1f=adcwr,0x1=----r,0x15=a-c-r。
[zk: localhost:2181(CONNECTED) 13] create /123 "123"
Created /123
[zk: localhost:2181(CONNECTED) 14] getAcl /123
'world,'anyone
: cdrwa
10.194.157.58这台机器上建立/test并设置ip访问权限
[zk: 10.194.157.58:2181(CONNECTED) 0] create /test "123"
Created /test
[zk: 10.194.157.58:2181(CONNECTED) 1] setAcl /test ip:10.194.157.58:crwda
cZxid = 0x740021e467
ctime = Wed Dec 02 18:09:09 CST 2015
mZxid = 0x740021e467
mtime = Wed Dec 02 18:09:09 CST 2015
pZxid = 0x740021e467
cversion = 0
dataVersion = 0
aclVersion = 1
ephemeralOwner = 0x0
dataLength = 5
numChildren = 0
[zk: 10.194.157.58:2181(CONNECTED) 2] ls /test
[]
能够看到,本机是能够访问的。
在10.205.148.152上登录
[zk: 10.194.157.58:2181(CONNECTED) 1] ls /test
Authentication is not valid : /test
能够看到,链接的ip不在受权中,提示访问错误。
[root@rocket zookeeper-server1]# cd /usr/local/zookeeper-server1/
[root@rocket zookeeper-server1]# pwd
/usr/local/zookeeper-server1
# 生成密文
[root@rocket zookeeper-server1]# java -cp ./zookeeper-3.4.6.jar:./lib/log4j-1.2.16.jar:./lib/slf4j-log4j12-1.6.1.jar:./lib/slf4j-api-1.6.1.jar org.apache.zookeeper.server.auth.DigestAuthenticationProvider test:test
test:test->test:V28q/NynI4JI3Rk54h0r8O5kMug=
建立acl
经过认证后,能够访问数据:
[zk: localhost:2181(CONNECTED) 0]
[zk: localhost:2181(CONNECTED) 0] ls /test_acl
Authentication is not valid : /test_acl
[zk: localhost:2181(CONNECTED) 1] getAcl /test_acl
'digest,'test:V28q/NynI4JI3Rk54h0r8O5kMug=
: cdrwa
[zk: localhost:2181(CONNECTED) 2] addauth digest test:test
[zk: localhost:2181(CONNECTED) 3] ls /test_acl
[]
[zk: localhost:2181(CONNECTED) 4] get /test_acl
"test"
cZxid = 0x33
ctime = Wed Dec 02 00:10:47 PST 2015
mZxid = 0x33
mtime = Wed Dec 02 00:10:47 PST 2015
pZxid = 0x33
cversion = 0
dataVersion = 0
aclVersion = 1
ephemeralOwner = 0x0
dataLength = 6
numChildren = 0
当设置了znode权限,可是密码忘记了怎么办?还好Zookeeper提供了超级管理员机制。
一次Client对znode进行操做的验证ACL的方式为:
a) 遍历znode的全部ACL:
i. 对于每个ACL,首先操做类型与权限(perms)匹配
ii. 只有匹配权限成功才进行session的auth信息与ACL的用户名、密码匹配
b) 若是两次匹配都成功,则容许操做;不然,返回权限不够error(rc=-102)
备注:若是znode ACL List中任何一个ACL都没有setAcl权限,那么就算superDigest也修改不了它的权限;再假如这个znode还不开放delete权限,那么它的全部子节点都将不会被删除。惟一的办法是经过手动删除snapshot和log的方法,将ZK回滚到一个之前的状态,而后重启,固然这会影响到该znode之外其它节点的正常应用。
superDigest设置的步骤
修改zkServer.sh,加入super权限设置
-Dzookeeper.DigestAuthenticationProvider.superDigest=super:gG7s8t3oDEtIqF6DM9LlI/R+9Ss=
从新启动Zookeeper
# ./zkServer.sh restart
这时候
不使用test:test进行认证,而是使用super:super进行认证:
[zk: localhost:2181(CONNECTED) 0] ls /test_acl
Authentication is not valid : /test_acl
[zk: localhost:2181(CONNECTED) 1] addauth digest super:super
[zk: localhost:2181(CONNECTED) 2] ls /test_acl
[]
[zk: localhost:2181(CONNECTED) 3] get /test_acl
"test"
cZxid = 0x33
ctime = Wed Dec 02 00:10:47 PST 2015
mZxid = 0x33
mtime = Wed Dec 02 00:10:47 PST 2015
pZxid = 0x33
cversion = 0
dataVersion = 0
aclVersion = 1
ephemeralOwner = 0x0
dataLength = 6
numChildren = 0
然而,ACL毕竟仅仅是访问控制,并不是完善的权限管理,经过这种方式作多集群隔离,还有不少局限性:
ACL并没有递归机制,任何一个znode建立后,都须要单独设置ACL,没法继承父节点的ACL设置。
除了ip这种scheme,digest和auth的使用对用户都不是透明的,这也给使用带来了很大的成本,不少依赖zookeeper的开源框架也没有加入对ACL的支持,例如hbase,storm。
ZooKeeper quota机制支持节点个数(znode)和空间大小(字节数)。
[zk: localhost:2181(CONNECTED) 2] create /test_quota "12345"
Created /test_quota
[zk: localhost:2181(CONNECTED) 3] listquota /test_quota
absolute path is /zookeeper/quota/test_quota/zookeeper_limits
quota for /test_quota does not exist.
# 这里看到quota尚未设置
[zk: localhost:2181(CONNECTED) 4] setquota -n 5 /test_quota
Comment: the parts are option -n val 5 path /test_quota
# -n表示设置znode count限制,这里表示/test_quota这个path下的znode count个数限制为5(包括/test_quota自己)
# -b 表示设置znode数据的字节大小限制,这里不作演示了,有兴趣的同窗下去本身实验
[zk: localhost:2181(CONNECTED) 5] listquota /test_quota
absolute path is /zookeeper/quota/test_quota/zookeeper_limits
Output quota for /test_quota count=5,bytes=-1 # 限制znode count为5
Output stat for /test_quota count=1,bytes=7 # 目前znode count为1
[zk: localhost:2181(CONNECTED) 3] create /test_quota/0 "0"
Created /test_quota/0
[zk: localhost:2181(CONNECTED) 6] create /test_quota/1 "1"
Created /test_quota/1
[zk: localhost:2181(CONNECTED) 7] create /test_quota/2 "2"
Created /test_quota/2
[zk: localhost:2181(CONNECTED) 8] create /test_quota/3 "3"
Created /test_quota/3
[zk: localhost:2181(CONNECTED) 9] create /test_quota/4 "4"
Created /test_quota/4
# 上面新建了多个znode
看zookeeper的日志,发现有Quota exceeded的日志,这里要说明一下zookeeper的Quota机制是比较温和的,即便超限了,只是在日志中报告一下,并不会限制Client的行为,Client能够继续操做znode。
在实际项目中,Client能够查看/zookeeper/quota目录下的数据来肯定是否超出quota限制,由此来作一些告警。
[zk: localhost:2181(CONNECTED) 4] get /zookeeper/quota/test_quota/zookeeper_limits
count=5,bytes=-1
[zk: localhost:2181(CONNECTED) 5] get /zookeeper/quota/test_quota/zookeeper_stats
count=7,bytes=25