Posted on 29 三月, 2014 by lanceyan | 104 Replieshtml
按照上一节中《搭建高可用mongodb集群(三)—— 深刻副本集》搭建后还有两个问题没有解决:java
在系统早期,数据量还小的时候不会引发太大的问题,可是随着数据量持续增多,后续早晚会出现一台机器硬件瓶颈问题的。而mongodb主打的就是海量数据架构,他不能解决海量数据怎么行!不行!“分片”就用这个来解决这个问题。mysql
传统数据库怎么作海量数据读写?其实一句话归纳:分而治之。上图看看就清楚了,以下 taobao岳旭强在infoq中提到的 架构图:linux
上图中有个TDDL,是taobao的一个数据访问层组件,他主要的做用是SQL解析、路由处理。根据应用的请求的功能解析当前访问的sql判断是在哪一个业务数据库、哪一个表访问查询并返回数据结果。具体如图:sql
说了这么多传统数据库的架构,那Nosql怎么去作到了这些呢?mysql要作到自动扩展须要加一个数据访问层用程序去扩展,数据库的增长、删除、备份还须要程序去控制。一但数据库的节点一多,要维护起来也是很是头疼的。不过mongodb全部的这一切经过他本身的内部机制就能够搞定!顿时石化了,这么牛X!仍是上图看看mongodb经过哪些机制实现路由、分片:mongodb
从图中能够看到有四个组件:mongos、config server、shard、replica set。shell
mongos,数据库集群请求的入口,全部的请求都经过mongos进行协调,不须要在应用程序添加一个路由选择器,mongos本身就是一个请求分发中心,它负责把对应的数据请求请求转发到对应的shard服务器上。在生产环境一般有多mongos做为请求的入口,防止其中一个挂掉全部的mongodb请求都没有办法操做。数据库
config server,顾名思义为配置服务器,存储全部数据库元信息(路由、分片)的配置。mongos自己没有物理存储分片服务器和数据路由信息,只是缓存在内存里,配置服务器则实际存储这些数据。mongos第一次启动或者关掉重启就会从 config server 加载配置信息,之后若是配置服务器信息变化会通知到全部的 mongos 更新本身的状态,这样 mongos 就能继续准确路由。在生产环境一般有多个 config server 配置服务器,由于它存储了分片路由的元数据,这个可不能丢失!就算挂掉其中一台,只要还有存货, mongodb集群就不会挂掉。缓存
shard,这就是传说中的分片了。上面提到一个机器就算能力再大也有天花板,就像军队打仗同样,一我的再厉害喝血瓶也拼不过对方的一个师。俗话说三个臭皮匠顶个诸葛亮,这个时候团队的力量就凸显出来了。在互联网也是这样,一台普通的机器作不了的多台机器来作,以下图:服务器
一台机器的一个数据表 Collection1 存储了 1T 数据,压力太大了!在分给4个机器后,每一个机器都是256G,则分摊了集中在一台机器的压力。也许有人问一台机器硬盘加大一点不就能够了,为何要分给四台机器呢?不要光想到存储空间,实际运行的数据库还有硬盘的读写、网络的IO、CPU和内存的瓶颈。在mongodb集群只要设置好了分片规则,经过mongos操做数据库就能自动把对应的数据操做请求转发到对应的分片机器上。在生产环境中分片的片键可要好好设置,这个影响到了怎么把数据均匀分到多个分片机器上,不要出现其中一台机器分了1T,其余机器没有分到的状况,这样还不如不分片!
replica set,上两节已经详细讲过了这个东东,怎么这里又来凑热闹!其实上图4个分片若是没有 replica set 是个不完整架构,假设其中的一个分片挂掉那四分之一的数据就丢失了,因此在高可用性的分片架构还须要对于每个分片构建 replica set 副本集保证分片的可靠性。生产环境一般是 2个副本 + 1个仲裁。
说了这么多,仍是来实战一下如何搭建高可用的mongodb集群:
首先肯定各个组件的数量,mongos 3个, config server 3个,数据分3片 shard server 3个,每一个shard 有一个副本一个仲裁也就是 3 * 2 = 6 个,总共须要部署15个实例。这些实例能够部署在独立机器也能够部署在一台机器,咱们这里测试资源有限,只准备了 3台机器,在同一台机器只要端口不一样就能够,看一下物理部署图:
架构搭好了,安装软件!
1 2 |
|
1 2 |
|
1 |
|
1 2 |
|
1 2 |
|
1 2 |
|
1 2 |
|
1 2 |
|
1 2 |
|
1 2 |
|
1 2 |
|
1 2 |
|
1 2 |
|
1 2 |
|
1 |
|
1 |
|
1 2 |
|
为了快速启动并节约测试环境存储空间,这里加上 nojournal 是为了关闭日志信息,在咱们的测试环境不须要初始化这么大的redo日志。一样设置 oplogsize是为了下降 local 文件的大小,oplog是一个固定长度的 capped collection,它存在于”local”数据库中,用于记录Replica Sets操做日志。注意,这里的设置是为了测试!
1 2 |
|
1 2 |
|
分别对每一个分片配置副本集,深刻了解副本集参考本系列前几篇文章。
任意登录一个机器,好比登录192.168.0.136,链接mongodb
1 2 |
|
1 2 |
|
1 2 3 4 5 6 7 |
|
1 2 |
|
1 2 |
|
1 2 |
|
1 2 3 4 5 6 7 |
|
1 2 |
|
1 2 |
|
1 2 |
|
1 2 3 4 5 6 7 |
|
1 2 |
|
1 2 |
|
1 2 |
|
1 2 |
|
如里shard是单台服务器,用 db.runCommand( { addshard : “[:]” } )这样的命令加入,若是shard是副本集,用db.runCommand( { addshard : “replicaSetName/[:port][,serverhostname2[:port],…]” });这样的格式表示 。
1 2 |
|
1 2 |
|
1 2 |
|
#内容输出
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 |
|
由于192.168.0.138是每一个分片副本集的仲裁节点,因此在上面结果没有列出来。
链接在mongos上,准备让指定的数据库、指定的集合分片生效。
1 2 |
|
1 2 |
|
咱们设置testdb的 table1 表须要分片,根据 id 自动分片到 shard1 ,shard2,shard3 上面去。要这样设置是由于不是全部mongodb 的数据库和表 都须要分片!
1 2 |
|
1 2 |
|
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 |
|
整个分片集群搭建完了,思考一下咱们这个架构是否是足够好呢?其实还有不少地方须要优化,好比咱们把全部的仲裁节点放在一台机器,其他两台机器承担了所有读写操做,可是做为仲裁的192.168.0.138至关空闲。让机器3 192.168.0.138多分担点责任吧!架构能够这样调整,把机器的负载分的更加均衡一点,每一个机器既能够做为主节点、副本节点、仲裁节点,这样压力就会均衡不少了,如图:
固然生产环境的数据远远大于当前的测试数据,大规模数据应用状况下咱们不可能把所有的节点像这样部署,硬件瓶颈是硬伤,只能扩展机器。要用好mongodb还有不少机制须要调整,不过经过这个东东咱们能够快速实现高可用性、高扩展性,因此它仍是一个很是不错的Nosql组件。
再看看咱们使用的mongodb java 驱动客户端 MongoClient(addresses),这个能够传入多个mongos 的地址做为mongodb集群的入口,而且能够实现自动故障转移,可是负载均衡作的好很差呢?打开源代码查看:
它的机制是选择一个ping 最快的机器来做为全部请求的入口,若是这台机器挂掉会使用下一台机器。那这样。。。。确定是不行的!万一出现双十一这样的状况全部请求集中发送到这一台机器,这台机器颇有可能挂掉。一但挂掉了,按照它的机制会转移请求到下台机器,可是这个压力总量仍是没有减小啊!下一台仍是可能崩溃,因此这个架构还有漏洞!不过这个文章已经太长了,后续解决吧。
参考:
http://docs.mongodb.org/manual/core/sharding-introduction/
原创文章,转载请注明: 转载自LANCEYAN.COM