主从+哨兵架构,解决了单点问题和请求压力问题,可是数据容量仍然是 1:1 的克隆数据,数据容量问题依旧存在,数据并无分摊到各个节点。mysql
从业务的角度不一样的模块按约定好的逻辑落入不一样的Redis 节点。面试
好比:评论业务用一个redis阶段,商品信息业务用另一个节点,购物车用另一个节点。redis
弊端:redis节点数改变的话,数据就分配规则就被打破了。算法
使用场景:消息队列。sql
数据随机的落入到不一样的节点,对于客户端而言无所谓数据落在那一台节点,只须要知道key就能拿到数据。数据库
规划一个虚拟的环形节点,将节点和数据参与位置分配算法。设计模式
优势:增长节点能够分担其余节点的压力,不会形成全局洗牌,本来的数据还在最初规划出的物理节点中。缓存
一致性Hash缺点:
多线程
方案:当在计算出的离最近节点没有获取到的数据,尝试从离计算值最近的2个物理节点去去获取数据。架构
假设:咱们刚上线的时候Redis节点只有两台,而个人的数据的key是多是基于某一个基准在往上作增加,那么就会致使数据大概倾斜的落在某一个节点,最极端的可能致使全部的请求都打在了这一个节点,从而拖垮此节点,从而引起缓存雪崩
。
方案:上述问题的关键点在于物理节点少,数据落点
非黑即白
,那么可否增长逻辑上的节点?只有两台物理节点,可是还有不一样的端口啊,ok,那就在每一个IP以后再添加随机的数字去生成逻辑节点。
上述的解决方案中,咱们把数据路由的逻辑架在了客户端,可是对于客户端而言,链接能够当作是几类数据直接怼在了服务端。这对于服务端而言链接的开销也是不小的。革命还没有成功,还需努力
。
基于客户端路由
租客谁都找房东去房东带看房子怎么能受得了对吧,那就找中介
呗
基于代理路由
那么此时只要关注的就是这个中介proxy
代理的性能。 那么是否有已经造好的Proxy轮子?
咱们前面说的经过hash取模计算数据所属节点的方案中,缺陷在于增减节点须要对全部的数据rehash
,再根据rehash的结果迁移数据。那么是否可以将数据预先规划
? 假设最初节点只有两个,要预先规划数据所属节点,先将数据预先规划为10槽位(slots),在Redis Cluster里实际上是分配了16384个slots,后续增长节点则直接从2个节点各自分一段范围的数据过来,雨露均沾
嘛。而后分到的数据进行rehash,再数据迁移到新的节点。
这样子的话,只要增长了节点。数据仍是存在高频的rehash呀?并且假如要对两个相同类型的数据进行求交并补运算的话,redis也没办法作。比如两个物理库的mysql数据没办法inner join。
对数据加标签(hash tag)而不是单纯的直接经过hash(key),Redis不想被吐槽它不行
呀。这个锅得用户本身背,你想要对这部分的数据作运算,作事务处理那么你就应该尽量的将数据划分到一个物理机上。你本身给数据加tag,从而对同一个tag作hash运算的时候能保证在一个物理机上。
每一个节点存一份
数据-节点
映射关系表,好比redis1节点存放的是0,1,2的hash值对应的数据,redis1为5,6,7,此时用户请求获取key1,其hash值为3。
一直想整理出一份完美的面试宝典,可是时间上一直腾不开,这套一千多道面试题宝典,结合今年金三银四各类大厂面试题,以及 GitHub 上 star 数超 30K+ 的文档整理出来的,我上传之后,毫无心外的短短半个小时点赞量就达到了 13k,说实话仍是有点难以想象的。
内容涵盖:Java、MyBatis、ZooKeeper、Dubbo、Elasticsearch、Memcached、Redis、MySQL、Spring、SpringBoot、SpringCloud、RabbitMQ、Kafka、Linux等技术栈(485页)
内容涵盖:Java基础、JVM、高并发、多线程、分布式、设计模式、Spring全家桶、Java、MyBatis、ZooKeeper、Dubbo、Elasticsearch、Memcached、MongoDB、Redis、MySQL、RabbitMQ、Kafka、Linux、Netty、Tomcat、数据库、云计算等
因为篇幅限制,详解资料太全面,细节内容太多,因此只把部分知识点截图出来粗略的介绍,每一个小节点里面都有更细化的内容!
须要的小伙伴,能够一键三连,下方获取免费领取方式!