像Facebook、开心001、人人网、优酷、豆瓣、淘宝等高流量、高并发的网站,单点数据库很难支撑得住,WEB2.0类型的网站中使用MySQL的居多,要么用MySQL自带的MySQL NDB Cluster(MySQL5.0及以上版本支持MySQL NDB Cluster功能),或者用MySQL自带的分区功能(MySQL5.1及以上版本支持分区功能),我所知道的使用这两种方案的不多,通常使用主从复制,再加上MySQL Proxy实现负载均衡、读写分离等功能,在使用主从复制的基础上,再使用垂直切分及水平切分;或者不使用主从复制,彻底使用垂直切分加上水平切分再加上相似Memcached的系统也能够解决问题。html
1.优酷的经验
数据库采用水平扩展,主从复制,随着从数据库的增多,复制延迟愈来愈厉害,最终没法忍受。
最终仍是采用数据库的sharding,把一组用户相关的表和数据放到一组数据库上。
使用SSD来优化mysql的I/O,性能提高明显,每块16G,6块SSD作RAID。
数据库的类型选用MYISAM
数据库的拆分策略,先纵向按照业务或者模块拆分。对于一些特别大的表,再采用垂直拆分
根据用户进行分片,尽量不要跨篇查询。若是确实要跨片查询,能够考虑搜索的方案,先索引再搜索。
分布式的数据库方案太复杂,否掉。node
优酷使用的是数据库分片技术,而抛弃了因为数据量的愈来愈多致使复制延迟的问题。按照user_id进行分片,这样必须有一个全局的表来管理用户与shard的关系,根据user_id能够获得share_id,而后根据share_id去指定的分片查询指定的数据。mysql
假如此表的表名为sharding_manager,若是网站的用户数太多,好比千万级的或甚至更大好比亿级的用 户,此时此表也许也会成为一个瓶颈,由于查询会很是频繁,全部的动态请求都要读此表,这时能够用其它的解决方案,好比用Memcached、Tokyo Cabinet、Berkeley DB或其它的性能更高的方案来解决。sql
具体怎么定位到哪台db服务器,定位到哪一个数据库,定位到哪一个shard(就是userN,msgN,videoN),优酷网的架构文档中说得不是很仔细,这里只能猜想一下了。数据库
根据优酷的架构图,一共有2台db服务器,每台db服务器有2个数据库,每一个数据库有3个shard,这样一共是2 * 2 * 3 = 12个shard。缓存
user_id通常是自增型字段,用户注册的时候能够自动生成,而后看有几台db服务器,假若有m台db服务器,则用 user_id % m即可以分配一台db服务器(例如0对应100,1对应101,以此类推,字段mysql_server_ip的值肯定),假设每台服务器有n个数据库,则用user_id % n能够定位到哪一个数据库(字段database_name的值肯定),假设每一个数据库有i个shard,则用user_id % i能够定位到哪一个shard(字段shard_id的值肯定),这样就能够进行具体的数据库操做了。服务器
user_id share_id mysql_server_ip database_name
101 2 192.168.1.100 shard_db1
105 0 192.168.1.100 shard_db2
108 0 192.168.1.101 shard_db3(或shard_db1)
110 1 192.168.1.101 shard_db4(或shard_db2)网络
如上述user_id为101的用户,链接数据库服务器192.168.1.100,使用其中的数据库为shard_db1,使用其中的表系列为user2,msg2,video2架构
若是上述的m,n,i发生变化,好比网站的用户不断增加,须要增长db服务器,此时则须要进行数据库迁移,关于迁移,参见这儿。并发
由于表位于不一样的数据库中,因此不一样的数据库中表名能够相同
server1(192.168.1.100)
shard_db1
user0
msg0
video0
user1
msg1
video1
...
userN
msgN
videoN
shard_db2
user0
msg0
video0
user1
msg1
video1
...
userN
msgN
videoN
由于表位于不一样的数据库服务器中,因此不一样的数据库服务器中的数据库名能够相同
server2(192.168.1.101)
shard_db3(这里也能够用shard_db1)
user0
msg0
video0
user1
msg1
video1
...
userN
msgN
videoN
shard_db4(这里也能够用shard_db2)
user0
msg0
video0
user1
msg1
video1
...
userN
msgN
videoN
2.豆瓣的经验
因为从主库到辅库的复制须要时间
更新主库后,下一个请求每每就是要读数据(更新数据后刷新页面)
从辅库读会致使cache里存放的是旧数据(不知道这个cache具体指的是什么,若是是Memcached的话,若是更新的数据的量很大,难道把全部更新过的数据都保存在Memcached里面吗?)
解决方法:更新数据库后,在预期可能会立刻用到的状况下,主动刷新缓存
不完美,but it works
豆瓣后来改成双MySQL Master+Slave说是能解决Replication Delay的问题,不知道是怎么解决的,具体不太清楚。
3.Facebook的经验
下面一段内容引用自www.dbanotes.net
大量的 MySQL + Memcached 服务器,布署简示:
California (主 Write/Read)............. Virginia (Read Only)
主 数据中心在 California ,远程中心在 Virginia 。这两个中心网络延迟就有 70ms,MySQL 数据复制延迟有的时候会达到 20ms. 若是要让只读的信息从 Virginia 端发起,Memcached 的 Cache 数据一致性就是个问题。1 用户发起更新操做,改名 "Jason" 到 "Monkey" ;
2 主数据库写入 "Monkey",删除主端 Memcached 中的名字值,但Virginia 端 Memcached 不删;(这地方在 SQL 解析上做了一点手脚,把更新的操做"示意"给远程);
3 在 Virginia 有人查看该用户 Profile ;
4 在 Memcached 中找到键值,返回值 "Jason";
5 复制追上更新 Slave 数据库用户名字为 "Monkey",删除 Virginia Memcached 中的键值;
6 在 Virginia 有人查看该用户 Profile ;
7 Memcache 中没找到键值,因此从 Slave 中读取,而后获得正确的 "Monkey" 。
Via
从上面3能够看出,也仍然存在数据延迟的问题。同时master中数据库更新的时候不更新slave中的memcached,只是给slave发个通知,说数据已经改变了。
那是否是能够这样,当主服务器有数据更新时,当即更新从服务器中的Memcached中的数据,这样即便有延迟,但延迟的时间应该更短了,基本上能够忽略不计了。
4.Netlog的经验
对于比较重要且必须实时的数据,好比用户刚换密码(密码写入 Master),而后用新密码登陆(从 Slaves 读取密码),会形成密码不一致,致使用户短期内登陆出错。因此在这种须要读取实时数据的时候最好从 Master 直接读取,避免 Slaves 数据滞后现象发生。还好,须要读取实时数据的时候很少,好比用户更改了邮件地址,就不必立刻读取,因此这种 Master-Slaves 架构在多数状况下仍是有效的。Via这篇文章。
个人相关日志: