mysql 分库分表的方法

分表后怎么作全文搜索php

1.merge方式分表(很差)html

2. 使用 sql unionmysql

3 使用Sphinx全文检索引擎linux

一,先说一下为何要分表程序员

当一张的数据达到几百万时,你查询一次所花的时间会变多,若是有联合查询的话,我想有可能会死在那儿了。分表的目的就在于此,减少数据库的负担,缩短查询时间。算法

根据我的经验,mysql执行一个sql的过程以下:
1,接收到sql;2,把sql放到排队队列中 ;3,执行sql;4,返回执行结果。在这个执行过程当中最花时间在什么地方呢?第一,是排队等待的时间,第二,sql的执行时间。其实这二个是一回事,等待的同时,确定有sql在执行。因此咱们要缩短sql的执行时间。sql

mysql中有一种机制是表锁定和行锁定,为何要出现这种机制,是为了保证数据的完整 性,我举个例子来讲吧,若是有二个sql都要修改同一张表的同一条数据,这个时候怎么办呢,是否是二个sql均可以同时修改这条数据呢?很显然mysql 对这种状况的处理是,一种是表锁定(myisam存储引擎),一个是行锁定(innodb存储引擎)。表锁定表示大家都不能对这张表进行操做,必须等我对 表操做完才行。行锁定也同样,别的sql必须等我对这条数据操做完了,才能对这条数据进行操做。若是数据太多,一次执行的时间太长,等待的时间就越长,这 也是咱们为何要分表的缘由。数据库

 

垂直分割服务器

就是将一个大表分为多个小表.把主码和一些列放到一个表,而后把主码和另外的列放到另外一个表中。
若是一个表中某些列经常使用,而另一些列不经常使用,则能够采用垂直分割,另外垂直分割可使得数据行变小,一个数据页就能存放更多的数据,在查询时就会减小I/O次数。其缺点是须要管理冗余列,查询全部数据须要join操做。好比物料有不少属性,不一样的部门有不一样的属性需求,好比财务部门有财务的属性要求,采购部门有采购的属性要求,按部门要求不一样拆分为不一样的表,仅将基本的公共属性放在主表中,根据不一样的部门要求建不一样的表及查询视图,性能要好一些微信

 

常见的分表维度考虑

按时间分表

这种分表方式有必定的局限性,当数据有较强的实效性,如微博发送记录、微信消息记录等,这种数据不多有用户会查询几个月前的数据,如就能够按月分表。

数据迁移的方式

当一些好久以前的数据,不多再查询。好比员工工资表,咱们能够只存今年的工资状况。而历史数据咱们能够迁移到一张salary_old表中,保证数据不会丢失。但也能够用来查询。天天按期把今年中的最先一天的记录纳入旧表中。这样一方面能够解决性能问题,最多也只须要读2张表就完成了。

按热度拆分

典型的像贴吧这种有高点击率的词条,也有低点击率的词条,若是一个词条一张表,那得多少表啊,因此通常这种状况就会对高点击率的词条生成 一张表,低热度的词条都放在一张大表里,待低热度的词条达到必定的贴数后,好比1W条,再把低热度的表单独拆分红一张表。

 

二,分表

1,作mysql集群,例如:利用mysql cluster ,mysql proxy,mysql replication,drdb等等

有人会问mysql集群,根分表有什么关系吗?虽然它不是实际意义上的分表,可是它启到 了分表的做用,作集群的意义是什么呢?为一个数据库减轻负担,说白了就是减小sql排队队列中的sql的数量,举个例子:有10个sql请求,若是放在一 个数据库服务器的排队队列中,他要等很长时间,若是把这10个sql请求,分配到5个数据库服务器的排队队列中,一个数据库服务器的队列中只有2个,这样 等待时间是否是大大的缩短了呢?这已经很明显了。因此我把它列到了分表的范围之内,我作过一些mysql的集群:

linux mysql proxy 的安装,配置,以及读写分离

mysql replication 互为主从的安装及配置,以及数据同步

优势:扩展性好,没有多个分表后的复杂操做(php代码)

缺点:单个表的数据量仍是没有变,一次操做所花的时间仍是那么多,硬件开销大。

2,预先估计会出现大数据量而且访问频繁的表,将其分为若干个表

使用MD5哈希

作法是对UID进行md5加密,而后取前几位(咱们这里取前两位),而后就能够将不一样的UID哈希到不一样的用户表(user_xx)中了

Java代码   收藏代码
  1. <?php  
  2. function get_hash_table($table, $userid)  
  3. {  
  4.     $str = crc32($userid);  
  5.     if ($str < 0) {  
  6.         $hash = "0" . substr(abs($str), 0, 1);  
  7.     } else {  
  8.         $hash = substr($str, 0, 2);  
  9.     }  
  10.     return $table . "_" . $hash;  
  11. }  
  12. //echo get_hash_table('message', 'user18991'); //结果为message_10  
  13. //echo get_hash_table('message', 'user34523'); //结果为message_13  
  14. function calc_hash_db($u, $s = 4) {  
  15.     $h = sprintf("%u", crc32($u));  
  16.     $h1 = intval(fmod($h, $s));  
  17.     return $h1;  
  18. }  
  19.   
  20. for ($i = 1; $i < 40; $i++) {  
  21.     echo calc_hash_tbl($i);  
  22.     echo "<br>";  
  23.     echo calc_hash_db($i);  
  24.     echo "<br>";  
  25. }  
  26.   
  27. function calc_hash_tbl($u, $n = 256, $m = 16) {  
  28.     $h = sprintf("%u", crc32($u));  
  29.     $h1 = intval($h / $n);  
  30.     $h2 = $h1 % $n;  
  31.     $h3 = base_convert($h2, 10, $m);  
  32.     $h4 = sprintf("%02s", $h3);  
  33.   
  34.     return $h4;  
  35. }  
  36. #################  
  37. function getTable( $uid ){  
  38.     $ext = substr ( md5($uid) ,0 ,2 );  
  39.     return "user_".$ext;  
  40. }  
  41. ###################  
  42. private function getDbNo($email)  
  43. {  
  44.     $m = md5($email);  
  45.     $n = hexdec(substr($m, 0, 16));  
  46.     $tableNo = fmod($n, 1000);  
  47.     $dbNo = $tableNo % 100;  
  48.     return array($dbNo, $tableNo);  
  49. }  

经过这个技巧,咱们能够将不一样的UID分散到256中用户表中,分别是user_00,user_01 ……    user_ff。由于UID是数字且递增,根据md5的算法,能够将用户数据几乎很均匀的分别到不一样的user表中。

可是这里有个问题是,若是咱们的系统的用户愈来愈多,势必单张表的数据量愈来愈大,并且根据这种算法没法扩展表,这又会回到文章开头出现的问题了。

使用移位

Java代码   收藏代码
  1. /** 
  2.  * 根据UID分表算法 
  3.  * 
  4.  * @param int $uid  //用户ID 
  5.  * @param int $bit    //表后缀保留几位 
  6.  * @param int $seed //向右移动位数 
  7.  */  
  8. function getTable( $uid , $bit , $seed ){  
  9.     return "user_" . sprintf( "%0{$bit}d" , ($uid >> $seed) );  
  10.     return "user_" . sprintf( "%04d", ($uid >> 20) );  
  11.   
  12. }  

这里,咱们将uid向右移动20位,这样咱们就能够把大约前100万的用户数据放在第一个表user_0000,第二个100万的用户数据放在第二 个表user_0001中,这样一直下去,若是咱们的用户愈来愈多,直接添加用户表就好了。因为咱们保留的表后缀是四位,这里咱们能够添加1万张用户表, 即user_0000,user_0001 …… user_9999。一万张表,每张表100万数据,咱们能够存100亿条用户记录。固然,若是你的用户数据比这还多,也没关系,你只要改变保留表后缀来 增长能够扩展的表就好了,如若是有1000亿条数据,每一个表存100万,那么你须要10万张表,咱们只要保留表后缀为6位便可。

上面两种方法,都要对咱们当前系统的用户数据量作出可能最大的预估,而且对数据库单个表的最大承受量作出预估。

好比第二种方案,若是咱们预估咱们系统的用户是100亿,单张表的最优数据量是100万,那么咱们就须要将UID移动20来确保每一个表是100万的数据,保留用户表(user_xxxx)四位来扩展1万张表。

又如第一种方案,每张表100万,md5后取前两位,就只能有256张表了,系统总数据库就是:256*100万;若是你系统的总数据量的比这还多,那你实现确定要MD5取前三位或者四位甚至更多位了。

两种方法都是将数据水平切分到不一样的表中,相对第一种方法,第二种方法更具扩展性。

 

3,利用merge存储引擎来实现分表

我以为这种方法比较适合,那些没有事先考虑,而已经出现了得,数据查询慢的状况。这个时 候若是要把已有的大数据量表分开比较痛苦,最痛苦的事就是改代码,由于程序里面的sql语句已经写好了,如今一张表要分红几十张表,甚至上百张表,这样 sql语句是否是要重写呢?举个例子,我很喜欢举子

mysql>show engines;的时候你会发现mrg_myisam其实就是merge。

Java代码   收藏代码
  1. CREATE TABLE IF NOT EXISTS `user1` (    
  2.     `id` int(11) NOT NULL AUTO_INCREMENT,    
  3.     `name` varchar(50) DEFAULT NULL,    
  4.     `sex` int(1) NOT NULL DEFAULT '0',    
  5.     PRIMARY KEY (`id`)    
  6.   ) ENGINE=MyISAM  DEFAULT CHARSET=utf8 AUTO_INCREMENT=1 ;    
  7. Query OK, 0 rows affected (0.05 sec)  
  8.   
  9.  CREATE TABLE IF NOT EXISTS `user2` (    
  10.     `id` int(11) NOT NULL AUTO_INCREMENT,    
  11.     `name` varchar(50) DEFAULT NULL,    
  12.     `sex` int(1) NOT NULL DEFAULT '0',    
  13.     PRIMARY KEY (`id`)    
  14.   ) ENGINE=MyISAM  DEFAULT CHARSET=utf8 AUTO_INCREMENT=1 ;    
  15. Query OK, 0 rows affected (0.01 sec)  
  16.   
  17. mysql> INSERT INTO `user1` (`name`, `sex`) VALUES('张映', 0);  
  18. Query OK, 1 row affected (0.00 sec)  
  19.   
  20. mysql> INSERT INTO `user2` (`name`, `sex`) VALUES('tank', 1);  
  21. Query OK, 1 row affected (0.00 sec)  
  22.   
  23. CREATE TABLE IF NOT EXISTS `alluser` (  
  24.     `id` int(11) NOT NULL AUTO_INCREMENT,  
  25.     `name` varchar(50) DEFAULT NULL,  
  26.     `sex` int(1) NOT NULL DEFAULT '0',  
  27.     INDEX(id)  
  28.   ) TYPE=MERGE UNION=(user1,user2) INSERT_METHOD=LAST AUTO_INCREMENT=1 ;  
  29. Query OK, 0 rows affected, 1 warning (0.00 sec)  
  30.   
  31. mysql> select id,name,sex from alluser;  
  32. +----+--------+-----+  
  33. | id | name   | sex |  
  34. +----+--------+-----+  
  35. |  1 | 张映 |   0 |  
  36. |  1 | tank   |   1 |  
  37. +----+--------+-----+  
  38. 2 rows in set (0.00 sec)  
  39.   
  40. mysql> INSERT INTO `alluser` (`name`, `sex`) VALUES('tank2', 0);  
  41. Query OK, 1 row affected (0.00 sec)  
  42.   
  43. mysql> select id,name,sex from user2  
  44.  -> ;  
  45. +----+-------+-----+  
  46. | id | name  | sex |  
  47. +----+-------+-----+  
  48. |  1 | tank  |   1 |  
  49. |  2 | tank2 |   0 |  
  50. +----+-------+-----+  
  51. 2 rows in set (0.00 sec)  

从上面的操做中,我不知道你有没有发现点什么?假如我有一张用户表user,有50W条数据,如今要拆成二张表user1和user2,每张表25W条数据,

INSERT INTO user1(user1.id,user1.name,user1.sex)SELECT (user.id,user.name,user.sex)FROM user where user.id <= 250000

INSERT INTO user2(user2.id,user2.name,user2.sex)SELECT (user.id,user.name,user.sex)FROM user where user.id > 250000

这样我就成功的将一张user表,分红了二个表,这个时候有一个问题,代码中的sql语 句怎么办,之前是一张表,如今变成二张表了,代码改动很大,这样给程序员带来了很大的工做量,有没有好的办法解决这一点呢?办法是把之前的user表备份 一下,而后删除掉,上面的操做中我创建了一个alluser表,只把这个alluser表的表名改为user就好了。可是,不是全部的mysql操做都能 用的

a,若是你使用 alter table 来把 merge 表变为其它表类型,到底层表的映射就被丢失了。取而代之的,来自底层 myisam 表的行被复制到已更换的表中,该表随后被指定新类型。

b,网上看到一些说replace不起做用,我试了一下能够起做用的。晕一个先

Java代码   收藏代码
  1. mysql> UPDATE alluser SET sex=REPLACE(sex, 0, 1) where id=2;    
  2. Query OK, 1 row affected (0.00 sec)    
  3.  Rows matched: 1  Changed: 1  Warnings: 0    
  4.      
  5.  mysql> select * from alluser;    
  6.  +----+--------+-----+    
  7.  | id | name   | sex |    
  8.  +----+--------+-----+    
  9.  |  1 | 张映 |   0 |    
  10.  |  1 | tank   |   1 |    
  11.  |  2 | tank2  |   1 |    
  12.  +----+--------+-----+    
  13.  3 rows in set (0.00 sec)    

c,一个 merge 表不能在整个表上维持 unique 约束。当你执行一个 insert,数据进入第一个或者最后一个 myisam 表(取决于 insert_method 选项的值)。mysql 确保惟一键值在那个 myisam 表里保持惟一,但不是跨集合里全部的表。

d,当你建立一个 merge 表之时,没有检查去确保底层表的存在以及有相同的机构。当 merge 表被使用之时,mysql 检查每一个被映射的表的记录长度是否相等,但这并不十分可靠。若是你从不类似的 myisam 表建立一个 merge 表,你很是有可能撞见奇怪的问题。

好困睡觉了,c和d在网上看到的,没有测试,你们试一下吧。

优势:扩展性好,而且程序代码改动的不是很大

缺点:这种方法的效果比第二种要差一点

 

三,总结一下

上面提到的三种方法,我实际作过二种,第一种和第二种。第三种没有作过,因此说的细一 点。哈哈。作什么事都有一个度,超过个度就过变得不好,不能一味的作数据库服务器集群,硬件是要花钱买的,也不要一味的分表,分出来1000 表,mysql的存储归根到底还以文件的形势存在硬盘上面,一张表对应三个文件,1000个分表就是对应3000个文件,这样检索起来也会变的很慢 。个人 建议是

方法1和方法2结合的方式来进行分表

方法1和方法3结合的方式来进行分表

个人二个建议适合不一样的状况,根据我的状况而定,我以为会有不少人选择方法1和方法3结合的方式

 

分库分表产生的问题,及注意事项1. 分库分表维度的问题假如用户购买了商品,须要将交易记录保存取来,若是按照用户的纬度分表,则每一个用户的交易记录都保存在同一表中,因此很快很方便的查找到某用户的购买状况,可是某商品被购买的状况则颇有可能分布在多张表中,查找起来比较麻烦。反之,按照商品维度分表,能够很方便的查找到此商品的购买状况,但要查找到买人的交易记录比较麻烦。 因此常见的解决方式有:     a.经过扫表的方式解决,此方法基本不可能,效率过低了。     b.记录两份数据,一份按照用户纬度分表,一份按照商品维度分表。     c.经过搜索引擎解决,但若是实时性要求很高,又得关系到实时搜索。2. 联合查询的问题联合查询基本不可能,由于关联的表有可能不在同一数据库中。 3.   避免跨库事务避免在一个事务中修改db0中的表的时候同时修改db1中的表,一个是操做起来更复杂,效率也会有必定影响。4.   尽可能把同一组数据放到同一DB服务器上例如将卖家a的商品和交易信息都放到db0中,当db1挂了的时候,卖家a相关的东西能够正常使用。也就是说避免数据库中的数据依赖另外一数据库中的数据。

相关文章
相关标签/搜索