优化时机
通常单表超过500万左右,或明显感受到性能降低时,须要优化mysql
优化方案
- 读写分离
- 使用缓存,如memcached或Redis
- 使用搜索引擎,如ElasticSearch或solr
- 分库分表
详细说明
- 读写分离很容易实现,建议在一开始作,没必要等到性能降低时
- 发现性能降低时可作。好比有一张500万大表,不可能缓存全表,只能缓存热点数据,因此须要有一个监控热点数据的功能
- 像缓存整个大表或者数据量很大能够用搜索引擎,搜索引擎是文件存储,适合高效查找,但不对插入修改、事务等支持。使用搜索引擎的话须要定时把mysql的数据同步给它,一样的数据须要预留2倍磁盘,虽然搜索引擎可能能够压缩
- 分库分表其实能够在第二步作,但实现较复杂;分表后必然涉及要读取多个表的问题,但对开发是透明的,在应用开发与数据库中间须要研发一个平台,自动hash索引到分表后的表。举个例子,假设有一张600万的表,能够分为两张表,按时间分,时间点A之前的分一张,500万;另外一张表100万,后续的都插入到该表
现状:数据库如今用5.5版本,免费的,不购买服务,使用了上面的2和3,暂时没遇到什么难题。不须要dba,通常难题研发能够搞定。sql
以上方案针对的是最大表是1000万数据量的表。超过1000万未经实践。(感谢老郭提供技术支持)数据库
ouyida3的blog
2015.4.8缓存