PHP+Mysql高并发解决

在项目中,常常都会遇到高并发问题,如在某个时间点有100我的对同一数据进行更改,这样就会产生问题,最后致使的数据会不许确,一般的解决高并发的方法有读取数据时加缓存,写入数据时添加到队列,下面罗列一些处理高并发的常见方法供你们参考。php

1、MySQL批量插入优化

对于一些数据量较大的系统,数据库面临的问题除了查询效率低下,还有就是数据入库时间长。特别像报表系统,天天花费在数据导入上的时间可能会长达几个小时或十几个小时之久。所以,优化数据库插入性能是颇有意义的。
通过对MySQL innodb的一些性能测试,发现一些能够提升insert效率的方法,供你们参考参考。mysql

  1. 一条SQL语句插入多条数据。
    经常使用的插入语句如:redis

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ('0', 'userid_0', 'content_0', 0);
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ('1', 'userid_1', 'content_1', 1);

修改为:sql

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES ('0', 'userid_0', 'content_0', 0), ('1', 'userid_1', 'content_1', 1);

修改后的插入操做可以提升程序的插入效率。这里第二种SQL执行效率高的主要缘由是合并后日志量(MySQL的binlog和innodb的事务让日志)减小了,下降日志刷盘的数据量和频率,从而提升效率。经过合并SQL语句,同时也能减小SQL语句解析的次数,减小网络传输的IO。
这里提供一些测试对比数据,分别是进行单条数据的导入与转化成一条SQL语句进行导入,分别测试1百、1千、1万条数据记录。数据库

clipboard.png

还能够在事务中进行插入处理。
更多详情,请看原文章:MySQL批量SQL插入性能优化segmentfault


相关文章:
【高并发简单解决方案】redis队列缓存 + mysql 批量入库 + php离线整合
秒杀活动设计方案缓存

相关文章
相关标签/搜索