使用存储过程向数据库批量插入数据

<一> 前言

    最近有个需求,须要向数据库并发批量插入数据。
mysql

    最开始使用存储过程,相似这样的:
sql

 delimiter // 
 CREATE PROCEDURE load_part_tab()
 begin
     declare v int default 0;
     while v < 8000000
     do
         insert into part_tab
         values (v,'testing partitions',adddate('1995-01-01',(rand(v)*36520) mod 3652));
          set v = v + 1;
     end while;
 end
 //
 delimiter ;

这是单条屡次插入。时间消耗彻底不能忍,2万条记录,耗时近半个小时。数据库

后改成使用存储过程,批量插入,10个并发,每一个插入2万条记录,共耗时119s。并发

查阅了网上的一些资料,先整理以下。我本身的代码,由于公司业务问题就不公布。测试

<二>过程

2.1 创建数据库表:

CREATE TABLE song ( 
          id int(11) NOT NULL AUTO_INCREMENT COMMENT 'Autoincreament element', 
          name text NOT NULL, 
          datetime timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP, 
          rank int(11) NOT NULL, 
          PRIMARY KEY (id) 
) ENGINE=MyISAM AUTO_INCREMENT=8102001 DEFAULT CHARSET=gbk

2.2 建立处理的存储过程:

DELIMITER //
DROP PROCEDURE IF EXISTS sp_insert_batch;
CREATE  PROCEDURE sp_insert_batch(IN number int(11))
BEGIN
  declare i int(11);
  set i = 1;
  WHILE i <= number DO
    if mod(i,2000)=1 then
       set @sqltext =concat('(''',concat('t',i),''',''',now(),''',',ceil(10*rand()),')');
    elseif mod(i,2000)=0 then
       set @sqltext=concat(@sqltext,',(''',concat('t',i),''',''',now(),''',',ceil(10*rand()),')');
       set @sqltext=concat('insert into song (name,datetime,rank) values',@sqltext);
       prepare stmt from @sqltext;
       execute stmt;
       DEALLOCATE PREPARE stmt;
       set @sqltext='';
    else 
       set @sqltext=concat(@sqltext,',(''',concat('t',i),''',''',now(),''',',ceil(10*rand()),')');
    end if;
    set i = i + 1;
  END WHILE;
  if @sqltext<>'' then
     set @sqltext=concat('insert into song (name,datetime,rank) values',@sqltext);
     prepare stmt from @sqltext;
     execute stmt;
     DEALLOCATE PREPARE stmt;
     set @sqltext='';
  end if;
END //
DELIMITER ;

解释一下:2000 条一个批次插入,经过拼接外面的values,而后使用 insert into values (),(),... 这样批量插入。code

3. 使用 mysqlslap 测试如:

mysqlslap -uroot -p --concurrency=10,20,30,40,50,60 --engine=innodb --create-schema='scmtg_dev' --query='call sp_insert_batch(2000);'

4.测试结果:

每一个客户端插入2万条记录,10个、20个、30个、40个(固然这个测试量是极小的),走势以下图:element

<三> 分析

  1. 批量插入的效率明显是要远高于单条屡次插入,这个毋庸置疑。单条屡次插入,一个客户端2万条须要近半个小时;而批量插入 10个客户端,每一个2万条,才120s。it

  2. 存储过程,sql 的拼接仍是比较麻烦的。要多测试,避免错误。
    io

相关文章
相关标签/搜索