我用到的数据库为,mysql数据库5.7版本的java
1.首先本身准备好数据库表mysql
其实我在插入1000万条数据的时候遇到了一些问题,如今先来解决他们,一开始我插入100万条数据时候报错,控制台的信息以下:sql
com.mysql.jdbc.PacketTooBigException: Packet for query is too large (4232009 > 4194304). You can change this value on the server by setting the max_allowed_packet’ variable.数据库
出现上面的错误是由于数据库表的** max_allowed_packet**这个配置没配置足够大,由于默认的为4M的,后来我调为100M就没报错了app
set global max_allowed_packet = 100*1024*1024* 记住,设置好后从新登陆数据库才能看的设置后的值
show VARIABLES like '%max_allowed_packet%'
测试
Java的jdbc代码以下:
package
insert;
import
java.sql.Connection;
import
java.sql.DriverManager;
import
java.sql.SQLException;
import
java.util.Date;
import
com.mysql.jdbc.PreparedStatement;
public
class
InsertTest {
public
static
void
main(String[] args)
throws
ClassNotFoundException, SQLException {
final
String url =
"jdbc:mysql://127.0.0.1/teacher"
;
final
String name =
"com.mysql.jdbc.Driver"
;
final
String user =
"root"
;
final
String password =
"123456"
;
Connection conn =
null
;
Class.forName(name);
//指定链接类型
conn = DriverManager.getConnection(url, user, password);
//获取链接
if
(conn!=
null
) {
System.out.println(
"获取链接成功"
);
insert(conn);
}
else
{
System.out.println(
"获取链接失败"
);
}
}
public
static
void
insert(Connection conn) {
// 开始时间
Long begin =
new
Date().getTime();
// sql前缀
String prefix =
"INSERT INTO t_teacher (id,t_name,t_password,sex,description,pic_url,school_name,regist_date,remark) VALUES "
;
try
{
// 保存sql后缀
StringBuffer suffix =
new
StringBuffer();
// 设置事务为非自动提交
conn.setAutoCommit(
false
);
// 比起st,pst会更好些
PreparedStatement pst = (PreparedStatement) conn.prepareStatement(
""
);
//准备执行语句
// 外层循环,总提交事务次数
for
(
int
i =
1
; i <=
100
; i++) {
suffix =
new
StringBuffer();
// 第j次提交步长
for
(
int
j =
1
; j <=
100000
; j++) {
// 构建SQL后缀
suffix.append(
"('"
+ uutil.UUIDUtil.getUUID()+
"','"
+i*j+
"','123456'"
+
",'男'"
+
",'教师'"
+
",'www.bbk.com'"
+
",'XX大学'"
+
",'"
+
"2016-08-12 14:43:26"
+
"','备注'"
+
"),"
);
}
// 构建完整SQL
String sql = prefix + suffix.substring(
0
, suffix.length() -
1
);
// 添加执行SQL
pst.addBatch(sql);
// 执行操做
pst.executeBatch();
// 提交事务
conn.commit();
// 清空上一次添加的数据
suffix =
new
StringBuffer();
}
// 头等链接
pst.close();
conn.close();
}
catch
(SQLException e) {
e.printStackTrace();
}
// 结束时间
Long end =
new
Date().getTime();
// 耗时
System.out.println(
"1000万条数据插入花费时间 : "
+ (end - begin) /
1000
+
" s"
);
System.out.println(
"插入完成"
);
}
}
** 结果:**this
哈哈,1000万条数据288秒完成,是否是感受超级牛逼,我每次插入10万条数据就提交一次事务,若是是一条一条差的话估计要好几个小时,网上有人试过期间浪费在数据库的链接上了, 后来我想测试插入100万条数据时候数据库引擎的差异 首先把代码中最外层的循环i=100改成i=10; 1.数据库引擎为MyISAM时:27s,这个我忘了截图了。由于我后来测试InnoDB的时候我换了一个表来测试,由于我发现改不了数据库表的引擎。。。。因此只能换一个表来测试
1.数据库引擎为InnoDB时:
用了77秒,比MyISAW慢了3倍左右,估计要是1000万条数据的时候更慢吧。。。