开发过程当中无论是出于需求仍是测试,对于数据每每会用到批量操做。oop
因为踩坑,重点说下批量删除。测试
对数亿级数据批量删除,每每会踩到坑,这就须要注意啦,一条delete语句,undo段会比较大,未提交是一直受到保护,其余事物的操做会受到影响,执行时间会比较长或挂起,形成表死锁。如何批量删除且不影响其余事物的操做?这就须要尽可能将大的事物划分为小的事物去操做,避免其余事物的执行。fetch
declare
cursor mycursor is SELECT ROWID FROM TEST WHERE XXX=XXXX order by rowid; <--------按ROWID排序的Cursor,删除条件是XXX=XXXX,根据实际状况来定。
type rowid_table_type is table of rowid index by pls_integer;
v_rowid rowid_table_type;
BEGIN
open mycursor;
loop
fetch mycursor bulk collect into v_rowid limit 10000; <--------每次处理10000行搜索,也就是每10000行一提交
exit when v_rowid.count=0;
forall i in v_rowid.first..v_rowid.last
delete from test where rowid=v_rowid(i);
commit;
end loop;
close mycursor;
END;排序
(SQL 游标:
一、把记录集传给游标;
二、打开游标
三、开始循环
四、从游标中取值
五、检查那一行被返回
六、处理
七、关闭循环
八、关闭游标)开发
下面一个批量插入脚本,每100条记录提交一次。it
批量写入脚本:
begin
for i in 1 .. 100000 loop
insert into test_table
(test_ID,
USER_ID,
CODE,
EXCHANGE_TYPE,
OPERATION_TYPE,
CREATED_DATE)
values
(seq_operation_record.nextval,
to_char(i),
'600000',
'SH',
'i',
to_date('2017-01-03 00:00:00', 'yyyy-mm-dd hh24:mi:ss'));
if mod(i, 100) = 0 then
commit;
end if;
end loop;
end;io