sql 批量脚本

开发过程当中无论是出于需求仍是测试,对于数据每每会用到批量操做。oop

因为踩坑,重点说下批量删除。测试

    对数亿级数据批量删除,每每会踩到坑,这就须要注意啦,一条delete语句,undo段会比较大,未提交是一直受到保护,其余事物的操做会受到影响,执行时间会比较长或挂起,形成表死锁。如何批量删除且不影响其余事物的操做?这就须要尽可能将大的事物划分为小的事物去操做,避免其余事物的执行。fetch

declare  
   cursor mycursor is SELECT  ROWID FROM TEST WHERE  XXX=XXXX  order by rowid;   <--------按ROWID排序的Cursor,删除条件是XXX=XXXX,根据实际状况来定。
   type rowid_table_type is  table  of rowid index by pls_integer;
   v_rowid   rowid_table_type;
BEGIN
   open mycursor;
   loop
     fetch  mycursor bulk collect into v_rowid  limit 10000;   <--------每次处理10000行搜索,也就是每10000行一提交
     exit when v_rowid.count=0;
     forall i in v_rowid.first..v_rowid.last
        delete from test  where rowid=v_rowid(i);
     commit;
   end loop;
   close mycursor;
END;排序

(SQL 游标:
一、把记录集传给游标;
二、打开游标
三、开始循环
四、从游标中取值
五、检查那一行被返回
六、处理
七、关闭循环
八、关闭游标)开发

下面一个批量插入脚本,每100条记录提交一次。it

批量写入脚本:
 begin
  for i in 1 .. 100000 loop
    insert into test_table
      (test_ID,
       USER_ID,
       CODE,
       EXCHANGE_TYPE,
       OPERATION_TYPE,
       CREATED_DATE)
    values
      (seq_operation_record.nextval,
       to_char(i),
       '600000',
       'SH',
       'i',
       to_date('2017-01-03 00:00:00', 'yyyy-mm-dd hh24:mi:ss'));
    if mod(i, 100) = 0 then
      commit;
    end if;
  end loop;
end;io

相关文章
相关标签/搜索