大批量delete 优化方案

超过100万以上数据 删除的时候 会很是慢且产生大量日志文件 最大的问题是内存爆表 致使得屡次重启服务才能删除整个库 暂时提出初步优化方案优化

1.设置日志为简单模式,处理完后恢复spa

ALTER DATABASE tcgpsdb SET RECOVERY SIMPLE --简单模式
ALTER DATABASE tcgpsdb SET RECOVERY FULL --还原为彻底模式日志

2.delete的时候 会形成整表锁定,因此采用分批删除code

@onecount 这里设置为一百万一次,能够自由调节blog

declare @onecount int
set @onecount=1000000
print getdate()
while 1=1
begin
     delete top(@onecount) from XX where FSendTime<'2019-1-01'
     IF (@@rowcount<@onecount) BREAK;
     print getdate()
end

删除一千多万条数据耗时 注意:搜索时间字段有加索引索引

02  1 2019 11:25AM

(1000000 行受影响)
02  1 2019 11:26AM

(1000000 行受影响)
02  1 2019 11:27AM

(1000000 行受影响)
02  1 2019 11:27AM

(1000000 行受影响)
02  1 2019 11:28AM

(1000000 行受影响)
02  1 2019 11:28AM

(1000000 行受影响)
02  1 2019 11:29AM

(1000000 行受影响)
02  1 2019 11:29AM

(1000000 行受影响)
02  1 2019 11:30AM

(1000000 行受影响)
02  1 2019 11:31AM

(1000000 行受影响)
02  1 2019 11:31AM

(636657 行受影响)

 

另外还有 插入到新表而后 drop 老表 把新表改成原来表名 这种涉及停机 因此暂不考虑内存

以上方案仍是不够理想,这里抛砖迎玉 但愿有更好的同窗能给出 更快速 更省内存的解决方案get

相关文章
相关标签/搜索