超过100万以上数据 删除的时候 会很是慢且产生大量日志文件 最大的问题是内存爆表 致使得屡次重启服务才能删除整个库 暂时提出初步优化方案优化
1.设置日志为简单模式,处理完后恢复spa
ALTER DATABASE tcgpsdb SET RECOVERY SIMPLE --简单模式
ALTER DATABASE tcgpsdb SET RECOVERY FULL --还原为彻底模式日志
2.delete的时候 会形成整表锁定,因此采用分批删除code
@onecount 这里设置为一百万一次,能够自由调节blog
declare @onecount int set @onecount=1000000 print getdate() while 1=1 begin delete top(@onecount) from XX where FSendTime<'2019-1-01' IF (@@rowcount<@onecount) BREAK; print getdate() end
删除一千多万条数据耗时 注意:搜索时间字段有加索引索引
02 1 2019 11:25AM (1000000 行受影响) 02 1 2019 11:26AM (1000000 行受影响) 02 1 2019 11:27AM (1000000 行受影响) 02 1 2019 11:27AM (1000000 行受影响) 02 1 2019 11:28AM (1000000 行受影响) 02 1 2019 11:28AM (1000000 行受影响) 02 1 2019 11:29AM (1000000 行受影响) 02 1 2019 11:29AM (1000000 行受影响) 02 1 2019 11:30AM (1000000 行受影响) 02 1 2019 11:31AM (1000000 行受影响) 02 1 2019 11:31AM (636657 行受影响)
另外还有 插入到新表而后 drop 老表 把新表改成原来表名 这种涉及停机 因此暂不考虑内存
以上方案仍是不够理想,这里抛砖迎玉 但愿有更好的同窗能给出 更快速 更省内存的解决方案get