jupyter notebook占用内存空间过大打不开的解决办法(包括但不限于爬虫造成的)

jupyter notebook由于超过内存限制而“锁死”的解决 这两天用爬虫爬数据的时候由于print了大量的爬取内容,让notebook内存溢出停止运行,连带着localhost:8888也崩溃了。Google Chrome的处理机制应该是杀掉内存溢出的页面,所以localhost:8888刷新一下就恢复了。 但是!我的code找不回来了!不知道是什么机制,在文件里看到的大小只有不到45MB,
相关文章
相关标签/搜索