当小内存遇上大量数据,你该怎么解决这个问题?

当你写了一个处理数据的软件,它可能在小样本文件上运行地很好,但一旦加载大量真实数据后,这个软件就会崩溃。 问题在于你没有足够的内存——如果你有 16GB 的 RAM ,你就无法一次载入 100GB 大小的文件。载入这么大的文件时,操作系统在某个时刻就会耗尽内存,不能分配存储单元,你的程序也就会崩溃。 所以,你该怎样防止这类情况发生?你可以启动一个大数据集群——你所需要做的是: 搞到一个计算机集群。
相关文章
相关标签/搜索