数据太大爆内存怎么办?七条解决思路

在研究、应用机器学习算法的经历中,相信大伙儿经常遇到数据集太大、内存不够用的情况。 这引出一系列问题: 怎么加载十几、几十 GB 的数据文件? 运行数据集的时候算法崩溃了,怎么办? 怎么处理内存不足导致的错误? 本文将讨论一些常用的解决办法,供大家参考。 处理大型 ML 数据文件的七种思路 1. 分配更多内存 有的机器学习工具/库有默认内存设置,比如 Weka。这便是一个限制因素。 你需要检查一下
相关文章
相关标签/搜索