数据分析TB级别数据量大了怎么办,不会代码模型训练怎么办?

数据分析经常会遇到数据量大的问题,比如用R语言和Python语言时经常会遇到内存溢出的问题,即使把整个机器内存全部使用,达到最大使用率,还是无济于事,比如数据量是10T,并且在大数据量下,既要保证数据能够得出结果,还要一个好的模型进行迭代训练,得到一个好的模型。这些很难。 这里有两个问题 数据量大 模型训练准确性 对于第一个问题,就算单机内存再大,也是不可能处理未来不可预知的增长的数据的,这时候就
相关文章
相关标签/搜索