使用Pandas分块处理大文件

使用Pandas分块处理大文件 问题:今天在处理快手的用户数据时,遇到了一个差很少600M的txt文本,用sublime打开都蹦了,我用pandas.read_table()去读,差很少花了近2分钟,最后打开发现差很少3千万行数据。这仅仅是打开,若是要处理不知得多费劲。html 解决:我翻了一下文档,这一类读取文件的函数有两个参数:chunksize、iteratorweb 原理就是不一次性把文件
相关文章
相关标签/搜索