用pandas读取大文件

读取上GB大文件的方式有不少,可是并非都有像pandas这样强大的数据清洗功能。数据太大是,能够分块处理,及时手动删除内存,最后在合并数据。html   今天在读取一个超大csv文件的时候,遇到困难:python 首先使用office打不开 而后在python中使用基本的pandas.read_csv打开文件时:MemoryError 最后查阅read_csv文档发现能够分块读取。 read_cs
相关文章
相关标签/搜索