如何处理数百个 CSV 文件,每个文件有数百万行?

问题描述

所以我正在 IEEE 端口的 COVID-19 Tweets 数据集上做一个项目,我计划分析 2020 年 3 月至今的时间段内的推文。问题是有 300 多个 CSV,每个 CSV 都有数百万行。现在我需要在我可以过滤它们之前对所有这些推文进行保湿。今天仅对 1 个 CSV 进行补水就花了两个多小时。

我想知道是否有更有效的方法可以解决这个问题。是否可以将所有 CSV 合并为一个,然后将该文件合并很长时间,或者如果每个文件需要这么长时间,我是否必须使用较小的数据集。

我刚刚开始处理现实生活中的数据,因此您可以将我视为真正的初学者,我们将不胜感激。谢谢!

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)