我有一个需要修改的3GB csv文件。 我有,我想lambda函数适用于(应该改变行的值)熊猫适用于大型csv文件
我想到目前为止是读取CSV为分块的文件,但内存问题仍然发生
解决方案列这是我试过到目前为止:
dataframe = read_csv(file_path, iterator=True, chunksize=10000)
for chunk in dataframe:
chunk['column_name'].apply(change_row_lambda_function)
dataframe.to_csv(result_file_path, sep=',')
到底会发生什么? –
加载只有相关的列 – vks
它只是在迭代完成之前引发内存错误(pandas.parser.TextReader._read_low_memory) –