可能重复:
Python: How to read huge text file into memory是否有基于行的文件读取的Python库?
为了处理大的文本文件(1G +)一行一行,通过任何行号的随机接入是期望的,最重要的是,不加载整个文件内容到RAM中。有没有一个Python库来做到这一点?
分析大型日志文件是有益的,只读就足够了。
如果没有这样的标准库,我必须寻找一种替代方法:找到一组函数/类,它可以从一个大的字符串类对象中返回第N行子字符串,这样我可以mmap(是的,我的意思是内存映射文件对象)文件到该对象然后做基于行的处理。
谢谢。
PS:日志文件几乎肯定有可变的行长度。
的长度是相同的所有行? – 2012-02-08 07:09:05
你可以预处理文件来创建排序索引? – anijhaw 2012-02-08 07:14:07