#
现在考虑有一个 jsonline 格式的文件 file.txt 大小约为 10K,之前处理文件的
代码如下所示:
1. def get_lines(): 2. l = [] 3. with open(‘file.txt’,‘rb’) as f: 4. for eachline in f: 5. l.append(eachline) 6. return l 7. if __name__ == ‘__main__’: 8. for e in get_lines(): 9. process(e) #处理每一行数据
#
现在要处理一个大小为 10G 的文件,但是内存只有 4G,如果在只修改 get_lines 函数而其他代
码保持不变的情况下,应该如何实现?需要考虑的问题都有哪些?
1. def get_lines(): 2. l = [] 3. with open(‘file.txt’,’rb’) as f: 4. data = f.readlines(60000) 5. l.append(data) 6. yield l
说明 : 内存只有 4G 无法一次性读入 10G 的文件,需要分批读入。分批读入数据要记录每次读入数据的位
置。分批每次读入数据的大小,太小就会在读取操作上花费过多时间。