| 注册
请输入搜索内容

热门搜索

Java Linux MySQL PHP JavaScript Hibernate jQuery Nginx
SylArmenta
9年前发布

Python 按行读取文本文件 缓存 和 非缓存实现

需求

最近项目中有个读取文件的需求,数据量还挺大,10万行的数量级。

java 使用缓存读取文件是,会相应的创建一个内部缓冲区数组在java虚拟机内存中,因此每次处理的就是这一整块内存。

简单的想:就是如果不用缓存,每次都要硬盘–虚拟机缓存–读取;有了缓存,提前读了一段放在虚拟机缓存里,可以避免频繁将硬盘上的数据读到缓存里。

因为对内存的操作肯定是比硬盘的操作要快的。

对了,java还有映射内存,可以解决大文件读写的问题。

思路

大文件读写不能一次全部读入内存,这样会导致耗尽内存。(但是在内存允许的情况下,全部读入内存是不是速度更快??)
对于大文件可以一行一行读取,因为我们处理完这行,就可以把它抛弃。

我们也可以一段一段读取大文件,实现一种缓存处理。每次读取一段文件,将这段文件放在缓存里,然后对这段处理。这会比一行一行快些。

方法1:一行一行读取

我们可以打开一个文件,然后用for循环读取每行,比如:

def method1(newName):      s1 = time.clock()      oldLine = '0'      count = 0      for line in open(newName):          newLine =  line          if (newLine != oldLine):              #判断是不是空行              if newLine.strip():                  nu = newLine.split()[0]                  oldLine = newLine                  count += 1      print "deal %s lines" %(count)      e1 = time.clock()      print "cost time " + str(e1-s1)  

我们测试一下

fileName = 'E:\\pythonProject\\ruisi\\correct_re.txt'  method1(fileName)

输出

deal 218376 lines  cost time 0.288900734402

方法1.1 一行一行读取的变形

def method11(newName):      s1 = time.clock()      oldLine = '0'      count = 0      file = open(newName)      while 1:          line = file.readline()          if not line:              break          else:              if line.strip():                  newLine =  line                  if (newLine != oldLine):                      nu = newLine.split()[0]                      oldLine = newLine                      count += 1      print "deal %s lines" %(count)      e1 = time.clock()      print "cost time " + str(e1-s1)  
deal 218376 lines  cost time 0.371977884619

耗时和方法1差不多,比方法1稍微多些。

方法2:一行一行,使用fileinput模块

def method2(newName):      s1 = time.clock()      oldLine = '0'      count = 0      for line in fileinput.input(newName):          newLine =  line          if newLine.strip():              if (newLine != oldLine):                  nu = newLine.split()[0]                  oldLine = newLine                  count += 1      print "deal %s lines" %(count)      e1 = time.clock()      print "cost time " + str(e1-s1)
deal 218376 lines  cost time 0.514534051673

这儿的耗时差不多是方法1的两倍。

借助缓存,每次读取1000行

def method3(newName):      s1 = time.clock()      file = open(newName)      oldLine = '0'      count = 0      while 1:          lines = file.readlines(10*1024)          #print len(lines)          if not lines:              break          for line in lines:              if line.strip():                  newLine =  line                  if (newLine != oldLine):                      nu = newLine.split()[0]                      oldLine = newLine                      count += 1      print "deal %s lines" %(count)      e1 = time.clock()  

Note
readlinessizehint() 参数是限定字节大小,不是行数。
注意默认有个内部缓冲区大小是8KB,如果设定值小于 8*1024。那么都是按照8KB来的。print len(lines)输出大概都为290。
只有当设定值大于8KB,上面的print len(lines)才会发生变化。

deal 218376 lines  cost time 0.296652349397

这儿的性能还没方法1,表现好。可以调整每次读取的行数,比如500,1000等等,可以达到不同的耗时。

方法4 一次性全部读到内存里

def method4(newName):      s1 = time.clock()      file = open(newName)      oldLine = '0'      count = 0      for line in file.readlines():          if line.strip():              newLine =  line              if (newLine != oldLine):                  nu = newLine.split()[0]                  oldLine = newLine                  count += 1      print "deal %s lines" %(count)      e1 = time.clock()      print "cost time " + str(e1-s1)

输出

deal 218376 lines  cost time 0.30108883108

结论

推荐使用

with open('foo.txt', 'r') as f:      for line in f:          # do_something(line)

对于大文件可以使用索引,这个索引记录下每行开头的位置,之后就可以用file.seek()定位了。如果文件内容修改了,还需要重新建立索引。这个索引可以有很多种方法建立,但是都需要将文件遍历一次。

参考资料

python的readlines返回行数问题

Python按行读文件