怎样在Python中高效地读写大型文件?

种地  论坛元老 | 2025-1-22 13:14:55 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 1080|帖子 1080|积分 3240

各人好,我是 V 哥。上一篇给各人介绍怎样使用 Python 举行文件读写操作的方法,题目来了,怎样读写的是大型文件,有没有什么方法来进步效率呢,不要捉急,这一篇来聊聊怎样在Python中高效地读写大型文件。
以下是在 Python 中高效读写大型文件的一些方法:
一、逐行读取大型文件
  1. def read_large_file_line_by_line(file_path):
  2.     with open(file_path, 'r') as file:
  3.         for line in file:
  4.             # 处理每一行的数据,这里仅打印
  5.             print(line.strip())
复制代码

  • with open(file_path, 'r') as file:使用 with 语句打开文件,确保文件在使用完毕后自动关闭。
  • for line in file:文件对象是可迭代的,逐行读取文件内容,避免一次性将整个文件读入内存,节省内存空间,实用于大型文本文件。
二、分块读取大型文件
  1. def read_large_file_in_chunks(file_path, chunk_size=1024):
  2.     with open(file_path, 'r') as file:
  3.         while True:
  4.             data = file.read(chunk_size)
  5.             if not data:
  6.                 break
  7.             # 处理读取到的数据块,这里仅打印
  8.             print(data)
复制代码

  • file.read(chunk_size):每次读取指定大小(chunk_size)的数据块,循环读取直到文件结束。
  • chunk_size 可以根据实际情况调整,一样平常根据文件大小和可用内存来选择合适的值。
三、使用 mmap 模块举行内存映射文件操作(实用于大文件)
  1. import mmap
  2. def read_large_file_with_mmap(file_path):
  3.     with open(file_path, 'r') as file:
  4.         with mmap.mmap(file.fileno(), 0, access=mmap.ACCESS_READ) as mmap_obj:
  5.             # 处理映射的数据,这里仅打印
  6.             print(mmap_obj.readline())
复制代码

  • mmap.mmap(file.fileno(), 0, access=mmap.ACCESS_READ):将文件映射到内存中,实现文件的高效读写,fileno() 方法获取文件描述符。
  • 可以像操作字符串一样操作 mmap_obj,避免了频仍的文件 I/O 操作,进步性能。
四、使用 pandas 分块处理大型 CSV 文件(实用于 CSV 文件)
  1. import pandas as pd
  2. def read_large_csv_in_chunks(csv_file_path):
  3.     chunk_size = 100000  # 每块的行数
  4.     for chunk in pd.read_csv(csv_file_path, chunksize=chunk_size):
  5.         # 处理数据块,这里仅打印
  6.         print(chunk)
复制代码

  • pd.read_csv(csv_file_path, chunksize=chunk_size):将 CSV 文件按块读取,chunksize 为每块的行数。
  • 可以对每个 chunk 举行数据处理,如数据清洗、分析等操作,避免一次性加载整个文件。
五、使用 numpy 分块处理大型二进制文件(实用于二进制文件)
  1. import numpy as np
  2. def read_large_binary_in_chunks(binary_file_path, chunk_size=1024):
  3.     with open(binary_file_path, 'rb') as file:
  4.         while True:
  5.             data = np.fromfile(file, dtype=np.float32, count=chunk_size)
  6.             if data.size == 0:
  7.                 break
  8.             # 处理数据块,这里仅打印
  9.             print(data)
复制代码

  • np.fromfile(file, dtype=np.float32, count=chunk_size):从文件中读取二进制数据,dtype 为数据类型,count 为元素数量。
  • 可以根据文件的存储数据类型调整 dtype,按块读取二进制文件。
六、使用 itertools 模块举行迭代处理(实用于文本文件)
  1. import itertools
  2. def read_large_file_with_itertools(file_path, chunk_size=1024):
  3.     with open(file_path, 'r') as file:
  4.         for chunk in itertools.zip_longest(*[iter(file)]*chunk_size):
  5.             chunk = [line.strip() for line in chunk if line]
  6.             # 处理数据块,这里仅打印
  7.             print(chunk)
复制代码

  • itertools.zip_longest(*[iter(file)]*chunk_size):将文件迭代器分组,每组 chunk_size 行,方便分块处理。
七、使用 linecache 模块逐行读取大型文件(实用于文本文件)
  1. import linecache
  2. def read_large_file_with_linecache(file_path, line_number):
  3.     line = linecache.getline(file_path, line_number)
  4.     # 处理指定行的数据,这里仅打印
  5.     print(line.strip())
复制代码

  • linecache.getline(file_path, line_number):从文件中获取指定行的数据,实用于只需要读取文件中某些行的情况,避免读取整个文件。
最后
在处理大型文件时,根据文件类型和操作需求,可机动使用上述方法,避免一次性将整个文件加载到内存中,从而进步程序的性能和稳定性。同时,可以结合不同的模块和函数,实现复杂的数据处理和分析任务。好了,赶快收藏起来吧,实际工作中你一定会用得到,关注威哥爱编程,学习Python你必成。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

种地

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表