我有2 TB的数据,我必须解压文件做一些分析。但是,由于硬盘空间的问题,我不能一次解压缩所有的文件。我想的是先解压前两千个,然后做我的分析,在接下来的2000年重复。我怎么能做到?你知道吗
import os, glob
import zipfile
root = 'C:\\Users\\X\\*'
directory = 'C:\\Users\\X'
extension = ".zip"
to_save = 'C:\\Users\\X\\to_save'
#x = os.listdir(path)[:2000]
for folder in glob.glob(root):
if folder.endswith(extension): # check for ".zip" extension
try:
print(folder)
os.chdir(to_save)
zipfile.ZipFile(os.path.join(directory, folder)).extractall(os.path.join(directory, os.path.splitext(folder)[0]))
except:
pass
那怎么办?地址:
这将生成一个.zip的临时列表,然后从原始列表中删除这些元素。唯一的缺点是
folders
会被修改,所以如果您需要在其他地方使用它,它最终将是空的。你知道吗相关问题 更多 >
编程相关推荐