我尝试比较两个csv文件,每个文件包含100000行和10列。我运行这个代码,它的工作,但它只使用一个线程的CPU,而我有8个核心。我要这个代码使用所有的cpu线程。我搜索了一下,找到了平行的概念。但是当我尝试在这个python代码中应用parallel-to-for循环时,它是行不通的。如何应用这个代码?提前感谢您的帮助!你知道吗
import csv
#read csv files
f1= file('host.csv','r')
f2= file('master.csv','r')
f3= file('results.csv','w')
c1=csv.reader(f1)
c2=csv.reader(f2)
next(c2, None)
c3=csv.writer(f3)
#for loop compare row in host csv file
master_list = list(c2)
for row in c1:
row=1
found = False
colA = str(row[0]) #protocol
colB = str(row[11])
colC = str(row[12])
colD = str(row[13])
colE = str(row[14])
#loop in each row of master csv file
for master_row in master_list:
results_row=row
colBf2 = str(master_row[4])
colCf2 = str(master_row[5])
colDf2 = str(master_row[6])
colEf2 = str(master_row[7])
colFf2 = str(master_row[3])
#check condition
if colA == 'icmp':
#sub condiontion
if colB == colBf2 and colD == colDf2:
results_row.append(colFf2)
found = True
break
row = row + 1
else:
if colB == colBf2 and colD == colDf2 and colE == colEf2:
results_row.append(colFf2)
found = True
break
row =row+1
if not found:
results_row.append('Not Match')
c3.writerow(results_row)
f1.close()
f2.close()
f3.close()
昂贵的任务是为每个主机行重新扫描主表的内部循环。由于python执行协作多线程(您可以搜索“python GIL”),一次只能运行一个线程,因此多个线程不会加快cpu绑定的操作。您可以生成子进程,但是您必须权衡将数据提供给工作进程的成本和速度增益。你知道吗
或者,优化你的代码。与其并行运行,不如索引主节点。你可以把100000条记录的昂贵扫描换成快速的字典查找。你知道吗
我冒昧地在代码中添加了
with
子句,以节省几行代码,并且跳过了colA
等等。。。(改为使用命名索引)以保持代码较小。你知道吗相关问题 更多 >
编程相关推荐