import csv
files = ['c1.csv', 'c2.csv', 'c3.csv']
final_headers = ['col1', 'col2', 'col3']
merged_rows = set()
for f in files:
with open(f, 'rb') as csv_in:
csvreader = csv.reader(csv_in, delimiter=',')
headers = dict((h, i) for i, h in enumerate(csvreader.next()))
for row in csvreader:
merged_rows.add(tuple(row[headers[x]] for x in final_headers))
with open('output.csv', 'wb') as csv_out:
csvwriter = csv.writer(csv_out, delimiter=',')
csvwriter.writerows(merged_rows)
import csv
with open(srcPath, 'r') as srcCSV:
csvReader = csv.reader(csvFile, delimiter = ',')
with open(destPath, 'rw') as destCSV:
csvWriter = csv.writer(destCSV, delimiter = ',')
for record in csvReader:
csvWriter.writerow(record[1],record[3],record[2], ... record[n])
以下脚本在以下情况下正常工作:
您只需填充
files
和final_headers
就个人而言,我会将合并文件和删除重复项这两项任务分开。如果可以的话,我还建议使用数据库而不是CSV文件,因为管理数据库中的列更容易。在
下面是一个使用Python的示例,它有一个易于使用的csv库。在
这允许您按照您选择的任何顺序重写列。目标CSV可以是您展开的现有CSV,也可以是具有更好格式的新CSV。使用CSV库将有助于防止其他地方发生的转录错误。在
合并数据后,可以使用同一个库迭代单个数据文件,以标识相同的记录。在
注意:这个方法每次读写一行文件,所以它可以处理任何大小的文件。我用这个方法合并了2.21亿条记录,这些记录来自每个文件6 GB的大小。在
csvkit'scsvjoin可以做到这一点。在
相关问题 更多 >
编程相关推荐