在循环中合并数据帧

2024-05-14 07:32:30 发布

您现在位置:Python中文网/ 问答频道 /正文

我正在使用函数segmentMatch,其中我发送两个数据帧。我在一个数据帧中使用for循环,在使用循环变量与另一个数据帧合并之前,需要检查一些条件。它给了我完美的答案,但是因为两个数据帧都太大了,所以它太慢了。你知道吗

有什么办法可以提高速度吗。你知道吗

def segmentMatch(self, df, df_program):

    df_result = []
    for i, rview in df.iterrows():
        df_tmp = []
        df1 = []
        df_tmp = df_program.ix[(df_program.iD == rview['id']) & 
                                (rview['end_time'] >= df_program.START_TIME) &
                                (rview['start_time'] <= df_program.END_TIME)]
        df1 = rview.to_frame().transpose()
        tmp = pd.merge(df1, df_tmp,how='left')
        df_result.append(tmp)


    result = pd.concat(df_result, axis=0)
    del(df1, df_tmp, tmp)
    return result

请帮帮我。我使用的是visualstudio代码和python3.6

提前谢谢。你知道吗


Tags: 数据函数答案dffortimeresultprogram
1条回答
网友
1楼 · 发布于 2024-05-14 07:32:30

一般来说,如果可以避免的话,建议不要在数据帧中循环。与任何mergejoin相比,循环速度非常慢。你知道吗

条件连接在熊猫中不是很好。不过,它们在SQL中非常简单。一个小的lifehack可以是pip install pandasql并实际使用SQL。另见here。下面的例子没有经过测试。你知道吗

import pandasql as ps

sqlcode = '''
SELECT *
FROM df
JOIN df ON 1=1 
    AND df_program.iD = df.id 
    AND df.end_time >= df_program.START_TIME
    AND df.start_time <= df_program.END_TIME
'''

new_df = ps.sqldf(sqlcode, locals())

如果您不想使用pandassql,我建议您稍后合并并检查条件。当然,这需要更多的内存,这取决于id中的重叠。同样,没有数据的情况下有点棘手,但是有些东西

full_df = df.join(df, on='id', rsuffix='program_')
filtered_df = df.loc[(df.end_time >= df.program_START_TIME) & (df.start_time <= df.program_END_TIME)

如果它不适合内存,您可以尝试对dask数据帧执行相同的操作。你知道吗

import dask.dataframe as dd

# Read your CSVs in like this
df = dd.read_csv('')
df_program = dd.read_csv('')

# Now make sure your ids are index in both dataframes

# Join and filter like above 
full_df = df.join(df, on='id', rsuffix='program_')
filtered_df = df.loc[(df.end_time >= df.program_START_TIME) & (df.start_time <= df.program_END_TIME)

# Write the result to a CSV or convert to pandas (if it fits your memory anyway):
df = full_df.compute()

相关问题 更多 >

    热门问题