技术堆栈:
当为执行此功能(以可接受的格式重新构造数据)时
其中分组值的长度为250+
def re_struct_data(all_timestamps: List, grouped_values: Dict[String, Dict[Integer, Integer]]):
tm_count = len(all_timestamps)
start_tm = 1607494871
get_tms = lambda: [None] * tm_count
data_matrix = {'runTime': get_tms()}
for i_idx, tm in enumerate(all_timestamps):
data_matrix['runTime'][i_idx] = float(tm) - start_tm
for cnl_nm in grouped_values:
if cnl_nm not in data_matrix:
data_matrix[cnl_nm] = get_tms()
value_dict = grouped_values[cnl_nm]
if tm in value_dict:
data_matrix[cnl_nm][i_idx] = value_dict[tm]
return data_matrix
当我做了同样的代码分析时,我知道了大量的时间都花在了对data_matrix
中cnl_nm
的存在/不存在进行哈希处理上
我试着换成
.items()
->;(元组转换+解包)但这需要更多的时间
有什么改进的建议吗
目前没有回答
相关问题 更多 >
编程相关推荐