我有一个场景,我有新的受试者正在测试一系列特征,其中结果都是字符串分类值。测试完成后,我需要将新数据集与所有受试者的主数据集进行比较,并寻找给定阈值(例如 90%)的相似性(匹配)。
因此,我需要能够以尽可能最佳的性能对新数据集中的每个新主题与主数据集中的每一列以及新数据集中的其他列进行柱状(按主题)比较因为生产数据集大约有 50 万列(并且还在增长)和 10,000 行。
这是一些示例代码:
master = pd.DataFrame({'Characteristic':['C1', 'C2', 'C3'],
'S1':['AA','BB','AB'],
'S2':['AB','-','BB'],
'S3':['AA','AB','--']})
new = pd.DataFrame({'Characteristic':['C1', 'C2', 'C3'],
'S4':['AA','BB','AA'],
'S5':['AB','-','BB']})
new_master = pd.merge(master, new, on='Characteristic', how='inner')
def doComparison(comparison_df, new_columns, master_columns):
summary_dict = {}
row_cnt = comparison_df.shape[0]
for new_col_idx, new_col in enumerate(new_columns):
# don't compare the Characteristic column
if new_col != 'Characteristic':
print 'Evalating subject ' + new_col + ' for matches'
summary_dict[new_col] = []
new_data = comparison_df.ix[:, new_col]
for master_col_idx, master_col in enumerate(master_columns):
# don't compare same subject or Characteristic column
if new_col != master_col and master_col != 'Characteristic':
master_data = comparison_df.ix[:, master_col]
is_same = (new_data == master_data) & (new_data != '--') & (master_data != '--')
pct_same = sum(is_same) * 100 / row_cnt
if pct_same > 90:
print ' Found potential match ' + master_col + ' ' + str(pct_same) + ' pct'
summary_dict[new_col].append({'match' : master_col, 'pct' : pct_same})
return summary_dict
result = doComparison(new_master, new.columns, master.columns)
这种方法可行,但我想提高效率和性能,但不知道如何实现。