我正在做一些涉及文档比较的工作。为此,我分析每个文档,并基本上计算某些关键字在每个文档中出现的次数。例如:
Document 1: Document 2:
Book -> 3 Book -> 9
Work -> 0 Work -> 2
Dollar -> 5 Dollar -> 1
City -> 18 City -> 6
因此,在计数过程之后,我将所有这些数字序列存储在一个向量中。该数字序列将代表每个文档的特征向量。
Document 1: [ 3, 0, 5, 18]
Document 2: [ 9, 2, 1, 6]
最后一步是将数据标准化在以下范围内[0 1]
。但在这里我意识到这可以通过两种不同的方法来完成:
- 将每个数字序列除以重复总数
- 将每个数字序列除以最大重复次数
按照第一种方法,标准化的结果将是:
Document 1: [ 0.11538, 0.00000, 0.19231, 0.69231] (divided by 26)
Document 2: [ 0.50000, 0.11111, 0.05556, 0.33333] (divided by 18)
遵循第二种方法时,结果将是:
Document 1: [ 0.16667, 0.00000, 0.27778, 1.00000] (divided by 18)
Document 2: [ 1.00000, 0.22222, 0.11111, 0.66667] (divided by 9)
对于这个具体案例:
- 这两种方法中哪一种会增强特征向量的表示和比较?
- 结果会一样吗?
- 这些方法中的任何一种在特定的相似性度量(欧几里得、余弦)下会更好地工作吗?