使用 numpy 计算文本文档之间的 Kullback-Leibler (KL) 距离

2024-04-28

我的目标是计算以下文本文档之间的 KL 距离:

1)The boy is having a lad relationship
2)The boy is having a boy relationship
3)It is a lovely day in NY

我首先对文档进行矢量化,以便轻松应用 numpy

1)[1,1,1,1,1,1,1]
2)[1,2,1,1,1,2,1]
3)[1,1,1,1,1,1,1]

然后我应用以下代码来计算文本之间的 KL 距离:

import numpy as np
import math
from math import log

v=[[1,1,1,1,1,1,1],[1,2,1,1,1,2,1],[1,1,1,1,1,1,1]]
c=v[0]
def kl(p, q):
    p = np.asarray(p, dtype=np.float)
    q = np.asarray(q, dtype=np.float)
    return np.sum(np.where(p != 0,(p-q) * np.log10(p / q), 0))
for x in v:
    KL=kl(x,c)
    print KL

这是上面代码的结果:[0.0, 0.602059991328, 0.0]。 文本1和3完全不同,但它们之间的距离为0,而高度相关的文本1和2的距离为0.602059991328。这不准确。

有人知道我在吉隆坡方面做得不对吗?非常感谢您的建议。


虽然我不想添加另一个答案,但这里有两点。首先,正如 Jaime 在评论中指出的那样,KL 散度(或距离 - 根据以下文档,它们是相同的)旨在衡量概率分布之间的差异。这基本上意味着传递给函数的内容应该是两个类数组,每个数组的元素之和为 1。

其次,scipy 显然确实实现了这一点,其命名方案与信息论领域更相关。该函数是“熵”:

scipy.stats.entropy(pk, qk=None, base=None)

http://docs.scipy.org/doc/scipy-dev/reference/ generated/scipy.stats.entropy.html http://docs.scipy.org/doc/scipy-dev/reference/generated/scipy.stats.entropy.html

来自文档:

如果 qk 不为 None,则计算相对熵(也称为 Kullback-Leibler 散度或 Kullback-Leibler 距离) S = sum(pk * log(pk / qk),轴=0)。

该函数的好处还在于,如果您传递给它的向量之和不等于 1,它将对它们进行标准化(尽管这意味着您必须小心传递的数组 - 即它们是如何从数据构造的)。

希望这对您有所帮助,并且至少有一个库提供了它,因此您不必编写自己的代码。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

使用 numpy 计算文本文档之间的 Kullback-Leibler (KL) 距离 的相关文章

随机推荐