您希望对一个概率(或多个概率)做出最佳估计,并随着更多数据的可用而不断更新您的估计。这就要求贝叶斯推理 https://en.wikipedia.org/wiki/Bayesian_inference!贝叶斯推理基于以下观察:A 和 B 两种情况同时出现的概率(分布)等于 A 出现情况的概率(分布)(假设 B 出现这种情况)乘以概率B就是这种情况。以公式形式表示:
P(A,B) = P(A|B)P(B)
and also
P(A,B) = P(B|A)P(A)
因此
P(A|B)P(B) = P(B|A)P(A)
将 P(B) 带到另一边,我们得到贝叶斯更新规则:
P(A|B)' = P(B|A)P(A)/P(B)
通常,A 代表您尝试估计的任何变量(例如“x 队击败 y 队”),而 B 代表您的观察结果(例如,球队之间获胜和失败的比赛的完整历史记录)。我写了素数(即引用P(A|B)') 表示等式的左边代表您信念的更新。为了使其具体化,您的newx 队击败 y 队的概率估计,鉴于迄今为止的所有观察结果,是进行这些观察的概率鉴于您之前的估计, 乘以你的previous估计,除以看到您所看到的观察结果的总体概率(即,不假设团队之间的相对实力;一支球队大部分时间获胜的可能性低于两支球队获胜频率相同的可能性)。
当前更新左侧的 P(A|B)' 成为下一次更新右侧的新 P(A)。随着更多数据的进入,您只需不断重复此操作即可。通常,为了尽可能不偏不倚,您会从 P(A) 的完全平坦分布开始。随着时间的推移,P(A) 将变得越来越确定,尽管该算法相当能够处理您试图估计的潜在概率的突然变化(例如,如果团队 x 突然变得更强,因为有新玩家加入)团队)。
好消息是贝叶斯推理与贝塔分布 http://en.wikipedia.org/wiki/Beta_distributionElKamina 也提到过。事实上,这两者经常结合在人工智能系统中,旨在学习概率分布。虽然 Beta 分布本身仍然是一种假设,但它的优点是它可以采取多种形式(包括完全平坦和极其尖峰),因此相对而言没有理由担心您选择的分布可能会影响您的结果。
一个坏消息是,除了 beta 分布之外,您仍然需要做出假设。例如,假设您有以下变量:
A: x 队击败 y 队
B:y 队击败 z 队
C:x 队击败 z 队
并且您可以从 x 和 y 之间的直接匹配以及 y 和 z 之间的匹配中获得观察结果,但不能从 x 和 z 之间的匹配中获得观察结果。估计 P(C) 的一种简单(虽然幼稚)的方法是假设传递性:
P(C) = P(A)P(B)
无论您的方法多么复杂,您都必须定义某种概率结构来处理数据中的差距和相互依赖性。无论您选择什么结构,它始终是一个假设。
另一个坏消息是这种方法非常复杂,我无法向您详细说明如何将其应用于您的问题。鉴于您需要一个相互依赖的概率结构(给定涉及 x、y 和 z 队的其他分布,x 队击败 y 队的概率),您可能需要使用贝叶斯网络 https://en.wikipedia.org/wiki/Bayesian_network或相关分析(例如马尔可夫随机场 https://en.wikipedia.org/wiki/Markov_random_field or 路径分析 https://en.wikipedia.org/wiki/Path_analysis_(statistics)).
我希望这有帮助。无论如何,请随时要求澄清。