网站corenlp.run http://corenlp.run它应该是 CoreNLP 演示站点,显示的结果与我在本地计算机上运行 CoreNLP 管道时的结果截然不同。
网站上确实显示了正确的结果,而本地机版本却没有。我想知道是否有任何接近 CoreNLP 项目的人可以解释这些差异?
举个例子 - 这就是当我使用它作为输入时发生的情况”给我一家位于 Soquel Drive 的供应美味法国菜的餐厅“(这来自 RestQuery 数据集)
在 CoreNLP(本地机器,使用斯坦福大学的默认模型)上,我得到以下结果:
root(ROOT-0, Give-1)
iobj(Give-1, me-2)
det(restaurant-4, a-3)
dobj(Give-1, restaurant-4)
case(Drive-7, on-5)
compound(Drive-7, Soquel-6)
nmod:on(Give-1, Drive-7) <--- WRONG HEAD
nsubj(serves-9, that-8)
acl:relcl(Drive-7, serves-9) <--- WRONG HEAD
amod(food-12, good-10)
amod(food-12, french-11)
dobj(serves-9, food-12)
在 corenlp.run 上时,我得到以下结果:
root(ROOT-0, Give-1)
iobj(Give-1, me-2)
det(restaurant-4, a-3)
dobj(Give-1, restaurant-4)
case(Drive-7, on-5)
compound(Drive-7, Soquel-6)
nmod:on(restaurant-4, Drive-7) <--- CORRECT HEAD
nsubj(serves-9, that-8)
acl:relcl(restaurant-4, serves-9) <--- CORRECT HEAD
amod(food-12, good-10)
amod(food-12, french-11)
dobj(serves-9, food-12)
你会注意到本地机版本中有两个错误的头。我不知道为什么 - 特别是如果这是一个模型问题(我目前正在尝试调试每个注释器的输出以查看进程返回的内容)
这些是我使用的注释器:“tokenize,ssplit,pos,lemma,ner,parse,openie”。这些模型直接来自 CoreNLP 版本 3.6.0
那么谁能帮助我理解为什么我的结果与演示网站的结果不同?