仅作个人笔记(2021.3.22-2021.3.29)
看到一篇翻的不错RippleNet翻译 减轻计算负担,对邻居节点进行采样,而不是计算所有n跳邻居。 偏好传播
使用了本质上注意力机制
结论,本文首次将path-based 和embedding-base方法融合。有效提出一个端到端的模型,但是在计算关系R的embedding时很难通过训练捕捉到二次形式的 v T R h v^TRh vTRh的重要性,本模型还很受图谱的规模影响。若图谱的规模太大,计算规模很大。
本文主要是使用了注意力机制,self-attention和attention。将实体间交互分为两种类型:实体间交互和实体内交互