知识图谱表示的向量化使得我们可以实现更易于泛化的可微分推理。然而, 基于表示学习实现的知识图谱推理和链接预测丢失了传统符号计算方法的可解释性,即:模型无去对基于向量计算或神经网络训练后得出的推理结论进行解释,导致只知结果但不知为什么。在很多真实的应用场景下,黑盒模型的可解释性缺乏导致很多应用不得不放弃采用表示学习方法 。本报告尝试探讨知识图谱与表示学习的可解释性之间的关系,具体针对基于表示学习实现的知识图谱推理的可解释性问题提出一些研究思路和解决方法,并结合真实的应用场景介绍相关的一些实践。
[可解释, 知识图谱]
陈华钧