本文是LLM系列文章,针对《Two Heads Are Better Than One: Integrating Knowledge from Knowledge Graphs and Large Language Models for Entity Alignment》的翻译。
摘要
实体对齐是创建更全面的知识图谱(KG)的先决条件,包括在不同的知识图谱中精确定位等效实体。当代的实体对齐方法主要利用知识嵌入模型来获取包含各种相似性(结构、关系和属性)的实体嵌入。然后,这些嵌入通过基于注意力的信息融合机制进行整合。尽管取得了这些进展,但由于固有的异质性,有效利用多方面信息仍然具有挑战性。此外,尽管大型语言模型(LLM)通过隐式捕获实体语义,在不同的下游任务中表现出了卓越的性能,但这种隐式知识尚未被用于实体对齐。在这项研究中,我们提出了一个大型语言模型增强的实体对齐框架(LLMEA),将来自KGs的结构知识与来自LLM的语义知识相结合,以增强实体对齐。具体而言,LLMEA通过考虑跨KGs的实体之间的嵌入相似性和编辑到虚拟等效实体的距离来识别给定实体的候选比对。然后,它迭代地使用LLM,提出多个多选问题,以利用LLM的推理能力。等效实体的最终预测是从LLM的输出中导出的。在三个公共数据集上进行的实验表明,LLMEA超过了领先的基线模型。其他消