Two Heads Are Better Than One: Integrating Knowledge from Knowledge Graphs and Large Language Models

828 篇文章

已下架不支持订阅

实体对齐是构建全面知识图谱的关键,本文提出LLMEA框架,结合知识图谱的结构知识和大型语言模型的语义知识,提升对齐准确性。LLMEA通过关系感知图注意力网络生成嵌入,利用LLM进行多轮推理,实现在三个公共数据集上的优越性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《Two Heads Are Better Than One: Integrating Knowledge from Knowledge Graphs and Large Language Models for Entity Alignment》的翻译。

两个头比一个头好:集成知识图谱和大型语言模型中的知识实现实体对齐

摘要

实体对齐是创建更全面的知识图谱(KG)的先决条件,包括在不同的知识图谱中精确定位等效实体。当代的实体对齐方法主要利用知识嵌入模型来获取包含各种相似性(结构、关系和属性)的实体嵌入。然后,这些嵌入通过基于注意力的信息融合机制进行整合。尽管取得了这些进展,但由于固有的异质性,有效利用多方面信息仍然具有挑战性。此外,尽管大型语言模型(LLM)通过隐式捕获实体语义,在不同的下游任务中表现出了卓越的性能,但这种隐式知识尚未被用于实体对齐。在这项研究中,我们提出了一个大型语言模型增强的实体对齐框架(LLMEA),将来自KGs的结构知识与来自LLM的语义知识相结合,以增强实体对齐。具体而言,LLMEA通过考虑跨KGs的实体之间的嵌入相似性和编辑到虚拟等效实体的距离来识别给定实体的候选比对。然后,它迭代地使用LLM,提出多个多选问题,以利用LLM的推理能力。等效实体的最终预测是从LLM的输出中导出的。在三个公共数据集上进行的实验表明,LLMEA超过了领先的基线模型。其他消

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值