主要内容 研究背景:大语言模型(LLMs)在处理需要外部知识的任务(如知识密集型多选问答任务MCQA)时存在困难。现有将知识图谱(KGs)集成到LLMs的方法,如直接微调、检索相关信息或使用基于KG的软提示等,都存在计算成本高、检索信息有噪声、未考虑问题相关性以及选项知识缺失等问题。 问题公式化:聚焦于基于KG增强的LLM的多选问答任务,旨在借助预训练的LLM、知识图谱 G = ( E , R , T