本文是LLM系列文章,针对《Towards Omni-RAG: Comprehensive Retrieval-Augmented Generation for Large Language Models in Medical Applications》的翻译。
摘要
大型语言模型有望解决医疗挑战,如医疗诊断推理、研究知识获取、临床决策和消费者健康查询支持。然而,由于医学知识有限,他们经常产生幻觉。因此,整合外部知识至关重要,这需要多源知识的获取。我们通过将其视为源规划问题来应对这一挑战,即根据不同源的属性制定适合上下文的查询。现有的方法要么忽视了源计划,要么由于模型对源的期望与其实际内容之间的不一致而无法有效地实现它。为了弥合这一差距,我们提出了MedOmniKB,这是一个由多类型和多结构医学知识源组成的知识库。利用这些资源,我们提出了资源规划优化方法,提高了多源利用率。我们的方法涉及使专家模型能够探索和评估潜在的计划,同时训练一个较小的模型来学习源对齐。实验结果表明,我们的方法大大提高了多源规划性能,使优化的小模型能够在利用各种医学知识源方面取得最先进的结果。