本文是LLM系列文章,针对《Large Language Model with Graph Convolution for Recommendation》的翻译。
摘要
近年来,人们努力在推荐中使用文本信息来更好地进行用户简介和项目特征描述。然而,文本信息有时质量很低,阻碍了其在现实应用中的有效性。随着知识和推理能力被大型语言模型(LLM)所覆盖,利用LLM成为一种很有前途的描述改进方法。然而,现有的用原始文本提示LLM的方法忽略了用户-项目交互的结构化知识,这可能会导致幻觉问题,如不一致的描述生成。为此,我们提出了一种图感知卷积LLM方法,以引出LLM来捕获用户项目图中的高阶关系。为了使基于文本的LLM与结构化图相适应,我们在图处理中使用LLM作为聚合器,使其能够逐步理解基于图的信息。具体而言,LLM是通过逐层探索多跳邻居来进行描述增强所必需的,从而在图中逐步传播信息。为了使LLM能够捕获大规模的图信息,我们将描述任务分解为更小的部分,这大大减少了每一步token输入的上下文长度。在三个真实世界数据集上进行的大量实验表明,我们的方法始终优于最先进的方法。