
Recommendation
文章平均质量分 66
该专栏整理了推荐系统相关的论文,包括传统推荐领域的经典问题,以及在LLM背景下,推荐系统的最新发展。专栏中部分文章为完整翻译,大多是摘要和结论的翻译,后续会完善所有内容翻译,订阅请注意!!!
UnknownBody
AI博士,最近一直follow大模型相关论文,每日会更新学术界论文的进展。
展开
-
Rec-R1: Bridging Generative Large Language Models and User-Centric Recommendation Systems
我们提出了REC-R1,一个通过闭环优化将大型语言模型(LLM)与推荐系统相结合的通用强化学习框架。与提示和监督微调(SFT)不同,REC-R1直接利用固定黑盒推荐模型的反馈优化LLM生成,无需依赖GPT-4o等专有模型生成的合成SFT数据,从而避免了数据蒸馏的高成本。为验证有效性,我们在商品搜索和序列推荐两个代表性任务上进行了评估。实验表明,REC-R1不仅持续优于基于提示和SFT的方法,还在使用BM25等简单检索器时显著超越强判别式基线。原创 2025-04-30 10:54:58 · 86 阅读 · 0 评论 -
Rec-R1: Bridging Generative Large Language Models and User-Centric Recommendation Systems
我们提出了REC-R1,一个通过闭环优化将大型语言模型(LLM)与推荐系统相结合的通用强化学习框架。与提示和监督微调(SFT)不同,REC-R1直接利用固定黑盒推荐模型的反馈优化LLM生成,无需依赖GPT-4o等专有模型生成的合成SFT数据,从而避免了数据蒸馏的高成本。为验证有效性,我们在商品搜索和序列推荐两个代表性任务上进行了评估。实验表明,REC-R1不仅持续优于基于提示和SFT的方法,还在使用BM25等简单检索器时显著超越强判别式基线。原创 2025-04-27 08:30:00 · 81 阅读 · 0 评论 -
Think Before Recommend: Unleashing the Latent Reasoning Power for Sequential Recommendation
序列推荐(SeqRec)旨在通过捕捉用户历史交互中的序列模式来预测下一个物品,在实际推荐系统中发挥关键作用。然而现有方法主要采用直接前向计算范式,使用序列编码器的最终隐状态作为用户表示。我们指出这种推理范式因计算深度有限,难以建模用户偏好的复杂演变且缺乏对长尾物品的精细化理解。为此,我们提出ReaRec,首个推荐系统推理时计算框架,通过隐式多步推理增强用户表示。具体而言,ReaRec将序列的最后隐状态自回归地输入到序列推荐器中,并引入特殊推理位置嵌入解耦原始物品编码空间与多步推理空间。原创 2025-04-13 09:30:00 · 126 阅读 · 0 评论 -
KEDRec-LM: A Knowledge-distilled Explainable Drug Recommendation Large Language Model
药物发现是生物医学自然语言处理(NLP)中的一项关键任务,然而可解释的药物发现仍有待深入探索。与此同时,大语言模型(LLMs)在自然语言理解和生成方面展现出了卓越的能力。利用大语言模型进行可解释的药物发现,有望改进下游任务和实际应用。在本研究中,我们利用开源药物知识图谱、临床试验数据和PubMed出版物,构建了一个用于可解释药物发现任务的综合数据集,名为expRxRec。此外,我们引入了KEDRec-LM,这是一个经过指令调优的大语言模型,它从丰富的医学知识语料库中蒸馏知识,用于药物推荐和给出推荐理由。原创 2025-03-09 09:45:00 · 31 阅读 · 0 评论 -
Enhanced Recommendation Combining Collaborative Filtering and Large Language Models
随着信息爆炸时代的到来,推荐系统在各种应用中的重要性日益凸显。传统的协同过滤算法因其在捕获用户行为模式方面的有效性而被广泛使用,但在处理冷启动问题和数据稀疏性时遇到了局限性。大型语言模型(LLMs)凭借其强大的自然语言理解和生成能力,为推荐系统提供了新的突破。本研究提出了一种结合协同过滤和LLM的增强推荐方法,旨在利用协同过滤在建模用户偏好方面的优势,同时通过LLM增强对用户和项目文本信息的理解,以提高推荐的准确性和多样性。原创 2025-02-16 09:00:00 · 111 阅读 · 0 评论 -
Bridging the User-side Knowledge Gap in Knowledge-aware Recommendations with Large Language Models
近年来,知识图谱作为项目侧的辅助信息被整合到推荐系统中,提高了推荐的准确性。然而,由于用户侧特征的粒度不当和固有稀缺性,构建和集成结构化用户侧知识仍然是一个重大挑战。大型语言模型(LLM)的最新进展通过利用其对人类行为的理解和广泛的现实世界知识,提供了弥合这一差距的潜力。然而,将LLM生成的信息集成到推荐系统中带来了挑战,包括噪声信息的风险和需要额外的知识迁移。在本文中,我们提出了一种基于LLM的用户端知识推理方法,以及一个精心设计的推荐框架来解决这些挑战。原创 2025-02-12 09:00:00 · 112 阅读 · 0 评论 -
An Automatic Graph Construction Framework based on Large Language Models for Recommendation
图神经网络(GNN)已经成为从图结构数据中学习以进行推荐的最先进方法。然而,现有的基于GNN的推荐方法大多侧重于基于预定义图的模型结构和学习策略的优化,忽视了图构建阶段的重要性。早期的图构建工作通常依赖于特定的规则或众包,这些规则要么过于简单,要么过于劳动密集。鉴于其丰富的开放世界知识和卓越的推理能力,最近的工作开始利用大型语言模型(LLM)来自动化图构建。然而,它们通常存在两个局限性:(1)全局视图的不可见性(例如,忽略上下文信息)和(2)构建效率低下。原创 2025-02-02 09:00:00 · 175 阅读 · 0 评论 -
MixRec: Heterogeneous Graph Collaborative Filtering
对于现代推荐系统来说,使用低维潜在表示来嵌入用户和基于他们观察到的交互的项目已经变得司空见惯。然而,许多现有的推荐模型主要是为粗粒度和同质交互而设计的,这限制了它们在两个关键维度上的有效性。首先,这些模型未能利用不同类型用户行为(如页面浏览、收集、评论和购买)之间存在的关系依赖关系。其次,他们很难捕捉到驱动用户交互模式的细粒度潜在因素。为了解决这些局限性,我们提出了一种异构图协同过滤模型MixRec,该模型擅长解开用户的多行为交互模式,并揭示每种行为背后的潜在意图因素。原创 2025-02-01 09:00:00 · 432 阅读 · 0 评论 -
Optimization and Scalability of Collaborative Filtering Algorithms in Large Language Models
随着大型语言模型(LLM)的快速发展和对个性化内容需求的不断增长,推荐系统在增强用户体验和推动参与度方面变得至关重要。协同过滤算法作为许多推荐系统的核心,因其高效性和可解释性而受到广泛关注。然而,传统的协同过滤方法在集成到基于LLM的大规模系统中时面临着许多挑战,包括高计算成本、严重的数据稀疏性、冷启动问题和缺乏可扩展性。本文研究了大型语言模型中协同过滤算法的优化和可扩展性,通过高级优化策略解决了这些局限性。首先,我们分析了协同过滤算法的基本原理及其在基于LLM的环境中的应用局限性。原创 2025-01-31 10:00:00 · 128 阅读 · 0 评论 -
Large Language Model Enhanced Recommender Systems: Taxonomy, Trend, Application and Future
大型语言模型(LLM)在包括推荐系统(RS)在内的各个领域都具有变革潜力。有一些研究侧重于通过LLM赋予RS权力。然而,之前的研究主要集中在LLM作为RS上,这可能会面临LLM不能容忍推理成本的挑战。最近,将LLM集成到RS中,称为LLM增强推荐系统(LLMERS),由于其有可能解决现实应用中的延迟和内存限制,引起了人们的极大兴趣。本文对旨在利用LLM增强RS能力的最新研究工作进行了全面调查。我们发现该领域的一个关键转变是将LLM纳入在线系统,特别是通过避免在推理过程中使用LLM。原创 2025-01-27 09:15:00 · 149 阅读 · 0 评论 -
Revisiting Recommendation Loss Functions through Contrastive Learning
受对比学习成功的启发,我们系统地研究了推荐损失,包括列表(softmax)、成对(BPR)和点(MSE和CCL)损失。在这项工作中,我们引入了InfoNCE+,这是对具有平衡系数的InfoNCE的优化泛化,并强调了它的性能优势,特别是在与我们新的解耦对比损失MINE+相一致时。我们还利用已去偏置的InfoNCE对逐点推荐损失(CCL)进行去偏置,作为去偏置CCL。有趣的是,我们的分析表明,像iALS和EASE这样的线性模型本质上是去偏的。实证结果证明了MINE+和去偏CCL的有效性。原创 2024-12-26 09:15:00 · 165 阅读 · 0 评论 -
(Debiased) Contrastive Learning Loss for Recommendation
在本文中,我们通过对比学习的视角对推荐损失进行了系统检查,包括列表(softmax)、成对(BPR)和逐点(均方误差、MSE和余弦对比损失、CCL)损失。我们首次在推荐设置下引入并研究了去偏InfoNCE和互信息神经估计器(MINE)。我们还通过下限分析将这两种损失与BPR损失联系起来并加以区分。此外,我们提出了去偏逐点损失(对于MSE和CCL),并从理论上证明了iALS和EASE这两个最流行的线性模型都是固有的去偏。实证实验结果表明,去偏损失和新引入的互信息损失的有效性优于现有的(有偏)损失。原创 2024-12-27 10:15:00 · 121 阅读 · 0 评论 -
A Neural Matrix Decomposition Recommender System Model based on the Multimodal Large Language Model
推荐系统已成为信息搜索问题的重要解决方案。本文提出了一种基于多模态大语言模型的神经矩阵分解推荐系统模型,称为BoNMF。该模型结合了BoBERTa在自然语言处理方面的强大能力、视觉计算机中的ViT和神经矩阵分解技术。通过捕捉用户和项目的潜在特征,并在与由用户和项目ID组成的低维矩阵交互后,神经网络输出结果。推荐。冷启动和消融实验结果表明,BoNMF模型在大型公共数据集上表现出色,显著提高了推荐的准确性。原创 2024-10-02 09:15:00 · 92 阅读 · 0 评论 -
Large Language Models meet Collaborative Filtering
协同过滤推荐系统(CF RecSys)在增强社交媒体和电子商务平台上的用户体验方面取得了连续的成果。然而,由于CF RecSys在用户-项目交互稀疏的冷场景下苦苦挣扎,最近的策略侧重于基于预训练的模态编码器和大型语言模型(LLM)利用用户/项目的模态信息(例如文本或图像)。尽管它们在冷启动场景下有效,但我们观察到,由于缺乏协作知识,它们在温暖场景下的表现不如简单的传统协作过滤模型。原创 2024-08-02 19:30:57 · 361 阅读 · 0 评论 -
Large Language Models as Evaluators for Recommendation Explanations
推荐系统的可解释性已经引起了学术界和工业界的极大关注。已经为可解释的建议做出了许多努力,但评估解释的质量仍然是一个具有挑战性且尚未解决的问题。近年来,利用LLM作为评估者在自然语言处理任务(如情感分类、信息提取)中提供了一条很有前途的途径,因为它们在指令遵循和常识推理方面具有强大的能力。然而,评估推荐解释性文本与这些NLG任务不同,因为其标准与人类感知有关,通常是主观的。在本文中,我们研究LLM是否可以作为推荐解释的评估者。原创 2024-07-08 15:38:16 · 94 阅读 · 0 评论 -
Large Language Models Make Sample-Efficient Recommender Systems
大型语言模型(LLM)在自然语言处理(NLP)领域取得了显著进展,在为各种任务生成类似人类语言的文本方面表现出了非凡的能力。这为在推荐系统(RS)中使用它们开辟了新的机会。在本文中,我们专门研究了LLM增强推荐系统的样本效率,它与模型在有限的训练数据量下获得卓越性能的能力有关。由于特征和交互的稀疏性,传统的推荐模型通常需要大量的训练数据。因此,我们提出并验证了我们的核心观点:大型语言模型使样本高效推荐系统。原创 2024-07-08 14:42:11 · 100 阅读 · 0 评论 -
Towards Efficient and Effective Unlearning of Large Language Models for Recommendation
大型语言模型(LLM)的显著进步带来了一个很有前途的研究方向,即利用LLM作为推荐器(LLMRec)。LLMRec的功效源于LLM固有的开放世界知识和推理能力。LLMRec通过基于用户交互数据的指令调优来获得推荐能力。然而,为了保护用户隐私和优化效用,LLMRec故意忘记特定的用户数据也是至关重要的,这通常被称为建议遗忘。在LLM时代,建议遗忘给LLMRec带来了低效率和无效性方面的新挑战。现有的遗忘方法需要更新LLMRec中的数十亿个参数,这既昂贵又耗时。此外,在遗忘过程中,它们总是影响模型的实用性。原创 2024-07-02 20:44:57 · 130 阅读 · 0 评论 -
Aligning Large Language Models for Controllable Recommendations
受大型语言模型(LLM)非凡的通用智能的启发,研究人员已经开始探索其在开创下一代推荐系统中的应用——这些系统是对话的、可解释的和可控的。然而,现有文献主要集中在将特定领域的知识集成到LLM中以提高准确性,而往往忽视了遵循指令的能力。为了解决这一差距,我们最初引入了一组监督学习任务,并添加了来自传统推荐模型的标签,旨在明确提高LLM遵守推荐特定指令的熟练程度。随后,我们开发了一个基于强化学习的对齐程序,以进一步加强LLM在响应用户意图和减少格式错误方面的能力。原创 2024-07-02 09:11:50 · 322 阅读 · 0 评论 -
Large Language Models as Conversational Movie Recommenders: A User Study
本文探讨了使用大型语言模型(LLM)从用户那里进行个性化电影推荐的有效性在线实地实验中的观点。我们的研究结合了受试者之间的即时消费评估和历史消费评估,以及受试者内部推荐情景评估。通过检查160名活跃用户的对话和调查响应数据,我们发现LLM提供了很强的推荐解释性,但缺乏整体个性化、多样性和用户信任。我们的研究结果还表明,不同的个性化提示技术不会显著影响用户感知的推荐质量,但用户观看的电影数量起着更重要的作用。此外,LLM在推荐鲜为人知或小众电影方面表现出更强的能力。原创 2024-07-01 15:43:42 · 84 阅读 · 0 评论 -
InteraRec: Screenshot Based Recommendations Using Multimodal Large Language Models
网络日志由详细描述用户在任何网站上的活动的记录组成,提供了对用户偏好、行为和兴趣的宝贵见解。许多推荐算法采用协作过滤、基于内容的过滤和混合方法等策略,利用通过这些博客挖掘的数据向用户提供个性化推荐。尽管这些博客中有丰富的信息,但从中识别和提取相关信息和关键特征需要进行广泛的工程工作。数据的复杂性也对解释提出了挑战,尤其是对非专家来说。在这项研究中,我们引入了一个复杂的交互式推荐框架,称为InteraRec,它与完全依赖博客生成推荐的传统方法不同。InteraRec框架在用户浏览网站时捕捉网页的高频屏幕截图。原创 2024-07-01 14:29:38 · 64 阅读 · 0 评论 -
A Large Language Model Enhanced Sequential Recommender for Joint Video and Comment Recommendation
在在线视频平台中,阅读或撰写有趣视频的评论已成为视频观看体验的重要组成部分。然而,现有的视频推荐系统主要对用户与视频的互动行为进行建模,在用户行为建模中缺乏对评论的考虑。在本文中,我们提出了一种新的推荐方法,称为LSVCR,通过利用用户与视频和评论的互动历史,共同进行个性化的视频和评论推荐。具体来说,我们的方法由两个关键组件组成,即顺序推荐(SR)模型和补充大语言模型(LLM)推荐器。SR模型作为我们方法的主要推荐骨干(保留在部署中),允许进行高效的用户偏好建模。原创 2024-06-28 11:00:20 · 90 阅读 · 0 评论 -
CoRAL: Collaborative Retrieval-Augmented Large Language Models Improve Long-tail Recommendation
由于数据稀疏和数据不平衡的问题,长尾推荐对传统的推荐系统来说是一项具有挑战性的任务。最近开发的大型语言模型(LLM)显示了它们在复杂推理方面的能力,这有助于根据很少的先前交互推断用户的偏好。然而,由于大多数基于LLM的系统依赖于项目的语义作为推理的唯一证据,因此忽略了用户-项目交互的协作信息,这可能导致LLM的推理与数据集的特定任务协作信息不一致。为了进一步使LLM的推理与特定任务的用户-项目交互知识相一致,我们引入了协作检索增强LLM,即CoRAL,它直接将协作证据纳入提示中。原创 2024-06-27 14:39:47 · 288 阅读 · 0 评论 -
Re2LLM: Reflective Reinforcement Large Language Model for Session-based Recommendation
大型语言模型(LLM)正在成为增强基于会话的推荐(SBR)的有前途的方法,其中基于提示和基于微调的方法都已被广泛研究,以使LLM与SBR保持一致。然而,由于缺乏特定任务的反馈,前一种方法难以获得最佳提示来引出LLM的正确推理,导致推荐不令人满意。尽管后一种方法试图利用特定领域的知识对LLM进行微调,但它们面临着计算成本高和依赖开源主干网等限制。为了解决这些问题,我们提出了一个用于SBR的反射强化大语言模型(Re2LLM),指导LLM专注于更准确、更高效的建议所必需的专业知识。原创 2024-06-26 14:26:47 · 109 阅读 · 0 评论 -
Emerging Synergies Between Large Language Models and Machine Learning in Ecommerce Recommendations
随着电子商务和网络应用程序的蓬勃发展,推荐系统已经成为我们日常生活的重要组成部分,根据用户的喜好提供个性化推荐。尽管深度神经网络(DNN)通过模拟用户和项目之间的交互并结合其文本信息,在改进推荐系统方面取得了重大进展,但这些基于DNN的方法仍然存在一些局限性,例如难以有效理解用户的兴趣和捕获文本信息。不可能概括到不同的可见/不可见推荐场景及其预测的原因。原创 2024-06-22 11:25:01 · 173 阅读 · 0 评论 -
Large Language Models are Learnable Planners for Long-Term Recommendation
在建议中,对眼前和长期利益进行规划变得越来越重要。现有的方法通过最大化长期推荐的累积奖励来应用强化学习(RL)来学习规划能力。然而,当从头开始训练RL模型时,推荐数据的稀缺性带来了挑战,如不稳定性和过拟合的易感性,导致性能次优。有鉴于此,我们建议利用大型语言模型(LLM)在稀疏数据上的卓越规划能力进行长期推荐。实现这一目标的关键在于制定一项指导计划,遵循加强长期参与的原则,并以个性化的方式将该计划建立在有效和可执行的行动基础上。原创 2024-06-18 17:08:16 · 194 阅读 · 0 评论 -
TRAWL: External Knowledge-Enhanced Recommendation with LLM Assistance
将语义信息与行为数据相结合是推荐系统中的一个重要研究领域。一种很有前途的方法是利用外部知识来丰富具有丰富语义信息的基于行为的推荐系统。然而,这种方法面临两个主要挑战:对原始外部知识进行去噪和调整语义表示。为了应对这些挑战,我们提出了一种具有LLM辅助的外部知识增强推荐方法(TRAWL)。该方法利用大型语言模型(LLM)从原始外部数据中提取相关的推荐知识,并采用对比学习策略进行适配器训练。在公共数据集和真实世界的在线推荐系统上的实验验证了我们方法的有效性。原创 2024-06-18 10:45:56 · 217 阅读 · 0 评论 -
Evaluating Large Language Models as Generative User Simulators for Conversational Recommendation
在会话推荐系统的评估中,合成用户是真实用户的具有成本效益的代理。大型语言模型在模拟类人行为方面表现出了希望,这就提出了它们代表不同用户群体的能力问题。我们引入了一种新的协议来衡量语言模型在会话推荐中准确模仿人类行为的程度。该协议由五个任务组成,每个任务都旨在评估合成用户应该表现出的关键特性:选择要谈论的项目、表达二元偏好、表达开放式偏好、请求推荐和提供反馈。通过对基线模拟器的评估,我们证明了这些任务有效地揭示了语言模型与人类行为的偏差,并就如何通过模型选择和提示策略来减少偏差提供了见解。原创 2024-05-28 16:46:42 · 91 阅读 · 0 评论 -
Stealthy Attack on Large Language Model based Recommendation
最近,强大的大型语言模型(LLM)在推动推荐系统(RS)的发展方面发挥了重要作用。然而,尽管这些系统蓬勃发展,但它们对安全威胁的易感性在很大程度上被忽视了。在这项工作中,我们揭示了将LLM引入推荐模型会带来新的安全漏洞,因为它们强调项目的文本内容。我们证明,攻击者只需在测试阶段更改项目的文本内容,就可以显著提高项目的曝光率,而不需要直接干扰模型的训练过程。此外,这种攻击非常隐蔽,因为它不会影响整体推荐性能,而且对文本的修改很微妙,用户和平台很难检测到。原创 2024-05-03 11:33:00 · 160 阅读 · 0 评论 -
Uncertainty-Aware Explainable Recommendation with Large Language Models
在推荐系统内提供解释将提高用户满意度并促进信任,特别是通过详细说明选择适合用户的推荐项目的原因。该领域的主要方法围绕着生成基于文本的解释,特别强调应用大型语言模型(LLM)。然而,由于时间限制和计算资源限制,为可解释的建议改进LLM被证明是不切实际的。作为一种替代方案,当前的方法包括训练提示而不是LLM。在这项研究中,我们开发了一个模型,该模型利用用户和项目输入的ID向量作为GPT-2的提示。我们在多任务学习框架内采用了联合训练机制来优化推荐任务和解释任务。原创 2024-04-08 17:46:20 · 137 阅读 · 0 评论 -
A Lightweight and Effective Framework for Integrating Large Language Models in Session-based
传统的基于会话的推荐(SBR)利用来自匿名用户的会话行为序列进行推荐。尽管这种策略非常高效,但它牺牲了项目固有的语义信息,使模型难以理解会话的真实意图,并导致推荐结果缺乏可解释性。最近,大型语言模型(LLM)在各个领域蓬勃发展,为解决上述挑战提供了一线希望。受LLM影响的启发,探索LLM与推荐系统(RS)集成的研究像雨后的蘑菇一样激增。然而,受高时间和空间成本以及会话数据的简短和匿名性质的限制,第一个适合工业部署的LLM建议框架尚未在SBR领域出现。原创 2024-04-05 14:55:09 · 118 阅读 · 0 评论 -
Large Language Model with Graph Convolution for Recommendation
近年来,人们努力在推荐中使用文本信息来更好地进行用户简介和项目特征描述。然而,文本信息有时质量很低,阻碍了其在现实应用中的有效性。随着知识和推理能力被大型语言模型(LLM)所覆盖,利用LLM成为一种很有前途的描述改进方法。然而,现有的用原始文本提示LLM的方法忽略了用户-项目交互的结构化知识,这可能会导致幻觉问题,如不一致的描述生成。为此,我们提出了一种图感知卷积LLM方法,以引出LLM来捕获用户项目图中的高阶关系。原创 2024-04-01 10:15:09 · 213 阅读 · 0 评论 -
Utilizing Large Language Models for Industrial Recommendation Systems through an Inferential KG
推荐系统广泛应用于电子商务网站和在线平台,以解决信息过载问题。然而,现有的系统主要依赖于历史数据和用户反馈,这使得很难捕捉用户意图的转变。最近,有人提出了基于知识库的模型来整合专家知识,但它很难适应新的项目和不断发展的电子商务环境。为了应对这些挑战,我们提出了一种新的基于大型语言模型的补充知识增强推荐系统(LLM-KERec)。它引入了一个实体提取器,从项目和用户信息中提取统一的概念术语。为了提供具有成本效益和可靠的先验知识,基于实体流行度和特定策略生成实体对。原创 2024-03-26 14:35:36 · 131 阅读 · 0 评论 -
Integrating Large Language Models with Graphical Session-Based Recommendation
随着大型语言模型(LLM)的快速发展,在推荐系统中利用LLM的上下文理解能力进行了各种探索。虽然开创性的策略主要将传统的推荐任务转化为自然语言生成的挑战,但由于其特殊性,在基于会话的推荐(SBR)领域的探索相对较少。城市SBR主要由图神经网络主导,由于其能够捕捉相邻行为之间的隐式和显式关系,图神经网络已经取得了许多成功。图形的结构性质与自然语言的本质形成对比,对应LLM构成了一个重要的适应差距。原创 2024-03-25 10:44:07 · 180 阅读 · 0 评论 -
Exploring the Impact of Large Language Models on Recommender Systems: An Extensive Review
本文强调了大型语言模型(LLM)在重塑推荐系统方面的重要性,并将其价值归因于传统推荐系统所缺乏的独特推理能力。与缺乏直接用户交互数据的传统系统不同,LLM在推荐项目方面表现出非凡的熟练度,展示了他们理解复杂语言的能力。这标志着推荐领域发生了根本性的范式转变。在动态的研究环境中,研究人员积极利用LLM的语言理解和生成能力来重新定义推荐任务的基础。该调查深入探讨了LLM在建议框架内的内在优势,包括细致入微的上下文理解、跨不同领域的无缝过渡、采用统一的方法、利用共享数据库的整体学习策略、透明的决策和迭代改进。原创 2024-03-18 15:09:56 · 299 阅读 · 0 评论 -
Toward Patent Response Automation with Recommender Systems and Collaborative Large Language Models
在专利起诉中,及时有效地回应专利局的行动对保护专利至关重要。然而,过去的自动化和人工智能研究在很大程度上忽略了这一方面。为了弥补这一差距,我们的研究引入了专利局行动响应智能系统(PARIS)及其高级版本,即大型语言模型(LLM)增强型PARIS(LE-PARIS)。这些系统旨在通过与人工智能的合作,提高专利律师处理OA响应的效率主要功能包括构建OA主题数据库、开发响应模板、实现推荐系统和基于LLM的响应生成。原创 2024-03-07 09:57:44 · 78 阅读 · 0 评论 -
Empowering Few-Shot Recommender Systems with Large Language Models-Enhanced Representations
在过去的几年里,利用显式反馈的推荐系统已经取得了显著的进步和广泛的应用。然而,在小样本场景中生成推荐仍然是一个持续的挑战。最近,大型语言模型(LLM)已成为解决自然语言处理(NLP)任务的一种很有前途的解决方案,从而为解决基于显式反馈的推荐系统所遇到的小样本场景提供了新的见解。为了连接推荐系统和LLM,我们设计了一个提示模板,根据明确的反馈生成用户和项目表示。随后,我们将这些LLM处理的表示集成到各种推荐模型中,以评估它们在不同推荐任务中的重要性。原创 2024-01-23 11:39:31 · 670 阅读 · 0 评论 -
A Survey on Large Language Models for Personalized and Explainable Recommendations
近年来,随着大型语言模型(LLM)在自然语言处理(NLP)领域的出现,推荐系统(RS)发生了变革。这些模型,如OpenAI的GPT-3.5/4、Meta的Llama,在理解和生成类人文本方面表现出了前所未有的能力。这导致了个性化和可解释推荐领域的范式转变,因为LLM提供了一个多功能的工具集,用于处理大量文本数据,以增强用户体验。为了全面了解现有的基于LLM的推荐系统,本调查旨在分析RS如何从基于LLM方法中受益。原创 2024-01-10 10:45:35 · 694 阅读 · 0 评论 -
Large Language Model Augmented Narrative Driven Recommendations
叙述驱动推荐(NDR)提出了一个信息访问问题,用户通过详细描述自己的偏好和背景来征求推荐,例如,旅行者在描述自己的好恶和旅行环境的同时,征求兴趣点的推荐。随着搜索和推荐系统中基于自然语言的会话接口的兴起,这些要求变得越来越重要。然而,NDR缺乏丰富的模型训练数据,当前的平台通常不支持这些请求。幸运的是,经典的用户-项目交互数据集包含丰富的文本数据,例如评论,这些数据通常描述用户偏好和上下文——这可以用于NDR模型的引导训练。在这项工作中,我们探索使用大型语言模型(LLM)进行数据扩充来训练NDR模型。原创 2023-12-04 10:54:05 · 224 阅读 · 0 评论 -
Recommender Systems in the Era of Large Language Models (LLMs)
随着电子商务和网络应用程序的繁荣,推荐系统(RecSys)已成为我们日常生活中的一个重要组成部分,提供符合用户偏好的个性化建议。尽管深度神经网络(DNN)通过建模用户-项目交互并结合其文本辅助信息,在增强推荐系统方面取得了重大进展,但这些基于DNN的方法仍然存在一些局限性,例如难以有效理解用户的兴趣和捕获文本辅助信息,在推广到各种可见/不可见的推荐场景以及对其预测进行推理方面的能力不足等。原创 2023-09-15 09:48:41 · 969 阅读 · 0 评论