大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。
2022年底,OpenAI 推出的基于 GPT-3.5 的大型语言模型 ChatGPT,由于其优秀的表现,ChatGPT 及其背后的大型语言模型迅速成为人工智能领域的热门话题,吸引了广大科研人员和开发者的关注和参与。
为了方便大家阅读,只列出了论文标题、AMiner AI综述等信息,如果感兴趣可点击查看原文,PC端数据同步(收藏即可在PC端查看),每日新论文也可登录小程序查看。
如果想要对某篇论文进行深入对话,可以直接复制论文链接到浏览器上或者直达AMiner AI页面:
https://www.aminer.cn/chat/g/explain
Test-time Computing: from System-1 Thinking to System-2 Thinking
【要点】:论文综述了测试时计算(test-time computing)的概念,从系统1思维模型到系统2思维模型的演变,揭示了其在提升模型推理能力、鲁棒性和泛化能力方面的作用,并展望了未来的研究方向。
【方法】:作者通过文献调研,追溯了测试时计算的概念,并按照从系统1到系统2思维的演变趋势组织了这一综述。
【链接】:https://www.aminer.cn/pub/677c988aae8580e7ff365648
ToolHop:A Query-Driven Benchmark for Evaluating Large Language Models in Multi-Hop Tool Use
【要点】:本文提出ToolHop,一个基于查询驱动的评估大型语言模型在多跳工具使用能力上的数据集,揭示了现有模型在多跳工具使用方面的挑战和提升空间。
【方法】:通过查询驱动的数据构建方法,包括工具创建、文档精炼和代码生成,确保了查询多样性、工具间有意义的关系、本地可执行工具、详细反馈和可验证的答案。
【实验】:在包含995个用户查询和3912个相关工具的ToolHop数据集上评估了14个LLM模型,来自五个模型家族(LLaMA3.1、Qwen2.5、Gemini1.5、Claude3.5和GPT),发现GPT-4o模型的准确度为49.04%,表明存在较大的改进空间。
【链接】:https://www.aminer.cn/pub/677c988aae8580e7ff365651
STAR: Spatial-Temporal Augmentation with Text-to-Video Models for Real-World Video Super-Resolution
【要点】:论文提出STAR方法,利用文本到视频(T2V)模型进行时空增强,解决现实世界视频超分辨率中的时空一致性问题,并提高视频质量。
【方法】:作者通过引入局部信息增强模块(LIEM)和动态频率损失(DF Loss),在全局注意力块之前增强局部细节,并指导模型在不同扩散步骤关注不同的频率成分。
【实验】:使用合成和现实世界数据集进行广泛实验,证明STAR方法在视频质量和时空一致性方面优于现有最佳方法。
【链接】:https://www.aminer.cn/pub/677c9894ae8580e7ff366fce
BoostStep: Boosting mathematical capability of Large Language Models via improved single-step reasoning
【要点】:本文提出BoostStep方法,通过在单步推理中改进上下文学习示例的粒度匹配,提升了大型语言模型解决数学问题的能力。
【方法】:BoostStep方法通过将检索和推理的粒度对齐到步骤级别,并为每个推理步骤提供高度相关的上下文学习示例,采用创新的“首次尝试”策略。
【实验】:实验使用了GPT-4o和Qwen2.5-Math-72B模型,在多个数学基准测试上分别提高了3.6%和2.0%,结合蒙特卡洛树搜索方法(MCTS)后,性能提升7.5%。
【链接】:https://www.aminer.cn/pub/677c9894ae8580e7ff3670ef
Dispider: Enabling Video LLMs with Active Real-Time Interaction via Disentangled Perception, Decision, and Reaction
【要点】:本文提出了一个名为Dispider的系统,通过解耦感知、决策和反应,实现了视频大语言模型与用户的实时互动,提高了交互的及时性、准确性和计算效率。
【方法】:Dispider采用轻量级主动流视频处理模块跟踪视频流并确定最佳交互时机,通过异步交互模块在交互触发时提供详细响应,同时处理模块继续监控视频。
【实验】:实验表明,Dispider在传统视频问答任务中保持强大性能的同时,在流场景响应中显著超越之前的在线模型,验证了架构的有效性。所使用的数据集名称未在摘要中明确提及,代码和模型已公开释放。
【链接】:https://www.aminer.cn/pub/677c9894ae8580e7ff3670e6