• 博客(1864)
  • 收藏
  • 关注

转载 CVPR 2025 Oral | 无需共享数据,如何用几何知识对齐全局分布?

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。GGEUR的核心思想是,在不共享原始数据的前提下,服务器通过客户端上传的局部嵌入统计信息(均值和协方差)估计全局分布的几何形状,再将其下发至客户端,引导后者生成符合全局分布结构的新样本,从而缩小局部与全局分布之间的差距。然而,联邦学习中的一个核心挑战是。

2025-06-05 15:59:47 12

转载 CVPR 2025 Oral | 卷积网络又双叒叕行了?OverLoCK:一种仿生的卷积神经网络视觉基础模型

为了能够更好地适应不同输入分辨率,同时保持强大的归纳偏置,进而充分利用 Overview-Net 提供的 Top-down Guidance,研究团队提出了一种新的动态卷积模块 --- ContMix。值得注意的是,所提出的 ContMix 是一种即插即用的模块。AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。

2025-06-04 16:34:06 11

原创 CVPR 2025 预讲会 | DAMO开发者矩阵专场

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。ICML 2025结果出炉|一作讲者已开启招募,欢迎新老朋友来预讲会相聚!AI TIME欢迎每一位AI爱好者的加入!提出观点,表达想法,欢迎。

2025-06-03 14:49:35 259

原创 CVPR 2025特邀报告 港大赵恒爽老师:空间智能视觉基础模型|课题组专场分享

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。ICML 2025结果出炉|一作讲者已开启招募,欢迎新老朋友来预讲会相聚!添加"AI TIME小助手",发送“CVPR”,AI TIME欢迎每一位AI爱好者的加入!

2025-06-02 12:03:14 184

原创 本周大模型新动向:多模型压缩、双向蒸馏、多模态对齐

本文认为,语言并不总是推理的最自然或最有效的模态,特别是在涉及空间和几何信息的任务中。从多模型压缩的角度来看,模型合并能够以节省内存的方式服务于从同一基础模型微调的多个模型,但由于它们的任务特定参数调整(即deltas)之间的干扰,会导致性能下降。AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。

2025-06-01 12:01:28 526

转载 六年,我们让每位青年都能C位出道

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。六年里,我们见证了 1600 + 位青年讲者从“初次登台的紧张” 到 “从容分享的自信”:有人带着在 AI TIME 打磨的思路敲开了顶级实验室的大门,有人通过平台合作开启了跨学科研究,更有人把在这里收获的思辨习惯带入日常学习。2025年AI圈,真的是很热闹啊!

2025-05-30 12:02:47 289

原创 六年思辨不止,AI TIME生日快乐

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。六年里,我们追问智能的边界,探索人类与技术的共生之道。AI TIME,源自AI爱好者的共同提问。AI的尽头,是人类思想的镜像。AI,是工具,还是伙伴?

2025-05-29 14:30:42 458

原创 CVPR 2025特邀报告:港大罗平教授|MM Lab专场分享

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。ICML 2025结果出炉|一作讲者已开启招募,欢迎新老朋友来预讲会相聚!添加"AI TIME小助手",发送“CVPR”,AI TIME欢迎每一位AI爱好者的加入!

2025-05-28 17:37:19 436

原创 今天10:30| CVPR 2025预讲会开启,全议程码住

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。,华中科技大学本科生,上海AI Lab 科研实习生。添加"AI TIME小助手",发送“CVPR”,将拉您进“AI TIME 交流群”!提出观点,表达想法,欢迎。

2025-05-27 10:46:52 561

转载 ACL’25 | 群体比较推理释放LLM-as-a-Judge 在评测中的scaling效果

此外,我们的研究证明,高质量的CoT推理不仅能够提升多个评测基准上的评测可靠性,还能提高CoT蒸馏的效率,同时拓展了基于群体评测方法的应用范围。当这些群体回复与候选回复。广泛的实验表明,我们的方法显著提高了评测的可靠性,在五个评测基准上平均提升了 6.7% 的准确率。AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。

2025-05-25 12:01:24 359

原创 本周大模型新动向:高效推理压缩、云协作多Agent框架、偏好对齐

终止延迟,即使在得出自信的答案后,推理仍在继续。本文评估了最先进的推理模型在提示中呈现的 6 种推理提示下的 CoT 真实性,发现:(1)在大多数设置和测试模型中,CoT 在至少 1% 的使用提示的示例中揭示了其对提示的使用,但揭示率通常低于 20%;AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。

2025-05-25 00:00:09 950

原创 沈春华教授:通过模仿人工标注轨迹探索多模态大模型的像素理解能力 | CVPR 2025 预讲会特邀报告

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。ICML 2025结果出炉|一作讲者已开启招募,欢迎新老朋友来预讲会相聚!添加"AI TIME小助手",发送“CVPR”,AI TIME欢迎每一位AI爱好者的加入!

2025-05-23 12:02:16 583

原创 CVPR 2025预讲会54位讲者相聚|3场特邀报告+3个团队专场+5大主题方向

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。,华中科技大学本科生,上海AI Lab 科研实习生。添加"AI TIME小助手",发送“CVPR”,将拉您进“AI TIME 交流群”!提出观点,表达想法,欢迎。

2025-05-22 15:31:10 881

原创 模型效用定律:迈向可泛化评估之路|复旦大学曹艺馨老师开讲

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾800场活动,超1000万人次观看。ICML 2025结果出炉|一作讲者已开启招募,欢迎新老朋友来预讲会相聚!AI TIME欢迎每一位AI爱好者的加入!提出观点,表达想法,欢迎。

2025-05-20 12:01:50 865

转载 ICLR‘25 | 大模型的长上下文自进化训练

目前,主流模型一般倾向于只使用非常少量的长文本数据来对齐模型(例如,LLaMA 3.1 的长文本后训练数据只有 1% 的比例)以适应实践中短文本占主流的场景,导致模型能力无法被很好地迁移到长文本场景中。上述长文本训练方法存在的问题是,所需的长文本后训练数据集通常需要人来标注,而人天然不擅长阅读长文本并给出足够的标注信息。长文本训练过程一般不采用 DPO 方法,因为 DPO 需要一个参考模型来约束模型输出,而参考模型本身往往并没有针对长文本优化,所以用于长文本场景时是不可靠的,可能会让模型走向错误的方向。

2025-05-18 12:01:44 596

转载 ICLR‘25 | 大模型的长上下文自进化训练

目前,主流模型一般倾向于只使用非常少量的长文本数据来对齐模型(例如,LLaMA 3.1 的长文本后训练数据只有 1% 的比例)以适应实践中短文本占主流的场景,导致模型能力无法被很好地迁移到长文本场景中。上述长文本训练方法存在的问题是,所需的长文本后训练数据集通常需要人来标注,而人天然不擅长阅读长文本并给出足够的标注信息。长文本训练过程一般不采用 DPO 方法,因为 DPO 需要一个参考模型来约束模型输出,而参考模型本身往往并没有针对长文本优化,所以用于长文本场景时是不可靠的,可能会让模型走向错误的方向。

2025-05-18 12:01:44 586

转载 ICLR‘25 | 大模型的长上下文自进化训练

目前,主流模型一般倾向于只使用非常少量的长文本数据来对齐模型(例如,LLaMA 3.1 的长文本后训练数据只有 1% 的比例)以适应实践中短文本占主流的场景,导致模型能力无法被很好地迁移到长文本场景中。上述长文本训练方法存在的问题是,所需的长文本后训练数据集通常需要人来标注,而人天然不擅长阅读长文本并给出足够的标注信息。长文本训练过程一般不采用 DPO 方法,因为 DPO 需要一个参考模型来约束模型输出,而参考模型本身往往并没有针对长文本优化,所以用于长文本场景时是不可靠的,可能会让模型走向错误的方向。

2025-05-18 12:01:44 589

转载 ICLR‘25 | 大模型的长上下文自进化训练

目前,主流模型一般倾向于只使用非常少量的长文本数据来对齐模型(例如,LLaMA 3.1 的长文本后训练数据只有 1% 的比例)以适应实践中短文本占主流的场景,导致模型能力无法被很好地迁移到长文本场景中。上述长文本训练方法存在的问题是,所需的长文本后训练数据集通常需要人来标注,而人天然不擅长阅读长文本并给出足够的标注信息。长文本训练过程一般不采用 DPO 方法,因为 DPO 需要一个参考模型来约束模型输出,而参考模型本身往往并没有针对长文本优化,所以用于长文本场景时是不可靠的,可能会让模型走向错误的方向。

2025-05-18 12:01:44 587

转载 ICLR‘25 | 大模型的长上下文自进化训练

目前,主流模型一般倾向于只使用非常少量的长文本数据来对齐模型(例如,LLaMA 3.1 的长文本后训练数据只有 1% 的比例)以适应实践中短文本占主流的场景,导致模型能力无法被很好地迁移到长文本场景中。上述长文本训练方法存在的问题是,所需的长文本后训练数据集通常需要人来标注,而人天然不擅长阅读长文本并给出足够的标注信息。长文本训练过程一般不采用 DPO 方法,因为 DPO 需要一个参考模型来约束模型输出,而参考模型本身往往并没有针对长文本优化,所以用于长文本场景时是不可靠的,可能会让模型走向错误的方向。

2025-05-18 12:01:44 588

转载 ICLR‘25 | 大模型的长上下文自进化训练

目前,主流模型一般倾向于只使用非常少量的长文本数据来对齐模型(例如,LLaMA 3.1 的长文本后训练数据只有 1% 的比例)以适应实践中短文本占主流的场景,导致模型能力无法被很好地迁移到长文本场景中。上述长文本训练方法存在的问题是,所需的长文本后训练数据集通常需要人来标注,而人天然不擅长阅读长文本并给出足够的标注信息。长文本训练过程一般不采用 DPO 方法,因为 DPO 需要一个参考模型来约束模型输出,而参考模型本身往往并没有针对长文本优化,所以用于长文本场景时是不可靠的,可能会让模型走向错误的方向。

2025-05-18 12:01:44 561

转载 ICLR‘25 | 大模型的长上下文自进化训练

目前,主流模型一般倾向于只使用非常少量的长文本数据来对齐模型(例如,LLaMA 3.1 的长文本后训练数据只有 1% 的比例)以适应实践中短文本占主流的场景,导致模型能力无法被很好地迁移到长文本场景中。上述长文本训练方法存在的问题是,所需的长文本后训练数据集通常需要人来标注,而人天然不擅长阅读长文本并给出足够的标注信息。长文本训练过程一般不采用 DPO 方法,因为 DPO 需要一个参考模型来约束模型输出,而参考模型本身往往并没有针对长文本优化,所以用于长文本场景时是不可靠的,可能会让模型走向错误的方向。

2025-05-18 12:01:44 493

转载 ICLR‘25 | 大模型的长上下文自进化训练

目前,主流模型一般倾向于只使用非常少量的长文本数据来对齐模型(例如,LLaMA 3.1 的长文本后训练数据只有 1% 的比例)以适应实践中短文本占主流的场景,导致模型能力无法被很好地迁移到长文本场景中。上述长文本训练方法存在的问题是,所需的长文本后训练数据集通常需要人来标注,而人天然不擅长阅读长文本并给出足够的标注信息。长文本训练过程一般不采用 DPO 方法,因为 DPO 需要一个参考模型来约束模型输出,而参考模型本身往往并没有针对长文本优化,所以用于长文本场景时是不可靠的,可能会让模型走向错误的方向。

2025-05-18 12:01:44 263

转载 ICLR‘25 | 真正「Deep」的「Research」,通过强化学习实现可自主进化的科研智能体来了!

4. 迭代反馈训练阶段:研究人员首先通过拒绝采样获取样本,通过 CycleReviewer 的打分构成偏好对,两个模型相互配合,通过强化学习的方式不断优化,CycleResearcher 根据 CycleReviewer 的反馈不断改进自身的论文生成策略,CycleReviewer 则根据 CycleResearcher 生成的论文不断提高自身的评审能力。然后,它会交替生成论文的大纲和正文,确保逻辑流畅。接下来,概述实验设置和结果,随后生成实验设计和模拟结果(注意,这里的实验结果是模拟的)。

2025-05-16 15:00:57 625

转载 ICLR‘25 | 真正「Deep」的「Research」,通过强化学习实现可自主进化的科研智能体来了!

4. 迭代反馈训练阶段:研究人员首先通过拒绝采样获取样本,通过 CycleReviewer 的打分构成偏好对,两个模型相互配合,通过强化学习的方式不断优化,CycleResearcher 根据 CycleReviewer 的反馈不断改进自身的论文生成策略,CycleReviewer 则根据 CycleResearcher 生成的论文不断提高自身的评审能力。然后,它会交替生成论文的大纲和正文,确保逻辑流畅。接下来,概述实验设置和结果,随后生成实验设计和模拟结果(注意,这里的实验结果是模拟的)。

2025-05-16 15:00:57 595

转载 ICLR‘25 | 真正「Deep」的「Research」,通过强化学习实现可自主进化的科研智能体来了!

4. 迭代反馈训练阶段:研究人员首先通过拒绝采样获取样本,通过 CycleReviewer 的打分构成偏好对,两个模型相互配合,通过强化学习的方式不断优化,CycleResearcher 根据 CycleReviewer 的反馈不断改进自身的论文生成策略,CycleReviewer 则根据 CycleResearcher 生成的论文不断提高自身的评审能力。然后,它会交替生成论文的大纲和正文,确保逻辑流畅。接下来,概述实验设置和结果,随后生成实验设计和模拟结果(注意,这里的实验结果是模拟的)。

2025-05-16 15:00:57 491

转载 ICLR‘25 | 真正「Deep」的「Research」,通过强化学习实现可自主进化的科研智能体来了!

4. 迭代反馈训练阶段:研究人员首先通过拒绝采样获取样本,通过 CycleReviewer 的打分构成偏好对,两个模型相互配合,通过强化学习的方式不断优化,CycleResearcher 根据 CycleReviewer 的反馈不断改进自身的论文生成策略,CycleReviewer 则根据 CycleResearcher 生成的论文不断提高自身的评审能力。然后,它会交替生成论文的大纲和正文,确保逻辑流畅。接下来,概述实验设置和结果,随后生成实验设计和模拟结果(注意,这里的实验结果是模拟的)。

2025-05-16 15:00:57 353

转载 ICLR‘25 | 真正「Deep」的「Research」,通过强化学习实现可自主进化的科研智能体来了!

4. 迭代反馈训练阶段:研究人员首先通过拒绝采样获取样本,通过 CycleReviewer 的打分构成偏好对,两个模型相互配合,通过强化学习的方式不断优化,CycleResearcher 根据 CycleReviewer 的反馈不断改进自身的论文生成策略,CycleReviewer 则根据 CycleResearcher 生成的论文不断提高自身的评审能力。然后,它会交替生成论文的大纲和正文,确保逻辑流畅。接下来,概述实验设置和结果,随后生成实验设计和模拟结果(注意,这里的实验结果是模拟的)。

2025-05-16 15:00:57 326

转载 ICLR‘25 | 真正「Deep」的「Research」,通过强化学习实现可自主进化的科研智能体来了!

4. 迭代反馈训练阶段:研究人员首先通过拒绝采样获取样本,通过 CycleReviewer 的打分构成偏好对,两个模型相互配合,通过强化学习的方式不断优化,CycleResearcher 根据 CycleReviewer 的反馈不断改进自身的论文生成策略,CycleReviewer 则根据 CycleResearcher 生成的论文不断提高自身的评审能力。然后,它会交替生成论文的大纲和正文,确保逻辑流畅。接下来,概述实验设置和结果,随后生成实验设计和模拟结果(注意,这里的实验结果是模拟的)。

2025-05-16 15:00:57 333

转载 ICLR‘25 | 真正「Deep」的「Research」,通过强化学习实现可自主进化的科研智能体来了!

4. 迭代反馈训练阶段:研究人员首先通过拒绝采样获取样本,通过 CycleReviewer 的打分构成偏好对,两个模型相互配合,通过强化学习的方式不断优化,CycleResearcher 根据 CycleReviewer 的反馈不断改进自身的论文生成策略,CycleReviewer 则根据 CycleResearcher 生成的论文不断提高自身的评审能力。然后,它会交替生成论文的大纲和正文,确保逻辑流畅。接下来,概述实验设置和结果,随后生成实验设计和模拟结果(注意,这里的实验结果是模拟的)。

2025-05-16 15:00:57 316

转载 ICLR‘25 | 真正「Deep」的「Research」,通过强化学习实现可自主进化的科研智能体来了!

4. 迭代反馈训练阶段:研究人员首先通过拒绝采样获取样本,通过 CycleReviewer 的打分构成偏好对,两个模型相互配合,通过强化学习的方式不断优化,CycleResearcher 根据 CycleReviewer 的反馈不断改进自身的论文生成策略,CycleReviewer 则根据 CycleResearcher 生成的论文不断提高自身的评审能力。然后,它会交替生成论文的大纲和正文,确保逻辑流畅。接下来,概述实验设置和结果,随后生成实验设计和模拟结果(注意,这里的实验结果是模拟的)。

2025-05-16 15:00:57 220

转载 ICLR‘25 | 真正「Deep」的「Research」,通过强化学习实现可自主进化的科研智能体来了!

4. 迭代反馈训练阶段:研究人员首先通过拒绝采样获取样本,通过 CycleReviewer 的打分构成偏好对,两个模型相互配合,通过强化学习的方式不断优化,CycleResearcher 根据 CycleReviewer 的反馈不断改进自身的论文生成策略,CycleReviewer 则根据 CycleResearcher 生成的论文不断提高自身的评审能力。然后,它会交替生成论文的大纲和正文,确保逻辑流畅。接下来,概述实验设置和结果,随后生成实验设计和模拟结果(注意,这里的实验结果是模拟的)。

2025-05-16 15:00:57 31

原创 超越基准:迈向可泛化评估之路|复旦大学曹艺馨老师开讲

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾700场活动,超800万人次观看。ICML 2025结果出炉|一作讲者已开启招募,欢迎新老朋友来预讲会相聚!AI TIME欢迎每一位AI爱好者的加入!提出观点,表达想法,欢迎。

2025-05-15 14:01:18 547

原创 CVPR 2025预讲会已邀50位讲者,讲者报名通道即将关闭

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾700场活动,超800万人次观看。ICML 2025预讲会|一作讲者已开启招募,欢迎新老朋友来预讲会相聚!AI TIME欢迎每一位AI爱好者的加入!提出观点,表达想法,欢迎。

2025-05-14 16:11:56 558

转载 大模型逻辑推理能力最新综述:北大、清华、UvA、CMU等联合发布

下图展示了一类通用的提升大模型回答的逻辑一致性的方法框架,首先对每个问题生成多个候选回答,然后对不同问题的回答计算逻辑一致性的违背程度,最后优化求解为每个问题选择一个最优答案使逻辑一致性的违背程度降到最低。AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。” 这两个问题都回答 “是”,但对“喜鹊有翅膀吗?

2025-05-13 14:08:56 404

原创 ICML 2025预讲会一作讲者开启招募啦!

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾700场活动,超800万人次观看。今年,ICML将于7月13日-19日,在加拿大温哥华「温哥华会议中心」召开。4. 活动直播与论文解读文章相结合,内容沉淀,深度且持续地宣传。提出观点,表达想法,欢迎。

2025-05-12 18:31:33 620

原创 本周大模型新动向:自动幻觉检测、多智能体强化学习、多模态数据压缩

受经典Gold-Angluin语言识别框架的启发,本文研究了一种算法是否能够在训练时仅使用来自一个未知目标语言K的样本(K是从可数语言集合L中选择的),并且可以访问LLM的情况下,可靠地判断LLM的输出是否正确或构成幻觉。AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。提出观点,表达想法,欢迎。

2025-05-10 18:02:44 790

转载 5.46亿个三元组数据集!蛋白质分子研究新范式

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。一年多以来,智谱BigModel 平台上涌现出的一批又一批的学者们,将智谱 GLM 模型应用于计算机科学、大数据与统计、材料化学、医学、法律、金融、传媒、社会学、心理学多样化的科研和教学场景中,驱动研究范式和研究工具新一轮的变革。

2025-05-08 14:01:36 440

转载 多邻国爆火背后的 AI 教育逻辑:如何让学习像刷短视频一样 “上瘾”?|Z Next 4月17日直播摘要

多邻国的 AI 通过BirdBrain 模型实现个性化出题(100% AI 生成题目)和自适应学习,例如根据用户水平动态调整对话难度的 “Video Call with Lily” 功能,让技术自然融入学习流程,用户无需感知 “AI 的存在”,却能获得精准训练。但是有一个思路是,现在的模型能力,对于语言类教育完全够用。AI 表现优异,可通过隐性化设计(如多邻国的自适应出题)提升学习体验,即使出现 “幻觉”(如语法错误),对初级学习者影响微乎其微,因用户核心需求是 “无压力练习” 而非 “绝对正确”。

2025-05-06 18:01:45 609

转载 追寻AGI之梦 劳动创造美

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾700场活动,超800万人次观看。CVPR 2025一作讲者招募中,欢迎新老朋友来预讲会相聚!AI TIME欢迎每一位AI爱好者的加入!提出观点,表达想法,欢迎。

2025-05-01 11:02:58 397

转载 学术助研招募 | 清华大学行为经济学与智能决策研究团队

AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。迄今为止,AI TIME已经邀请了2000多位海内外讲者,举办了逾700场活动,超800万人次观看。CVPR 2025一作讲者招募中,欢迎新老朋友来预讲会相聚!AI TIME欢迎每一位AI爱好者的加入!提出观点,表达想法,欢迎。

2025-04-30 12:27:09 417

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除