自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(116)
  • 收藏
  • 关注

原创 颠覆传统!小波变换+KAN上大分!参数直降45.5%,精度远超SOTA!

例如,在Indian Pines数据集上,Wav-KAN的平均分类准确率达到了85.54%,显著高于Spline-KAN的77.31%和MLP的35.13%。计算效率:与Spline-KAN相比,Wav-KAN利用小波的固有伸缩特性,减少了额外项的需求,加快了训练速度。在Salinas数据集上,Wav-KAN仅使用了约30%的参数就达到了与Spline-KAN相当的性能。参数效率:瓶颈KAN卷积层显著减少了模型的参数数量,与普通KAN卷积层相比,参数数量减少了约80%,同时保持了相当的性能。

2025-05-14 16:59:42 420

原创 Nature常客之 特征提取

特征提取作为机器学习与模式识别领域的核心环节,其方法论的演进直接推动了人工智能在诸多应用场景中的性能边界。近年来,随着深度学习的快速发展,传统基于手工设计的特征提取方法(如SIFT、HOG等)正逐渐与数据驱动的深度特征表示相融合,形成了多模态、层次化的特征提取新范式。我整理了一些【论文+代码】合集,需要的同学公人人人号【航识无涯学术】发123自取。解构去噪扩散模型以用于自监督学习去噪扩散模型(DDM):研究了DDM在图像生成中的表示学习能力,通过逐步将其解构为经典的去噪自编码器(DAE)。

2025-05-13 14:18:19 434

原创 正在爆发!“扩散模型+时间序列”成论文新赛道!

近年来,扩散模型(Diffusion Models)凭借其强大的生成能力和稳定的训练特性,在计算机视觉领域取得了显著成功。然而,其在时间序列分析中的应用潜力尚未得到充分挖掘。时间序列数据具有独特的时序依赖性、非平稳性和多尺度结构,这为扩散模型带来了新的挑战与机遇。我整理了一些【论文+代码】合集,需要的同学公人人人号【航识无涯学术】发123自取。扩散模型在时间序列预测中的崛起扩散模型基础: 详细介绍了扩散模型的理论基础,包括其条件化方法,以及如何通过模拟数据从噪声到原始数据的扩散过程来生成数据。

2025-05-12 15:01:10 788

原创 正在爆发!“曼巴+时间序列”成论文新赛道!

近年来,时间序列分析在金融、气象、医疗等领域的广泛应用推动了相关方法的快速发展。作为一种新兴的深度学习架构,曼巴(Mamba)凭借其选择性状态空间模型(Selective State Space Model, S3M)在长序列建模中展现出显著优势,尤其在处理非平稳性和高维依赖关系方面超越了传统Transformer和RNN的局限性。我整理了一些【论文+代码】合集,需要的同学公人人人号【航识无涯学术】发123自取。RSCaMa:基于状态空间模型的遥感图像变化描述。

2025-05-09 10:46:57 570

原创 CNN+Transformer结合,准确率近100%!

近年来,卷积神经网络(CNN)与Transformer的融合架构已成为计算机视觉与多模态学习领域的重要研究方向。CNN凭借其局部感受野与平移不变性,在特征提取方面展现出显著优势;而Transformer则通过自注意力机制(Self-Attention)实现了全局依赖建模,二者在表征学习上具有显著的互补性。我整理了一些【论文+代码】合集,需要的同学公人人人号【航识无涯学术】发123自取。UPDP:适用于CNN和视觉变换器的统一渐进式深度剪枝器。

2025-05-08 14:07:39 855

原创 小波变换+CNN堪称完美的组合!

近年来,小波变换(Wavelet Transform)与卷积神经网络(CNN)的交叉研究已成为多模态特征学习的重要范式。小波变换通过时-频局部化分析克服了傅里叶变换在非平稳信号处理中的局限性,其多分辨率特性(Mallat, 1989)与CNN的层次化特征提取机制具有天然的拓扑相容性。小编整理了一些小波变换+CNN【合集,以下放出部分,全部论文PDF版皆可领取。Wavelet-SRNet:一种用于多尺度人脸超分辨率的基于小波的卷积神经网络。

2025-05-07 17:26:02 674

原创 正在爆发!“PINN+GNN”成论文新赛道!

近年来,物理信息神经网络(Physics-Informed Neural Networks, PINNs)与图神经网络(Graph Neural Networks, GNNs)的交叉融合为解决复杂科学计算问题开辟了新的研究范式。PINNs通过将物理定律编码为神经网络的正则化约束,显著提升了模型在偏微分方程求解、逆问题建模等领域的泛化能力;而GNNs凭借其非欧几里得数据结构下的高效表征学习特性,成为处理不规则网格、粒子系统及拓扑关联问题的理想工具。

2025-05-06 17:34:42 759

原创 正在爆发!“小波变换+注意力机制”成论文新赛道!

近年来,小波变换(Wavelet Transform)与注意力机制(Attention Mechanism)的融合已成为信号处理与深度学习交叉领域的研究热点。小波变换通过时频局部化分析克服了傅里叶变换在非平稳信号处理中的局限性,其多分辨率特性(MRA)为特征提取提供了数学完备的框架。而注意力机制通过动态权重分配实现了对关键特征的自适应聚焦,这与小波分析中"显著系数优先"的思想存在内在耦合性。我整理了一些【论文+代码】合集,需要的同学公人人人号【航识无涯学术】发123自取。

2025-04-30 15:41:08 643

原创 正在爆发!“注意力机制+傅里叶变换”成论文新赛道!

性能提升:在长序列任务中,FoPE相比于RoPE和ALiBi,在困惑度和准确率上表现出更高的稳定性,特别是在“针在草堆”任务中,FoPE的准确率显著高于RoPE和ALiBi。高效混合机制:傅里叶变换作为一种无参数的混合机制,训练速度比BERT快80%(GPU)和70%(TPU),同时在GLUE基准测试中达到了92-97%的BERT准确率。性能提升:在长序列任务中,FNet的准确率与最准确的高效Transformer模型相当,但速度更快,内存占用更小。

2025-04-29 14:16:46 634

原创 顶会新宠!剑桥凭“强化学习+多目标优化”杀疯ICLR!2025发论文的黄金赛道来了!

基准测试的多样性与实用性:ColBench提供了足够多样的任务,以支持无过拟合的RL训练,同时保持任务的复杂性,挑战代理的推理和泛化能力。训练时信息的利用:SWEET-RL通过在训练过程中利用额外的训练时信息(如最终结果和参考解决方案),为代理提供了更有效的信用分配,从而提高了代理在多轮交互任务中的表现。算法的泛化能力:SWEET-RL通过适当的优化目标和算法选择,使得LLM代理能够更好地泛化到未见过的任务,提高了代理在复杂任务中的适应性和鲁棒性。

2025-04-28 17:11:14 773

原创 我愿称之无敌!频域+注意力机制最新暴力涨点方案!

哈特利多头注意力(Hartley MHA):在频率域中应用多头自注意力,显著提高了模型的表达能力,同时减少了计算和内存需求。多尺度混合(MCM)和多分辨率混合(MRM):通过层次聚合和自适应整合,模型能够更有效地处理不同尺度和分辨率下的时间序列模式。多频率多尺度注意力(MFMSA):通过多频率和多尺度特征的结合,显著提高了模型在不同模态和临床设置中的分割性能。时间图像分解(TID):通过双轴注意力机制,成功分离了时间序列中的季节性和趋势模式,提高了模型对复杂时间序列的表示能力。

2025-04-27 13:59:44 834

原创 颠覆传统!LSTM+transformer上大分!参数直降45.5%,精度远超SOTA!

近年来,序列建模领域见证了长短期记忆网络(LSTM)与Transformer架构的深度融合,这一交叉方向通过结合时序建模的归纳偏置与自注意力机制的全局依赖性,显著提升了在长序列任务中的性能边界。Swin Transformer 与 LSTM 的结合:通过将 Swin Transformer 的全局空间建模能力与 LSTM 的时间序列建模能力相结合,SwinLSTM 在多个时空预测任务上取得了显著的性能提升。自动分组和剪枝:通过依赖图自动分组耦合参数,避免了手动设计分组方案的复杂性和局限性。

2025-04-25 15:01:07 631

原创 2025顶会:CNN+LSTM+Attention多热点搭配

性能提升:在DAQUAR-ALL、DAQUAR-REDUCED、COCO-QA和VQA四个数据集上,两层堆叠注意力网络(SAN(2, CNN))的准确率分别达到了29.3%、46.2%、61.6%和57.6%,相比单层注意力网络(SAN(1, CNN)),在DAQUAR-ALL上准确率提升了0.4%,在DAQUAR-REDUCED上提升了1.0%,在COCO-QA上提升了1.4%,在VQA上提升了0.7%。多步推理:支持多步推理过程,能够处理复杂的图像问答任务,显著提高了模型的准确性和鲁棒性。

2025-04-24 17:42:27 1031

原创 交叉注意+特征融合 创新结合方案!!

根据ICCV 2023最新综述,基于交叉注意的融合框架在跨模态检索任务中平均提升14.7%的mAP指标(vs. 传统方法),其关键在于三个方面:(1) 层次化注意力门控机制实现特征空间的软对齐;(2) 基于Transformer的交叉编码器架构建立长程依赖;动态-静态交互(DSI):在特征图变得密集后,DSI模块进一步增强了两个分支之间的特征交互,确保了丰富的语义信息和精确的位置信息的融合。邻域交叉注意力(NCA):通过限制交叉注意力的计算范围到邻域,有效地处理了BEV特征图的稀疏性,提高了融合效率。

2025-04-23 15:25:13 891

原创 - Nature正刊都在用的idea:LLM+知识图谱

此外,ToG 通过减少对大型 LLM 的依赖,降低了部署成本。自校正自适应规划范式:提出了 Plan-on-Graph(PoG),一种新的自校正自适应规划范式,通过分解问题为多个子目标,并重复探索推理路径、更新记忆和反思是否需要自校正错误的推理路径。知识的可追溯性和可修正性:ToG 明确的推理路径提高了 LLM 推理过程的可解释性,并允许追溯和修正模型输出的来源。LLM ⊗ KG 范式:提出了一种新的 LLM 和知识图谱(KG)紧密结合的范式,将 LLM 视为代理,通过与知识图谱的交互式探索来执行推理。

2025-04-22 14:48:30 739

原创 被秀到了!CNN+强化学习梦幻联动!

卷积神经网络(CNN)与强化学习(RL)的融合已成为深度强化学习(DRL)领域的重要研究方向。CNN凭借其强大的空间特征提取能力,能够有效处理高维状态空间(如图像输入),而强化学习则通过试错机制在复杂环境中学习最优策略。两者的结合为解决视觉感知与决策控制耦合的复杂任务(如机器人导航、Atari游戏、自动驾驶等)提供了新的范式。我整理了一些时间序列可解释性【论文+代码】合集,需要的同学公人人人号【航识无涯学术】发123自取。基于多阶段图嵌入和强化学习的拓扑感知网络剪枝。

2025-04-21 16:46:34 720

原创 超好“水”小论文:因果推断+机器学习!9种创新思路,get到直接毕业!

反事实推理:将诊断任务定义为反事实推理问题,相比传统关联诊断方法,能够更准确地识别疾病对症状的因果解释,诊断准确率从传统方法的72.52%提升到77.26%,在罕见病诊断中提升更为显著,对于非常罕见疾病的诊断准确率提升了32.9%。准Oracle性能:B-Learner在估计CATE界限时具有准Oracle性能,即使在存在隐藏混杂的情况下,也能提供有效的估计,其估计误差与Oracle估计相当。双重稳健性:DRL方法结合了倾向得分匹配和回归模型,即使在存在模型误设的情况下,也能提供稳健的因果效应估计。

2025-04-15 14:01:15 913

原创 拿下TPAMI25!深度聚类重磅突破!

是一种无监督学习方法,目的是将数据划分为若干个簇(或类别),使得同一簇内的数据相似度较高,而不同簇之间的数据相似度较低。常见的聚类算法有K-Means、层次聚类、DBSCAN等。:通过构建多层的神经网络结构,自动从数据中学习特征表示,能够处理复杂的非线性关系。例如卷积神经网络(CNN)在图像处理领域表现出色,循环神经网络(RNN)及其变体长短期记忆网络(LSTM)在处理序列数据方面有独特优势。小编整理了一些深度聚类【合集,以下放出部分,全部论文PDF版皆可领取。

2025-04-14 10:55:06 618

原创 最强组合:曼巴+多模态图像融合!中科院二区直接写!

耦合状态空间模型:通过耦合多个模态的状态链,有效捕捉模态间的动态交互,显著提升了多模态融合的效果。混合模型DM-H:通过结合马尔可夫模型的长期记忆能力和变换器的高质量预测能力,显著提升了模型在长期任务中的性能。混合决策马尔可夫模型(DM-H):提出了一种混合模型,结合了马尔可夫模型和变换器的优点,通过马尔可夫模型生成子目标,并用这些子目标提示变换器,以实现高质量的预测。自适应时空信息融合(ASFF)模块:通过补充一个域中信息量较少的通道与另一个域中相应的通道,增强两个域中的特征,实现时空信息的相互增强。

2025-04-11 14:06:12 633

原创 频域+特征融合这么做,竟能发Nature?!

时间-频率域音频处理:提出了一种基于时间-频率域的音频处理方法,通过短时傅里叶变换(STFT)将音频信号转换为复数时间-频率二元组,并在此基础上进行算法处理。信息融合仿射模块(IFAM):设计了一个信息融合仿射模块,用于整合不同阶段和尺度的特征信息,通过动态融合和仿射滤波实现自适应学习。时间-频率独立建模:通过将音频的时间和频率维度分别建模,显著提高了语音分离的性能,同时减少了模型的参数数量和计算复杂度。空间-时间交互:通过CTI和CSI模块,实现了空间和时间维度的交互,提高了特征提取的鲁棒性和区分能力。

2025-04-10 13:52:45 864

原创 交叉注意力+特征融合神操作,登上Nature!计算速度狂提300%!

多模态交叉注意力机制:提出了一种新颖的交叉注意力机制,能够同时利用图像区域和句子词之间的关系,以及图像区域内部和句子词内部的关系,以增强图像与句子匹配的效果。交叉注意力模块:将图像区域和句子词的特征堆叠后输入到Transformer单元,通过多头注意力机制同时考虑图像区域和句子词之间的关系,以及它们内部的关系。解码器:解码器通过交错的2D-3D交叉注意力实现2D和3D特征的隐式融合,交替更新3D点云和2D图像的特征。多尺度多视图融合:结合了多尺度和多视图特征,提高了模型的表示学习能力,显著提升了性能。

2025-04-09 10:17:53 931

原创 这个切入点真是绝!迁移学习与多模态融合的结合,准确率接近完美,能发顶会且不卷!

此外,这种结合还能提高模型在新任务上的准确率,例如在胸部X光图像分类中,通过多层多模态融合的深度神经网络模型MultiFusionNet,实现了高达99.6%的准确率。展示了所开发方法的变革潜力,通过在敏感性、特异性和精确性方面的显著改进,实现了99%的卓越准确率,强化了其在临床设置中实际应用的潜力。提出了一种新的方法,通过在训练阶段从源模态转移到目标模态的知识,从而在预测阶段移除源模态,提高了操作和计算效率。提出了一种在共享编码空间中对视听模态进行语义对齐的CMKT方法,提高了模型的泛化能力。

2025-04-08 10:09:22 930

原创 性能飙升!频域与注意力机制的完美结合,轻松超越SOTA

例如,浙大团队提出的FcaNet采用了一种巧妙的通道注意力机制,从频域的角度出发,利用DCT(离散余弦变换)对SE(Squeeze-and-Excitation)进行了扩展,这种方法简单高效,仅需对原有代码进行微小的改动,就能实现相较于SENet50模型1.8%的性能提升。注意力机制:提出了自适应注意力机制(AIA),结合了自适应时频注意力(ATFA)和自适应层次注意力(AHA),提高了特征学习的灵活性和有效性。频率维度的注意力:在注意力计算中保留频率维度,生成细粒度的通道和频率特定的注意力权重。

2025-04-07 14:43:31 629

原创 GAN一举拿下多篇CCF-B!小白轻松上手!

例如,在白天雨滴焦点图像的去除任务中,现有的最佳方法(Restormer)的PSNR为26.08,SSIM为0.748,而该数据集上的平均PSNR为25.52,SSIM为0.734,表明现有方法仍有改进空间。性能提升:在真实世界的变化数据集上进行预训练的实验表明,使用该方法生成的合成变化数据预训练的变化检测器具有更好的迁移性,能够显著提高在真实世界数据集上的性能。双焦点数据集:首次提出了包含雨滴焦点和背景焦点的双焦点数据集,填补了现有数据集在雨滴焦点图像和夜晚雨滴图像方面的空白。

2025-04-03 14:22:49 717

原创 顶会收割机:多变量不规则时序预测!DeepSeek公司都在抢着发!

性能提升:在多个时间序列基准数据集上,TIME-LLM显著优于现有的专门预测模型。性能提升:在多个医疗和活动识别数据集上,RAINDROP在分类任务中平均提升了3.5%的AUROC和4.8%的AUPRC,尤其是在留出传感器的设置中表现更为突出。少样本和零样本学习:在少样本和零样本学习场景中,TIME-LLM表现出色,平均性能提升超过10%,展示了其在数据稀缺情况下的强大适应能力。跨样本学习:通过共享参数和利用样本之间的相似性,RAINDROP能够更好地处理不同样本之间的关系,进一步提升了模型的泛化能力。

2025-04-02 14:02:02 730

原创 顶会大杀器:特征融合!最新idea准确率近乎100%!

通过融合这些特征,可以充分利用不同特征的优势,提升模型的性能。性能提升:在BCI4-2A和BCI4-2B数据集上,TSFF-Net的分类准确率超过了现有的SOTA方法,例如在BCI4-2A的二分类任务中,TSFF-Net的平均准确率达到了85.1%。三分支层次结构:提出HiFuse网络,包含局部特征块、全局特征块和层次特征融合块(HFF块),分别用于提取局部空间特征和全局语义信息,并在不同层次上进行特征融合。通道融合:将不同层次的特征图在通道维度上进行融合,例如通过卷积操作将不同通道的特征进行加权求和。

2025-04-01 14:20:18 669

原创 YOLO-Mamba大火!15种创新思路全面汇总!

Mamba Block Attention Module (MBAM):提出了基于Mamba的注意力模块,包括Mamba空间注意力模块(MSAM)和Mamba通道注意力模块(MCAM),分别从空间和通道维度计算图像的注意力。然而,随着研究的深入,研究人员不断探索如何进一步提升其性能,包括更高的检测精度、更快的推理速度以及更好的适应性。MambaFusion-PAN:提出了一种基于SSM的特征融合机制,包括并行引导选择性扫描(PGSS)算法和串行引导选择性扫描(SGSS)算法,用于视觉和语言特征的融合。

2025-03-31 17:04:13 352

原创 25年最好发论文的方向:Mamba+Transformer!

该模型通过结合 Mamba 的线性复杂度和 Transformer 的强大上下文学习能力,显著降低了计算成本和内存占用,同时在长视频理解任务上取得了优异的性能。该模型通过将时间序列分解为长期的全局模式和短期的局部变化,并分别利用Mamba专家提取长期全局模式以及Local Window Transformer(LWT)专家捕捉短期局部变化,再通过长短期路由器动态整合两者的贡献,实现了在保持线性复杂度O(L)的同时,显著优于现有方法的预测性能,并在多个真实世界数据集上验证了其低内存占用和高效计算能力。

2025-03-28 13:57:18 418 1

原创 杀疯顶刊TPAMI!25年机器学习可解释性中稿捷径来了

模型性能的显著提升:通过超参数调整,所有四种模型(SVM、KNN、DT、RF)的测试准确率均达到99%至100%,相较于之前的研究结果有了显著提升,例如在类似数据集上,SVM的准确率从99.2%提升至100%,KNN的准确率从92%提升至99%。模型解释性的提升:通过实验验证了不同可解释性方法对隐私保护和效用的影响,发现某些解释方法(如模型性能解释)在隐私保护下仍能提供高质量的解释,这对于提高模型的透明度和用户信任度具有重要意义。隐私保护机制:采用(𝜋?

2025-03-27 11:34:47 295

原创 好发不卷!“双通道卷积神经网络”速通顶会指南!(含源码)

性能提升:通过模拟和实验数据验证,该方法在光谱分离和浓度预测方面表现出色,与传统方法(如偏最小二乘法PLS)相比,CNN模型的决定系数(R²)更高,分别为0.9991和0.9994,而PLS方法分别为0.9965和0.9983。在mHealth数据集上,DPB-CNN的准确率达到了97.42%,在MSN数据集上,准确率达到了99.31%。性能提升:与现有的特征融合方法(如MGAF和CFL)相比,SPF特征融合方法在分类准确率、精确率、召回率和F1分数上均取得了更好的结果,证明了其在特征融合方面的优越性。

2025-03-26 15:33:16 872

原创 特征融合这么做,竟能发Nature?!

在数据处理的最早阶段,将不同来源或类型的特征合并在一起。例如,对于多模态数据(如图像和文本),在将图像数据转换为特征向量(如通过卷积神经网络提取的图像特征)和文本数据转换为特征向量(如通过词嵌入和循环神经网络提取的文本特征)之后,直接将这两个特征向量拼接在一起。三分支结构:提出HiFuse网络,包含局部特征块、全局特征块和HFF块,分别提取局部空间信息和全局语义信息,并进行特征融合。层次多尺度特征融合:通过HFF块融合不同尺度的局部和全局特征,全面挖掘病变区域的深浅和全局局部特征,提升分类精度。

2025-03-25 09:21:21 673

原创 我愿称之无敌!SHAP可解释性学习+聚类分析最新暴力涨点方案!

它将机器学习模型的输出解释为特征对输出的贡献值。性能提升:在半导体制造热图数据集上,半监督Shapley聚类相比于无监督聚类,显著提高了聚类质量,减少了未聚类样本的比例,具体表现为更高的NMI值和更低的未聚类样本比例。性能提升:实验表明,该方法在测试集上的均方根误差(RMSE)和决定系数(r2)指标上优于传统自适应超参数调整方法(AHT),具体表现为更低的RMSE和更高的r2值。SHAP聚类:将SHAP值与聚类分析结合,为模型预测提供可解释性的同时,识别数据中的不同模式,提升模型对数据分布变化的适应性。

2025-03-24 17:40:29 922

原创 CVPR25爆款!CNN+UNet!9种创新思路拿去,accept飙升!

例如,对于一个大小为 4×4 的特征图,使用 2×2 的最大池化操作后,特征图的大小会变为 2×2,但保留了特征图中最重要的特征。多架构融合:提出了一个弱监督学习(WSL)框架,集成了基于CNN的UNet、基于Swin Transformer的SwinUNet和基于VMamba的Mamba-UNet三种不同架构,以实现详细的局部特征提取、全面的全局上下文理解和高效的长距离依赖关系建模。全连接层是 CNN 的最后几层,它将前面卷积层和池化层提取的特征进行整合,输出最终的分类结果或回归值。

2025-03-21 11:07:40 412

原创 又一篇CCF-A!小波卷积发顶会,看这32个idea就够了!

例如,在ECL数据集上,WFTNet的MSE为0.164,MAE为0.267,优于TimesNet的0.167和0.271,以及其他方法如ETSformer、DLinear、FEDformer和Autoformer。参数复杂度降低:通过将特征变换与图卷积分离,将参数复杂度从O(n×p×q)降低到O(n+p×q),其中n是节点数,p是每个顶点的特征数,q是下一个层中每个顶点的特征数。多尺度卷积:在不同尺度的小波分解特征上进行卷积操作,每个卷积核专注于输入的不同频率带,从而在更大的感受野中强调低频信息。

2025-03-20 14:21:07 583

原创 PINN,一区手到擒来!

主动学习框架:不确定性量化驱动的主动学习框架相比传统数据生成方法,能够更高效地查询和生成高信息量的训练数据,显著减少了训练位错迁移率模型所需的数据量和计算资源。小波激活函数的优势:小波激活函数具有多分辨率和局部化特性,相比传统激活函数,能够更有效地处理具有高频成分和复杂边界条件的问题,模型的预测精度提高了约20%。物理信息融合:通过将物理信息嵌入神经网络的损失函数中,使得模型在学习过程中能够更好地遵循物理规律,相比纯数据驱动方法,模型的预测精度提高了约25%。

2025-03-19 16:42:08 1011

原创 起步就是二区!边界注意力!最新idea准确率近100%!

AI科研灵感致力于成为您在人工智能领域的领航者,定期更新人工智能领域的重大新闻与最新动态,和您一起探索AI的无限可能。

2025-03-18 14:38:37 1025

原创 Nature新热门!特征提取,预测误差直降4628倍!

AI科研灵感致力于成为您在人工智能领域的领航者,定期更新人工智能领域的重大新闻与最新动态,和您一起探索AI的无限可能。

2025-03-17 16:57:24 943

原创 荣登Nature!KAN + Transformer融合新成果再突破

U-KAN架构:将Kolmogorov-Arnold Networks(KAN)集成到U-Net架构中,通过分层的KAN层增强模型的非线性建模能力和可解释性。生成任务潜力:在扩散模型中,U-KAN作为噪声预测器表现出色,生成的图像在FID和IS指标上优于现有方法,证明了其在生成任务中的潜力。可解释性增强:KAN层的引入提高了模型的可解释性,能够更准确地激活与目标区域相关的特征,提升模型的决策透明度。性能提升:在医学图像分割任务中,U-KAN在多个数据集上取得了最高的IoU和F1分数,平均性能优于现有方法。

2025-03-14 14:16:10 977 1

原创 荣登Nature!KAN + Transformer融合新成果再突破

AI科研灵感致力于成为您在人工智能领域的领航者,定期更新人工智能领域的重大新闻与最新动态,和您一起探索AI的无限可能。

2025-03-13 16:22:03 704

原创 拿下CVPR25!KAN+时间序列再封神!

性能提升:在大多数情况下,RMoK模型的性能优于现有的Transformer、CNN和MLP基线模型,例如在ETTh1数据集上,RMoK的平均MSE为0.414,而其他基线模型的MSE分别为0.457(Transformer)、0.440(CNN)和0.414(MLP)。性能提升:带注意力机制的LSTM-GRU混合RNN模型在所有误差指标上表现最佳,例如在SPX数据集上,其MSE为0.000021,显著低于其他模型(如MLP的MSE为0.000056,XGBoost的MSE为0.000025)。

2025-03-12 14:23:12 832

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除