- 博客(41)
- 资源 (1)
- 收藏
- 关注
原创 【论文阅读28】-ChatCNC:通过大型语言模型和实时数据检索增强生成进行对话式机器监控
摘要: 本研究提出ChatCNC框架,通过集成大语言模型(LLM)与实时数据检索增强生成(RAG)技术,实现操作员与CNC机床的自然语言交互。系统采用多智能体协作(问题识别、数据检索、响应生成),将用户查询动态转化为SQL语句,从MySQL数据库获取实时传感器数据(如主轴负载、转速),并生成专业回复。实验表明,GPT-4在复杂任务中准确率达93.3%,响应时间仅20秒,显著提升非技术工人的数据利用率。该研究为工业5.0提供了人机协同新范式,未来可扩展多模态与闭环验证功能。
2025-12-29 15:28:21
781
原创 【论文阅读27】-LMPHM:基于因果网络和大语言模型-增强知识图网络的故障推理诊断
本文提出LMPHM框架,通过整合因果网络(CN)、大语言模型(LLM)和知识图谱网络(KGN)来解决机械故障诊断中的关键问题。该方法利用改进PC算法构建因果网络,结合LLM增强知识图谱语义表示,并采用注意力机制进行特征融合。实验证明,在CWRU轴承数据集上,该模型的根因定位准确率达81.12%,显著优于传统方法。研究创新性地将数据驱动与知识引导相结合,既提高了诊断精度,又增强了结果的可解释性,为工业设备智能维护提供了新思路。
2025-12-26 10:11:10
649
原创 【论文阅读24】-利用大型语言模型进行免训练的视频异常检测
窗口采样:在目标帧前后定义一个时长为 T(如10秒)的时间窗口,并均匀采样N个帧的描述组成序列。LLM 总结:将这些描述输入给大语言模型(如Llama-2),并使用提示词(Prompt)引导其生成一段时序摘要。意义:这一步将原本孤立的静态帧描述转化为包含“动作演变”和“场景动态”的文本,这是识别视频异常的关键。
2025-12-16 10:14:03
859
原创 MLLM模态对齐
本文探讨了多模态对齐的核心问题与方法。针对视觉数据(连续高维矩阵)与文本数据(离散序列)的"火星文-地球语"差异,提出通过架构组件和训练策略实现特征空间映射。架构维度包括线性投影层、Q-Former等接口解决物理连接;策略维度采用对比学习或生成式微调实现语义理解。分类层面区分了显式/隐式对齐(强制绑定vs注意力关联)以及特征级/语义级对齐(维度转换vs概念绑定)。特征对齐依赖模态接口解决形式匹配,语义对齐则需训练策略建立深层概念关联,二者协同实现模型对跨模态数据的统一理解。
2025-12-10 11:51:07
485
原创 【论文阅读21】-基于大语言模型与领域知识图谱集成的CNC智能故障诊断
摘要:本研究提出了一种融合大语言模型(LLM)与知识图谱(KG)的智能数控机床(CNC)故障诊断系统。针对传统专家系统知识组织效率低、适应性差等问题,构建了包含设备、报警、现象等7类实体的多源知识图谱(1549个实体),整合PLC代码、维修工单和传感器数据。通过子图检索增强生成(KG-RAG)机制约束LLM推理,结合"人在回路"动态学习实现知识更新。实验表明,该系统诊断准确率达83.29%,显著优于传统方法和初级工程师,验证了量化模型(Qwen2.5-7b)在工业场景的可行性。研究为多模
2025-12-09 19:36:03
1020
原创 RAG(Retriever-Augmented Generation)检索增强生成
摘要:检索增强生成(RAG)系统通过结合检索与生成技术解决大模型幻觉、知识时效性和可追溯性问题。其核心流程包括离线数据准备(加载、切分、嵌入、索引构建)和在线检索生成(问题编码、语义检索、提示构建、回答生成)。相比微调,RAG具有知识更新快、成本低等优势。进阶技术包括混合检索、重排序等。开发难点在于数据清洗和权限管理,尤其是处理多样的半结构化数据时仍需人工审核。
2025-12-05 11:20:03
802
原创 什么是LangChain
LangChain是一个开源LLM编程框架,提供构建AI应用的全套组件和标准化流程。其核心功能包括RAG(检索增强生成)、多步骤任务链(Chains)、智能工具调用(Agents)和对话记忆(Memory)。与专注于Prompt优化的DSPy不同,LangChain更侧重系统集成,能连接数据库、搜索引擎等外部工具,功能全面但相对复杂。两者定位差异明显:DSPy解决"模型想得对"的问题,LangChain解决"模型做得多"的问题,前者轻量灵活,后者功能完备但学习成本较高
2025-12-05 08:17:11
275
原创 从Prompt Engineering到DSPy
DSPy是一种创新的AI编程框架,旨在通过代码而非手动调整提示词来构建大模型应用。其核心特点包括:1)使用Signature定义任务结构而非具体指令;2)通过Module(如ChainOfThought)自动处理推理逻辑;3)利用Teleprompter自动优化提示。与传统提示工程相比,DSPy实现了三个范式转移:类定义取代自然语言指令、内置思维链机制、自动编译优化。目前DSPy在学术界应用较少,主要由于发布时间较新、研究目标差异(机理探究vs工程落地)、可解释性挑战以及优化成本较高等原因。该框架更适合实际
2025-12-04 11:44:21
959
原创 什么是幻觉
大语言模型(LLM)的"幻觉"问题是指模型生成看似合理但实际错误的内容,可分为狭义幻觉(违背事实)和广义幻觉(违背事实或上下文)。产生原因包括概率生成机制、数据污染和模糊的知识边界。解决方法分为推理阶段(如RAG检索增强、思维链提示)和训练阶段(如数据清洗、强化学习)。目前最有效的缓解方案是结合外部知识库检索(RAG)、分步推理(CoT)和降低生成随机性。该问题仍是LLM应用落地的核心挑战之一。
2025-12-02 20:15:20
874
原创 AI领域名词积累
文章摘要:Demo指产品原型或示例版本,用于展示核心功能和验证可行性,并非最终商用产品。Case指AI模型对特定指令生成的具体回答,案例分析则是对错误、混乱或不符合要求的回答进行人工检查。这两个概念分别涉及产品开发初期的功能验证和AI模型输出的质量评估环节。
2025-12-02 19:51:51
135
原创 【论文阅读20】MM-LLMs:多模态大语言模型的最新进展
【摘要】《MM-LLMs:多模态大语言模型最新进展》综述了多模态大语言模型(MM-LLMs)的技术发展。论文提出通用五组件架构:模态编码器、输入投影器、LLM骨干、输出投影器和模态生成器,并详细分析了126个SOTA模型的演进趋势。研究揭示了从单一理解到任意模态转换的发展路径,总结了提升性能的关键因素,如高分辨率输入、高质量微调数据等。最后探讨了未来研究方向,包括扩展更多模态、轻量化部署和减少幻觉等。该研究为理解多模态大模型技术发展提供了系统性参考。
2025-12-02 19:12:43
1697
原创 LLM相关学习资料链接汇总
字节跳动技术资源合集:包含大模型微调、推荐算法、RAG实践、Agent开发、SQL使用等手册,以及计算机基础资料和Git零基础教程。所有资源均提供夸克网盘和QQ文档链接,方便开发者快速获取。涵盖AI、数据库、版本控制等多个技术领域,适合不同层次的学习需求。
2025-11-29 10:31:02
435
原创 CLIP(Contrastive Language-Image Pre-training)
CLIP是一种基于对比学习的多模态模型,通过4亿对图文数据训练,实现文本与图像在共享语义空间中的对齐。其双塔结构包含图像编码器(ResNet/ViT)和文本编码器(Transformer),核心优势在于强大的zero-shot能力,可直接应用于新任务而无需微调。CLIP突破了传统视觉模型的封闭集限制,支持开放词汇理解,但存在属性绑定错误、空间关系感知弱、细粒度任务表现差等缺陷。尽管无法生成内容且训练成本高,CLIP仍是多模态领域的重要突破,为大模型提供了优质的视觉特征提取方案。
2025-11-26 21:40:28
443
原创 Transformer三个核心层
摘要:Transformer模型由多头注意力层(MHA)、加和与层归一化(Add&LayerNorm)、前馈神经网络(FFN)三部分组成。MHA通过多头机制计算词间关联度,实现上下文理解;Add保留原始信息防止梯度消失,LayerNorm稳定数据分布;FFN独立强化每个词向量。三者协同工作:MHA处理全局关系→Add+LayerNorm稳定结果→FFN局部优化→再次Add+LayerNorm输出。这种结构实现了信息的深度交互与特征提取,为深度学习提供了强大框架。(149字)
2025-11-26 08:34:06
918
原创 深度解析大语言模型LLM原理
两篇文章系统介绍了大语言模型(LLM)的原理与应用。第一篇3万字长文从技术层面深入解析LLM的核心原理,包括Transformer架构、预训练方法等关键技术。第二篇文章以入门指南形式,重点讲解了LLM的基础知识到进阶内容(前五章),涵盖模型架构、训练流程等核心概念。两文互为补充,既提供了专业深度解析,又包含适合初学者的系统介绍,是理解大语言模型的重要参考资料。
2025-11-25 20:43:00
198
原创 ICL(In-Context Learning)上下文学习
摘要: 大型语言模型(LLM)的上下文学习(ICL)能力使其在推理阶段无需参数更新即可通过输入示例动态调整行为。研究表明,ICL可能通过自注意力层和MLP层的协同作用,将上下文信息隐式转化为低秩权重更新(ΔW),等效于一次临时“微调”。实验验证了该机制与梯度下降的相似性,提示设计可优化ΔW的生成。ICL展现了模型通过对话覆盖先验知识的能力,但其机制在复杂任务中的扩展仍需探索。这一特性为模型智能的“涌现”提供了理论基础。
2025-11-25 17:12:50
586
原创 大模型理解语言的三部曲:Tokenization、Token和Embedding
摘要:Token是机器学习中处理文本的基本单位,指通过分词(Tokenization)将长文本切分成的独立单元,每个Token被赋予唯一数字ID。这些ID作为索引,通过嵌入(Embedding)过程转化为富含语义的高维向量,向量间的数学关系反映词语的语义关联。整个过程类似于将文本拆解为"积木块"(Token),再根据编号(ID)查询其"三维设计图"(语义向量),最终模型会加入位置编码以保留序列信息。Token本身不含语义,其意义完全来源于模型训练学习到的向量表示。
2025-11-23 17:17:46
272
原创 GPT:生成式预训练变形金刚
GPT是"生成式预训练变形金刚"的缩写,三个字母分别代表:Generative(生成式)指模型能自动生成内容;Pre-trained(预训练)表示模型经过大量数据训练;Transformer(变形金刚/转换器)是Google团队命名的核心技术架构。这个名称既体现了模型的功能特点,又暗含了技术来源,生动形象地概括了这类AI的核心特征。
2025-11-23 16:19:14
305
原创 【机器学习】监督学习、无监督学习、半监督学习、自监督学习、弱监督学习、强化学习
机器学习主要包含六种学习范式:监督学习依赖标注数据进行分类和回归;无监督学习通过聚类和降维挖掘未标注数据的隐藏模式;半监督学习结合少量标注和大量未标注数据提升泛化能力;自监督学习通过构造伪标签实现无监督预训练;弱监督学习利用不精确标签完成精细任务;强化学习通过环境交互学习最优策略。这些方法各有特点,当前主流趋势是采用自监督预训练+监督微调+强化学习对齐的组合范式,但也面临数据依赖、评估困难、能耗高等挑战。
2025-11-23 11:56:50
817
原创 大模型:微调和提示工程
本文系统梳理了大模型训练的三个阶段(预训练、微调、推理应用),重点对比了提示工程与微调技术的区别。提示工程通过优化输入文本引导模型输出,不改变参数;微调则通过调整模型参数适配特定任务。文章详细介绍了7种微调方法:按参数规模分为全量微调与参数高效微调(LoRA、Adapter等);按训练目标分为有监督微调、RLHF和DPO;按场景分为指令微调、领域微调和对齐微调。同时阐述了提示词工程的定义、分类(硬提示/软提示)及其与提示微调的本质差异。最后给出了不同资源条件下的微调方案组合建议。
2025-11-21 18:08:39
949
原创 【论文阅读19】-用于PHM的大型语言模型:优化技术与应用综述
一种基于海量文本数据训练的、拥有数十亿甚至更多参数的深度学习模型,能够理解、生成和处理自然语言。
2025-11-21 10:02:19
912
原创 【论文阅读18】-BearingFM:基于领域知识和对比学习的轴承故障诊断基础模型
题目:BearingFM: Towards a foundation model for bearing fault diagnosis by domain knowledge and contrastive learning期刊:International Journal of Production Economics检索情况:作者:单位:发表年份:DOI:设备预测性维护对保障精密制造(如半导体)供应链至关重要。轴承作为核心部件,其故障诊断是重中之重,面临以下痛点:。
2025-11-18 17:28:09
875
1
原创 【论文阅读17】-结合大模型与小模型的类脑认知驱动模型工厂在工业物联网故障诊断中的应用
用户向LLM提出问题后,LLM采用类脑思维链提示工程方法进行初步诊断首先提取出问题的关键词;然后LLM在知识库中根据关键词进行检索,找到相关知识,并生成提示;LLM根据提示完成初步诊断;初步诊断后,通过生成式纵向联邦学习进行精确诊断首先根据初步诊断的结果,通过动态节点激活机制,选择适合的节点激活,然后超网络根据激活的节点信息和初步诊断生成解决这次问题的专属小模型,由小模型得出精确的诊断结果,最后再将精确的诊断结果反馈给用户。
2025-11-14 17:56:06
893
原创 【论文阅读16】-LLM-TSFD:一种基于大型语言模型的工业时间序列人机回路故障诊断方法
实验四:通过对比使用本文提示词(LLM-TSFD)和不使用提示词(no-prompt)在多个LLM上的表现,使用BLEU-4、ROUGE-1等指标评估,证实了本文设计的提示词结构能显著提升LLM生成答案的质量。若匹配度低,则进行联网搜索,并将搜索到的新知识补充到本地知识库中,再生成答案,从而具备解决新问题的能力。的新范式(FD 2.0),以降低对人工标注数据的依赖,提升诊断过程的自动化和结果的可解释性。 通过角色设定和领域知识注入,将LLM“框定”在专业领域内,确保其输出专业、可靠的结果。
2025-11-12 15:49:55
1097
原创 【论文阅读15】-DiagLLM:基于大型语言模型的多模态推理,用于可解释的轴承故障诊断
准确可靠的轴承故障诊断对于确保机械设备的安全运行至关重要。以往的数据驱动方法在训练先进的深度学习模型时面临挑战,这主要是由于故障数据的稀缺以及数据分布的不一致性。此外,这些方法通常受到有限的可解释性和可靠性的影响,因为它们缺乏基于轴承失效潜在物理机制的约束引导学习,这阻碍了它们在机器状态监测中的应用。大型语言模型(LLM)的最新进展表明,它们有潜力应对这些挑战。为此,我们的目标是利用多模态LLM的能力来提高轴承故障诊断的泛化性和可解释性。具体而言,我们设计了一种名为DiagLLM的新型框架来实现这一目标。
2025-11-11 19:08:15
1154
原创 【论文阅读14】-推进多模态诊断:将工业文本数据与领域知识和大语言模型相结合
本文提出了一种创新方法,将大型语言模型(LLM)与工业领域知识相结合,用于多模态故障诊断。研究团队通过三阶段框架:1)使用工业文本微调LLM成为领域专家;2)将检查笔记转化为语义向量;3)采用注意力机制加权融合文本和传感器数据,显著提升了水力发电机退化水平预测的准确性(MAE降至4.2)。该方法突破了传统自然语言处理技术难以处理工业专业术语的局限,首次有效利用了长期被忽视的非结构化维修文本数据。研究发表在《Expert Systems with Applications》(SCI一区,IF7.5),为工业预
2025-11-06 15:44:31
723
原创 10.27-11.02周记
相同点:两篇文章均聚焦于工业设备健康管理(PHM) 领域,分别针对轴承故障诊断(文档11)和航空发动机剩余寿命预测(RUL)(文档12)展开研究,均强调在实际工业场景中面临的数据稀缺、跨工况/跨设备泛化能力不足等挑战。不同点:文档11 强调轴承故障诊断中的三大挑战:跨工况适应性、小样本学习、跨数据集泛化。文档12 专注于剩余寿命预测问题,重点解决传感器信号中退化信息难以捕捉、预测精度低的问题。两篇文章共同展示了大语言模型在工业PHM领域的强大适应性。
2025-11-02 22:45:36
463
原创 【论文阅读12】-基于GPT的设备剩余使用寿命预测
本文提出了一种基于GPT-2模型的设备剩余使用寿命(RUL)预测方法。针对传统深度学习方法在提取传感器退化信息方面的不足,研究创新性地将时间序列数据视为"语言",利用GPT-2强大的序列建模能力进行跨模态知识迁移。通过分块处理、数据嵌入和位置编码等预处理步骤,结合冻结大部分参数的微调策略,在NASA的N-CMAPSS航空发动机数据集上取得了优异表现(RMSE指标在多个子集排名第一,R²值普遍超过0.9)。研究表明,预训练语言模型可有效迁移至工业设备健康管理领域,为预测性维护提供了新思路。
2025-10-30 20:31:37
793
原创 【论文阅读11】-基于大型语言模型的轴承故障诊断框架
作者:Laifa Tao a,b,c,d, Haifei Liu b,c,d, Guoao Ning b,c,d, Wenyan Cao b,c,d, Bohao Huang b,c,d, Chen Lu。这不是简单的数值输入,而是将特征构建成LLM能理解的“指令-回答”对。如下图所示,通过自然语言描述将数值“包装”起来,形成一段富含语义的文本输入,相当于为LLM准备了一份结构清晰的“故障诊断手册”。: 将提取出的特征数值与它们的文字描述相结合,转换成LLM能够理解的“语言”或“指令”格式。
2025-10-28 19:12:26
579
原创 10.19-10.26周记(含论文09和10对比总结)
尽管两篇论文在具体方法上存在演进和差异,但它们共享以下核心相同点,这体现了该团队一以贯之的研究范式:共同的核心目标两篇论文的最终目标高度一致:为汽车零部件加工设备开发科学、优化的预测性维护策略模型,以提升设备可靠性、降低维护成本。共同的方法论基石:多准则决策分析(MCDA)MCDA 是两篇论文共同的核心方法论框架。研究团队均认为,维护决策不是一个单点问题,而必须综合权衡多个相互冲突的准则。文档1的整个模型架构基于MCDA,直接输出维护等级和时间。文档2将设备重要性和危害性。
2025-10-27 11:21:41
724
原创 【论文阅读10】-基于多准则决策分析的汽车零部件加工设备维修策略预测模型研究
设备维护间隔(T_interval)、当前日期(T_current)、服务日期(T_service)、上次维护日期(T_last)、修正后的特征寿命(T_lifespan)。专家可以用基本概率分配(BPA)的形式表达他们评分时的不确定性,然后对每位专家的BPA进行否定计算,以实现从信息的另一面挖掘知识。 模型推荐的“临时维修”关联度最高(如原文表20),且在不同分辨系数下结果稳定(如原文图5),证明。 维护需求等级(RRL)、受影响生产线数量(S)、总nRPN值(W)。
2025-10-26 17:27:56
750
原创 【论文阅读09】-基于多准则决策和综合威布尔分布的汽车制造设备预防性维护建模方法
题目:Method for Modeling Automotive Manufacturing Equipment Preventive Maintenance Derived by MultiCriteria Decision and Synthesized Weibull Distribution期刊:SAE MOBILUS检索情况:作者:Zexin Ma单位:SDU发表年份:2024。
2025-10-24 17:33:54
675
原创 10.12-10.19周记
三篇文献分别代表了LLM在故障诊断中的三种技术路径:解释增强型(文档1)、模态扩展型(文档2)和直接适应型(文档3)。它们共同体现了LLM在理解复杂系统、处理异构数据和小样本学习方面的潜力,但也都面临可解释性、领域适配和计算效率的平衡问题。未来研究需进一步融合物理机理与数据驱动优势,构建兼具准确性、鲁棒性和透明性的新一代智能诊断系统。下周继续读三篇英文文献,复习Transformer,背单词。欢迎大家监督我的学习呀!我是新手小白,跟我一起进步吧。
2025-10-19 21:41:30
751
原创 【论文阅读08】-大语言模型微调在复杂系统故障诊断中的实证研究
:本研究证明了微调预训练LLMs进行故障诊断是一种可行且富有前景的新范式。它能够融合语义理解,并展现出小样本学习、强鲁棒性等独特优势。
2025-10-19 20:42:06
1045
原创 【论文阅读07】-大语言模型在复杂设备故障诊断的应用
大模型故障诊断微调:冻结数据编码器和LLM主干网络,仅使用LoRA等技术微调少量参数,使LLM学会根据对齐后的数据嵌入进行故障诊断推理。数据-文本模态对齐: 训练一个数据编码器,使其能够将工程数据编码成与LLM文本特征空间对齐的嵌入向量,让LLM能“读懂”传感器信号。: 由两个网络组成,一个“伪造者”网络生成假数据,一个“鉴别者”网络鉴别真伪,两者相互博弈,最终使“伪造者”能生成非常逼真的数据。发表年份:2025年。最终输出: h= 原始输出 (Wx) + 适配器输出 (BAx)。
2025-10-19 10:53:59
1063
原创 【论文阅读06】-大语言模型在复杂系统中的可解释故障诊断集成
:一种利用深度学习技术,在海量文本数据上训练而成的,能够理解、生成和处理自然语言的机器学习模型。。
2025-10-18 21:52:17
807
原创 【论文阅读05】-基于知识图谱与大语言模型的航空装配故障诊断联合方法
本文提出了一种融合知识图谱(KG)与大语言模型(LLM)的联合知识增强框架,用于航空装配领域的智能故障诊断。该框架采用两阶段设计:首先通过前缀调优技术将KG子图嵌入LLM,使模型掌握专业知识;然后在推理时通过子图生成-检索机制动态获取相关知识。实验结果表明,该方法在自建航空装配故障数据集(AA550)上达到98.5%的准确率,响应时间小于1.1秒,诊断效率较人工提升15倍。研究为解决复杂工业场景下的智能故障诊断问题提供了创新方案,兼具专业性和实用性。未来可扩展至更多工业领域并支持多模态输入。
2025-10-12 22:32:09
1145
【论文阅读17】-LLM-TSFD:一种基于大型语言模型的工业时间序列人机回路故障诊断方法
2025-11-14
【论文阅读16】-LLM-TSFD:一种基于大型语言模型的工业时间序列人机回路故障诊断方法
2025-11-12
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅