- 博客(190)
- 资源 (13)
- 收藏
- 关注
原创 什么是知识蒸馏?如何做模型蒸馏?结合案例说明
知识蒸馏是一种模型压缩技术,通过将大型教师模型的知识迁移到小型学生模型中,使其保持高性能的同时降低计算成本。
2025-05-30 10:36:14
898
原创 One-shot和Zero-shot的区别以及使用场景
在机器学习和自然语言处理中,**Zero-Shot** 和 **One-Shot** 是两种不同的模型推理范式,它们的核心区别在于 **是否依赖任务相关示例(示例数量)**。
2025-05-22 23:56:21
831
原创 MCP和 AI agent 有什么区别和联系
MCP是一种开源通信协议,旨在为大型语言模型(LLM)与外部数据源、工具或服务之间建立**标准化、安全且灵活的双向连接**。它类似于“AI 的 USB-C 接口”,通过统一的协议规范,简化了 LLM 与数据库、API、文件系统、硬件设备等资源的集成。
2025-05-21 23:21:43
599
原创 金融问答系统:如何用大语言模型打造高精度合规的金融知识引擎
本文探讨了如何开发一款基于大语言模型(LLM)的金融问答系统,以确保其输出的准确性和可信度。系统面临的主要挑战包括处理高频更新的基金交易数据和大量非结构化的金融文档,以及减少模型“幻觉”现象。
2025-05-16 23:00:17
1109
1
原创 Dify 快速构建和部署基于LLM的应用程序
如果你是第一次接触Dify,可以先创建一个简单的聊天助手,初步感觉一下,Dify在构建聊天问答类应用的过程。比如下面这个聊天助手,是基于知识库的,直接编辑一段提示词,然后在选择一个你自己的PDF 或者 word 文档,就可以实现一个简单的基于知识库的聊天助手。提示词不会写,影响不大,你写一点,可以使用自动生成提示词这个功能,帮你自动完善提示词。
2025-05-05 23:19:47
934
原创 从召回、粗排到精排:揭秘推荐系统如何精准匹配用户需求
在推荐系统或搜索系统中,“**粗排**”和“**精排**”是排序(Ranking)流程中的两个关键阶段,主要用于从海量候选集中筛选出最符合用户需求的条目。两者的核心区别在于**计算效率与精度的权衡**。
2025-03-29 21:15:12
897
原创 大模型全量微调和LoRA微调的区别与选择
模型微调(Fine-tuning)是指在已有预训练模型的基础上,针对特定任务或数据集进行进一步训练的过程。通过微调,可以在相对较小的数据集上取得较好的性能表现,同时减少从头开始训练模型所需的时间和计算资源。
2025-03-27 23:45:52
958
原创 自然语言处理NLP-文本预处理
在自然语言处理(NLP)中,文本预处理是构建高效模型的关键步骤。原始文本通常包含噪声和不一致性,直接影响模型性能。通过预处理,可以提取结构化信息、减少计算复杂度,并提升模型对语义的理解能力。
2025-03-26 22:53:34
1102
1
原创 大语言模型应用提示工程Prompt Engineering
提示工程(Prompt Engineering)是指通过精心设计和优化输入提示(prompt),以引导人工智能模型(如大型语言模型)生成更符合预期的输出。
2025-03-23 20:54:53
818
原创 机器学习怎么做特征工程
**特征工程** 就像厨师做菜前的食材处理:原始数据是“生肉和蔬菜”,特征工程是“切块、腌制、调料搭配”,目的是让机器学习模型(食客)更容易消化吸收,做出更好预测(品尝美味)。
2025-03-22 11:37:41
914
原创 有了大模型为何还需要Agent智能体
Agent(智能体)是一种能**感知环境、自主决策、执行动作**的智能实体,当它与大语言模型(如通义千问QWen、GPT)结合时,形成一种**“增强型AI系统”**
2025-03-17 23:05:32
885
原创 文本数据处理——最佳文本切分策略
在自然语言处理(NLP)中,数据切分(Chunking)是处理长文本的关键步骤,直接影响模型性能(如检索增强生成RAG、文本嵌入、机器阅读理解)。
2025-03-16 23:31:44
1839
原创 RAG的工作原理以及案例列举
**RAG** 是一种结合 **信息检索(Retrieval)** 和 **文本生成(Generation)** 的技术。其核心思想是:在生成答案前,先从外部知识库中检索相关数据作为上下文,再基于这些信息生成更准确、更可靠的回答。 简单来说,RAG让AI像“查阅资料后再回答问题”的人类专家一样工作。
2025-03-16 22:37:07
790
原创 向量数据库对比以及Chroma操作
向量数据库- **设计理念**:专门设计用于存储和查询高维向量数据,支持基于相似度的搜索,例如通过余弦相似度、欧氏距离等方式来查找最接近的向量。- **应用场景**:主要用于机器学习模型输出的向量表示的高效检索,如图像识别、推荐系统、自然语言处理中的文本相似性搜索等。
2025-03-15 23:18:00
1373
原创 深度学习模型Transformer 手写核心架构二(附代码)
实现 Transformer模型 的核心架构,包含编码器(Encoder)、解码器(Decoder)、多头注意力(MultiHeadedAttention)、位置编码(PositionalEncoding)等关键组件,支持动态掩码生成和序列到序列(Seq2Seq)任务。
2025-03-12 23:35:19
1077
原创 深度学习模型Transformer 手写核心架构一(附代码)
实现 **Transformer模型** 的核心架构,包含编码器(Encoder)、解码器(Decoder)、多头注意力(MultiHeadedAttention)、位置编码(PositionalEncoding)等关键组件,支持动态掩码生成和序列到序列(Seq2Seq)任务。
2025-03-12 23:31:29
905
原创 深度学习模型Transformer核心组件—前馈网络FFN
在Transformer模型中,前馈网络(Feed-Forward Network,FFN)是一个关键组件,其作用是对每个位置的表示进行非线性变换,增强模型的表达能力。
2025-03-09 23:13:38
863
原创 深度学习模型Transformer核心组件—位置编码
在Transformer模型中,位置编码的作用是为序列中的每个位置提供独特的位置信息,以弥补自注意力机制本身不具备的位置感知能力。
2025-03-09 21:27:00
502
原创 深度学习模型Transformer核心组件—残差连接与层归一化
在Transformer模型中,残差连接(Residual Connection)和层归一化(Layer Normalization)是两个关键设计,用于提升模型的训练稳定性和性能。
2025-03-09 00:21:14
1029
原创 理解梯度下降、链式法则、梯度消失/爆炸
求导是微积分中的一个基本操作,用于计算函数在某一点上的瞬时变化率。这里列出一些常见的求导公式和规则,这些对于理解链式法则以及深度学习中的梯度计算非常重要。
2025-03-08 23:49:10
487
原创 深度学习模型Transformer核心组件—自注意力机制
自注意力机制(Self-Attention),也称为内部注意力机制(Intra-Attention),是Transformer模型的核心组成部分。它允许模型在处理序列数据时,能够考虑到序列中不同位置之间的关系,从而有效地捕捉长距离依赖。
2025-03-08 00:15:29
447
原创 深度学习模型Transformer初步认识整体架构
Transformer 是 Google 在 2017 年提出的 **基于自注意力机制(Self-Attention)** 的深度学习模型,彻底摒弃了传统的循环神经网络(RNN)和卷积神经网络(CNN),成为自然语言处理(NLP)领域的革命性架构。其核心思想是通过 **全局依赖建模** 和 **并行计算** 高效处理序列数据,广泛应用于机器翻译、文本生成、语音识别等任务。
2025-03-06 23:38:35
1113
原创 深度学习架构Seq2Seq-添加并理解注意力机制(二)
使用 **“我喜欢吃鱼”** 翻译为 **“I like eating fish”** 的简单例子,逐步推演 注意力机制 的实现步骤
2025-03-04 11:13:31
806
原创 深度学习架构Seq2Seq-添加并理解注意力机制(一)
本文主要是分析Seq2Seq 架构本身具有的缺点,并分析针对长序列输入时,导致信息丢失这一问题,造成这个问题的原因,以及针对这一问题,通过引入注意力机制,如何来解决这一问题。
2025-03-03 23:46:07
1318
原创 理解Seq2Seq的工作机制与应用场景中英互译(附代码)
Seq2Seq(Sequence-to-Sequence)模型是一种用于处理序列到序列转换任务的深度学习框架,特别适用于输入和输出均为变长序列的任务,如机器翻译、文本摘要、问答系统等。Seq2Seq模型通常由两个主要组件组成:编码器(Encoder)和解码器(Decoder),它们通常是基于循环神经网络(RNN)及其变体(如LSTM或GRU)构建的。
2025-03-02 17:03:58
537
原创 循环神经网络RNN、LSTM以及GRU 对比(附代码)
使用实际案例:生成酒店评论,对比 RNN、LSTM 以及 GRU,在生成效果、训练时长等方面
2025-02-28 23:15:28
1251
原创 循环神经网络RNN:理解 RNN的工作机制与应用场景(附代码)
循环神经网络是一种专门用于处理序列数据的神经网络。RNN能够利用数据中的时间顺序信息,因此在处理如文本、语音等序列数据时表现尤为出色。
2025-02-28 14:00:39
1289
原创 自然语言处理(NLP):文本向量化从文字到数字的原理
由于AI算法不能直接处理汉字或其他字符,因此必须通过特定的方法将这些字符转换为数字表示。这一过程通常涉及到两个主要步骤:**文本向量化**和**词向量生成**。
2025-02-25 00:13:00
1251
原创 人工智能之不同数据类型及其特点梳理
在机器学习和深度学习领域,理解不同类型的数据及其特点对于选择合适的模型至关重要。下面介绍三种主要的数据类型——表格类数据、图像/视频类数据和时序类数据,并探讨它们的特点以及适用的算法和技术。通过具体的案例代码,更直观地体验每一个概念。
2025-02-24 20:23:48
734
原创 计算机视觉:YOLOv11遥感图像目标检测(附代码)
计算机视觉领域,遥感图像中的目标检测,识别和定位不同类型的飞机是一个典型的应用场景。本文利用最新的YOLOv11模型来解决这一挑战,通过构建一个高效的飞机检测模型,实现对遥感图像中各类飞机的精准识别。
2025-02-24 00:12:07
1320
原创 计算机视觉:经典数据格式(VOC、YOLO、COCO)解析与转换(附代码)
在计算机视觉(CV)领域,无论是进行目标检测、图像分类还是其他任务,理解如何处理不同格式的数据集以及掌握训练过程中涉及的关键指标至关重要。本文将探讨三种经典的数据格式(VOC、YOLO、COCO)
2025-02-23 21:21:59
1315
1
原创 计算机视觉:主流数据集整理
在计算机视觉(CV)领域,数据集的质量和多样性对于推动算法创新和技术进步至关重要。本文整理当前最流行且最具影响力的数据集,涵盖目标检测、图像分类、语义分割、姿态估计等多个关键方向。
2025-02-22 22:46:04
1442
原创 探索YOLO技术:目标检测的高效解决方案
YOLO是一种用于计算机视觉任务的对象检测系统,它由Joseph Redmon等人于2015年提出,于2016年发布YOLOv1,并在随后的几年中经历了多次迭代和改进,目前最新的版本是2024年9月发布的YOLO11。YOLO的目标是实现实时对象检测,同时保持较高的准确率。
2025-02-22 20:43:01
1832
原创 MTCNN 人脸检测技术揭秘:原理、实现与实战(附代码)
MTCNN即多任务级联卷积神经网络,是一种用于人脸检测和对齐的深度学习方法。在2016年提出,旨在同时进行人脸检测和面部特征点定位(如眼睛、鼻子、嘴巴的位置)。该方法通过一个多阶段的级联卷积神经网络架构来实现高效且准确的人脸检测。
2025-02-20 23:30:06
1125
原创 计算机视觉:目标检测从简单到容易(附代码)
在计算机视觉领域,目标检测是一项核心任务,它旨在从图像或视频中同时检测出多个目标物体,并确定它们的类别和位置。
2025-02-20 00:06:28
1133
原创 计算机视觉:神经网络实战之手势识别(附代码)
手势识别作为计算机视觉领域的一个重要应用,通过分析图像或视频序列来识别特定的手势动作。下面以0-9手势数字识别为案例,从数据加载、预处理到模型训练的手势识别全流程,基于PyTorch框架构建经典卷积神经网络。
2025-02-18 20:58:04
1448
原创 搭建一个经典的LeNet5神经网络(附代码)
LeNet-5最初用于MNIST数据集的手写数字识别任务,取得了高达99.2%的准确率。这一成就标志着深度学习在图像识别领域的突破,并为后续的神经网络研究奠定了基础。
2025-02-17 00:10:51
971
原创 计算机视觉:卷积神经网络(CNN)基本概念(二)
卷积神经网络(Convolutional Neural Network, CNN)是一种专门设计用于处理图像数据的深度学习模型,是计算机视觉领域的核心技术,从人脸识别到自动驾驶,它的应用无处不在。它在图像识别、分类、目标检测等领域表现出色,通过一系列组件如卷积层、池化层和全连接层等,能够自动从图像中学习有用的特征,而无需手动设计。它是如何从图像中“看见”并理解世界的?本文将解析CNN的核心组件、特征抽取原理,并通过代码展示其强大能力。
2025-02-15 23:34:55
1114
2
机器学习案例:幸福感预测数据集
2025-02-12
机器学习算法大比拼Python版本
2025-02-10
kmip4j介绍
2014-05-10
apache-tomcat-7.0.6
2014-05-05
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人