
人工智能
文章平均质量分 94
深度学习机器学习
这个作者很懒,什么都没留下…
展开
-
入门篇:PyTorch 循环神经网络(RNN)
循环神经网络(Recurrent Neural Networks, RNN)是一类神经网络架构,专门用于处理序列数据,能够捕捉时间序列或有序数据的动态信息,能够处理序列数据,如文本、时间序列或音频。RNN 在自然语言处理(NLP)、语音识别、时间序列预测等任务中有着广泛的应用。RNN 的关键特性是其能够保持隐状态(hidden state),使得网络能够记住先前时间步的信息,这对于处理序列数据至关重要。原创 2025-05-22 11:57:42 · 665 阅读 · 0 评论 -
第二期:Python 量化数据可视化
Python 量化数据可视化可以使用 Matplotlib 和 Seaborn 库。安装 Matplotlib 和 Seaborn 可以在终端或命令提示符中运行:Matplotlib 详细内容可以参考:本章节主要为大家介绍 Seaborn 库的使用。原创 2025-05-22 11:52:20 · 518 阅读 · 0 评论 -
一文搞定:Python 获取金融数据
本章节我们先看一个 Python 量化简单的应用实例,可以使用移动平均策略,使用雅虎金融数据来实现。该策略的基本思想是通过比较短期和长期移动平均线来生成买入和卖出信号。原创 2025-05-22 11:43:34 · 985 阅读 · 0 评论 -
pytorch实战:CNN卷积神经网络
使用 nn.Module 构建一个 CNN。使用交叉熵损失和随机梯度下降优化器。原创 2025-05-21 17:32:38 · 673 阅读 · 0 评论 -
一文稿定:PyTorch 构建 Transformer 模型
多头注意力通过多个"注意力头"计算序列中每对位置之间的关系,能够捕捉输入序列的不同特征和模式。MultiHeadAttention 类封装了 Transformer 模型中常用的多头注意力机制,负责将输入拆分成多个注意力头,对每个注意力头施加注意力,然后将结果组合起来,这样模型就可以在不同尺度上捕捉输入数据中的各种关系,提高模型的表达能力。说明:多头注意力机制:将输入分割成多个头,每个头独立计算注意力,最后将结果合并。原创 2025-05-21 17:13:13 · 891 阅读 · 0 评论 -
一次性讲清楚Transformer 模型
Transformer 模型是一种基于注意力机制的深度学习模型,最初由 Vaswani 等人在 2017 年的论文《Attention is All You Need》中提出。Transformer 彻底改变了自然语言处理(NLP)领域,并逐渐扩展到计算机视觉(CV)等领域。Transformer 的核心思想是完全摒弃传统的循环神经网络(RNN)结构,仅依赖注意力机制来处理序列数据,从而实现更高的并行性和更快的训练速度。以下是 Transformer 架构图,左边为编码器,右边为解码器。原创 2025-05-21 16:58:40 · 888 阅读 · 0 评论 -
今天给大家讲一下OpenCV从入门到实战,一步到位。
OpenCV 是一个功能强大、应用广泛的计算机视觉库,它为开发人员提供了丰富的工具和算法,可以帮助他们快速构建各种视觉应用。随着计算机视觉技术的不断发展,OpenCV 也将会继续发挥重要的作用。OpenCV 提供了大量的计算机视觉算法和图像处理工具,广泛应用于图像和视频的处理、分析以及机器学习领域。原创 2025-05-21 16:47:33 · 653 阅读 · 0 评论 -
机器学习-六大核心算法(全解)
如线性回归、决策树、K均值聚类等,虽重要但通常归类为“机器学习”而非传统“核心算法”。要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。:分治法思想,平均时间复杂度 O(nlogn)O(nlogn)。:利用堆数据结构,时间复杂度 O(nlogn)O(nlogn)。:适用于已排序数组,时间复杂度 O(logn)O(logn)。:稳定排序,时间复杂度 O(nlogn)O(nlogn)。:通过哈希表实现 O(1)O(1) 平均查找时间。:数据库索引、数据分析、操作系统任务调度等。原创 2025-05-20 14:46:42 · 575 阅读 · 0 评论 -
一份文档带你吃透逐层分解Transformer
让 Decoder 关注 Encoder 的输出(类似传统 Seq2Seq 的注意力)。:基于 Encoder 的输出和已生成的部分结果,逐步生成目标序列(如翻译结果):为模型注入序列的位置信息(因为 Transformer 无递归结构)。:使用正弦/余弦函数生成固定或可学习的位置向量,与词向量相加。:将输入序列(如句子)映射为高维表示(上下文相关的向量)。:捕捉序列中各个位置之间的关系,生成上下文相关的表示。:类似“词与词之间的投票”,决定彼此的重要性。:在注意力分数计算时,将未来位置的权重设为。原创 2025-05-20 14:09:27 · 914 阅读 · 0 评论 -
如何入门深度学习。感觉总结出来是能帮助一些爱学习的人吧。
上方是人工智能深度学习路线图大纲,大家找我领一份简单分成几步,简单分成几步,PythonNumpyPandasPytorch理论:简单了解MLPCNN为主,再考虑RNN的基础模型:AlexNet、VGGResNetYoloSSD是里任选两个自己手写代码,标记数据、训练一下就好了。如果你真的有志于此,那我建议你手写完整的 Transformer 模型,这现在看是未来的所有。完成上面几步,这样你就是一个不错的入门选手了。再看看书,就是一个只需要你部就班就能成为高手的路!详细说一下。原创 2025-05-20 12:02:53 · 914 阅读 · 0 评论 -
AI推荐先学哪些课程?
经过深入研究和实践,我认为微软的「AI-For-Beginners」是目前市面上最全面、系统且对初学者友好的 AI 入门课程之一。无论你是计算机专业学生、转行开发者,还是对 AI 充满好奇的技术爱好者,这个为期 12 周的学习之旅都将为你打开 AI 世界的大门。相比付费课程和碎片化学习资源,这个开源项目提供了一条清晰的学习路径,从基础到应用,从理论到实践,全面培养 AI 开发能力。特别是它的双框架支持和前沿技术覆盖,让学习者不仅掌握当下技能,还能为未来发展打下基础。原创 2025-05-20 11:51:40 · 675 阅读 · 0 评论