自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(13)
  • 收藏
  • 关注

原创 gitchat训练营15天共度深度学习入门课程笔记(十三)

第7章 卷积神经网络7.5 CNN 的实现7.6 CNN 的可视化7.6.1 第 1 层权重的可视化7.6.2 基于分层结构的信息提取7.7 具有代表性的 CNN7.7.1 LeNet7.7.2 AlexNet7.5 CNN 的实现CNN各层示意图:隐藏层:Convolution - ReLU - Pooling输出层的前一层:Affine - ReLU输出层:Affine - So...

2019-05-30 15:24:35 614 2

原创 gitchat训练营15天共度深度学习入门课程笔记(十二)

第7章 卷积神经网络7.3 池化层7.4 卷积层和池化层的实现7.4.1 4 维数组卷积运算的技巧:基于 im2col 的展开7.4.3 卷积层的实现7.4.4 池化层的实现7.3 池化层池化运算:缩小高、长方向上的空间的运算一般来说,池化的窗口大小会和步幅设定成相同的值除了Max池化,还有Average池化,在图像识别领域,主要使用 Max 池化按步幅 2 进行 2 × 2 的 M...

2019-05-28 11:06:49 471

原创 gitchat训练营15天共度深度学习入门课程笔记(十一)

第7章 卷积神经网络7.2 卷积层7.2.2 卷积运算7.2.3 填充7.2.4 步幅输出数据大小计算7.2.5 3 维数据的卷积运算7.2.6 结合方块思考7.2.7 批处理基于全连接层(Affine 层)的网络的例子:基于 CNN 的网络的例子,新增了 Convolution 层和 Pooling 层(用灰色的方块表示):CNN常见结构:“Convolution - ReLU -...

2019-05-26 22:39:32 455

原创 gitchat训练营15天共度深度学习入门课程笔记(十)

第6章 与学习相关的技巧6.4 正则化抑制过拟合的方法6.4.2 权值衰减6.4.3 Dropout6.5 超参数的验证6.5.1 验证数据6.5.2 超参数的最优化6.5.3 超参数最优化的实现6.4 正则化神经网络发生过拟合的原因:模型拥有大量参数、表现力强训练数据少为了制造过拟合的神经网络来表现实验情况,选择了以下条件:训练数据:Minist数据集里的300(60000:3...

2019-05-25 14:32:10 489

原创 gitchat训练营15天共度深度学习入门课程笔记(九)

第6章 与学习相关的技巧6.1 学习过程中参数更新最优化方法6.1.2 SGD1. SGD的实现2. SGD 的缺点6.1.4 Momentum1. Momentum公式2. Momentum的实现6.1.5 AdaGrad1. AdaGrad的公式2. AdaGrad的实现6.1.6 Adam1. Adam的特点2. Adam的实现6.1.8 基于 MNIST 数据集的更新方法的比较6...

2019-05-24 23:29:30 397

原创 gitchat训练营15天共度深度学习入门课程笔记(八)

第5章 误差反向传播法5.4 简单层的实现5.4.1 乘法层的实现5.4.2 加法层的实现5.5 激活函数层的实现5.5.1 ReLU 层5.5.2 Sigmoid 层5.6 Affine/Softmax 层的实现5.6.1 Affine 层5.6.2 批版本的 Affine 层5.6.3 Softmax-with-Loss 层5.7 误差反向传播法的实现5.7.1 神经网络学习的全貌图5.7.2...

2019-05-23 22:23:05 844

原创 gitchat训练营15天共度深度学习入门课程笔记(七)

第5章 误差反向传播法5.1 计算图5.1.1 用计算图求解5.1.2 局部计算5.1.3 为何用计算图解题5.2 链式法则5.2.1 计算图的反向传播5.2.2 什么是链式法则5.2.3 链式法则和计算图5.3 反向传播5.3.1 加法节点的反向传播5.3.2 乘法节点的反向传播5.3.3 苹果的例子5.1 计算图高效计算权重参数的方法:误差反向传播法误差反向传播法的两种表示方法:数学式...

2019-05-22 17:48:01 598

原创 gitchat训练营15天共度深度学习入门课程笔记(六)

第4章 神经网络的学习4.3 数值微分4.3.1 导数4.3.2 数值微分的例子4.3.3 偏导数4.4 梯度4.4.1 梯度法4.4.2 神经网络的梯度4.5 学习算法的实现4.5.1 2 层神经网络的类4.5.2 mini-batch 的实现4.5.3 基于测试数据的评价4.3 数值微分4.3.1 导数导数定义公式如下:df(x)dx=lim⁡h→0f(x+h)−f(x)h\frac{...

2019-05-21 18:17:48 735 1

原创 gitchat训练营15天共度深度学习入门课程笔记(五)

第4章 神经网络的学习4.1 从数据中学习4.1.1 数据驱动4.1.2 训练数据和测试数据4.2 损失函数4.2.1 均方误差4.2.2 交叉熵误差4.2.3 mini-batch 学习4.2.4 mini-batch 版交叉熵误差的实现4.2.5 为何要设定损失函数学习的目的在于寻找损失函数最小的权重参数4.1 从数据中学习感知机收敛定理可以在有限次学习中使感知机解决线性可分问题...

2019-05-20 23:54:33 781 1

原创 gitchat训练营15天共度深度学习入门课程笔记(四)

第3章 神经网络3.4 3 层神经网络的实现3.4.1 符号确认3.4.2 各层间信号传递的实现3.4 3 层神经网络的实现3.4.1 符号确认本章重点:神经网络各层的运算是通过矩阵的乘法运算打包进行的3.4.2 各层间信号传递的实现从输入层到第1层第1个神经元的信号传递过程:任何前一层的偏置神经元“1”都只有一个。偏置权重的数量取决于后一层的神经元的数量(不包括后一层的偏置神...

2019-05-19 23:51:00 349

原创 gitchat训练营15天共度深度学习入门课程笔记(三)

第3章 神经网络3.1 神经网络3.1.1 神经网络的例子3.1.2 复习感知机3.1.3 激活函数3.2 激活函数3.2.1 sigmoid 函数3.2.2 阶跃函数的实现3.2.3 阶跃函数的图形3.2.4 sigmoid 函数的实现3.2.5 sigmoid 函数和阶跃函数的比较3.2.6 非线性函数3.2.7 ReLU 函数3.3 多维数组的运算3.3.1 多维数组3.3.2 矩阵乘法3....

2019-05-18 22:27:09 312

原创 gitchat训练营15天共度深度学习入门课程笔记(二)

第2章 感知机感知机是什么简单逻辑电路与门与非门和或门感知机的实现python简单实现导入权重和偏置使用权重和偏置的实现感知机的局限性异或门线性和非线性多层感知机已有门电路的组合异或门的实现从与非门到计算机感知机是什么感知机(perceptron):算法,本章指“人工神经元”或“朴素感知机”感知机有多个输入,一个输出,像电流一样向前方流动(1/传递信号/一个分类得到的结果/“神经元被激活”)...

2019-05-17 21:19:29 484

原创 gitchat训练营深度学习入门读书笔记

第一章 Python 入门Python简介主要目的Python的安装Python的版本mac手动安装流程anaconda安装anaconda两个自带的库Python解释器的查看解释器中对话方式编程实例Python脚本文件创建类Numpy导入 NumPy生成数组Numpy算术运算(element-wise)数组 x 和数组 y 的元素个数是相同的单一的数值(标量)Numpy的N维数组广播访问元素Ma...

2019-05-16 23:46:01 375

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除