- 博客(5)
- 资源 (1)
- 收藏
- 关注
原创 动手学深度学习-学习笔记(五)
本文的主要内容有::卷积神经网络基础;leNet;卷积神经网络进阶 一、卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二...
2020-02-17 19:38:48
374
原创 动手学深度学习-学习笔记(四)
本文的主要内容有:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer。 一、机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 字符在计算机里是以编码的形式存在,我们通常所用的空格是 \x20 ,是在标准ASC...
2020-02-17 19:29:18
963
原创 动手学深度学习-学习笔记(三)
过拟合、欠拟合及其解决方案 过拟合、欠拟合的概念 权重衰减 丢弃法 模型选择、过拟合和欠拟合 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛...
2020-02-15 12:21:19
573
原创 动手学深度学习-学习笔记(二)
本文的内容包括:文本预处理,语言模型和循环神经网络基础 一、文本预处理 文本是一类序列数据,一篇文章可以看作是字符或单词的序列。文本预处理一般包括四个步骤: (1)读入文本 import collections import re # 逐行读取文本 def read_time_machine(): with open('/home/kesci/input/timemachine7...
2020-02-14 16:21:34
415
原创 动手学深度学习-学习笔记(一)
写在前面 动手学习深度学习的学习笔记是在新冠疫情期间参加了深度学习公益训练营的打卡笔记合集,虽然是训练营的基本要求,但是作为对所学内容的总结与提炼还是很有帮助的。 本文主要内容:线性回归,softmax分类模型与多层感知机 一、线性回归 线性回归输出是一个连续值,因此适用于回归问题。回归问题在实际中很常见,如预测房屋价格、气温、销售额等连续值的问题。回归问题解决的是连续函数...
2020-02-13 23:53:39
623
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人