
公开课学习笔记
文章平均质量分 92
scxyz_
机器学习/深度学习/大数据风控/编程技巧/学习笔记
展开
-
台湾大学深度学习课程 学习笔记 lecture3-2 Recursive Neural Network(RvNN)
以下内容和图片均来自台湾大学深度学习课程。 课程地址:https://www.csie.ntu.edu.tw/~yvchen/f106-adl/syllabus.html 当把所有word 转化成vector后,需要将这些vector进行整合,传统整合方法一般使用average, sum等,接下来介绍使用Recursive Neural Network(RvNN)递归神经网络进行处理。原创 2017-12-21 18:10:22 · 4306 阅读 · 0 评论 -
台湾大学深度学习课程 学习笔记 lecture4 Word Embeddings
以下内容和图片均来自台湾大学深度学习课程。 课程地址:https://www.csie.ntu.edu.tw/~yvchen/f106-adl/syllabus.html 在之前 lecture2-2 Word Representation 的课程中简单讲解了 Word 处理的传统方法。通过传统方法的局限性引入新的方法 Word Embeddings,从而直接学习得到低维结果,而...原创 2018-01-08 15:50:14 · 974 阅读 · 0 评论 -
台湾大学深度学习课程 学习笔记 Lecture 5-2: Sequence Generation
以下内容和图片均来自台湾大学深度学习课程。 课程地址:https://www.csie.ntu.edu.tw/~yvchen/f106-adl/syllabus.html GenerationRNN的应用方法 sentences是由characters/word 组成; 使用RNN的方法每次生成一个characters/word X 是之前产生的一个word,用one-hot-encodi原创 2018-01-15 11:57:25 · 2202 阅读 · 0 评论 -
台湾大学深度学习课程 学习笔记 lecture2-2 Word Representation
以下内容和图片均来自台湾大学深度学习课程。 课程地址:https://www.csie.ntu.edu.tw/~yvchen/f106-adl/syllabus.html 函数“ff”的作用 “Meaning”的含义? 怎样表示文字上的语义? 本节课主要讲了两种方法,分别如下:Knowledge-based representation这个是传统方法,语言学家们制定了一套 WordNe原创 2017-12-18 18:52:27 · 610 阅读 · 0 评论 -
台湾大学深度学习课程 学习笔记 lecture2-1 Backpropagation
以下内容和图片均来自台湾大学深度学习课程。 课程地址:https://www.csie.ntu.edu.tw/~yvchen/f106-adl/syllabus.html 上节课程 lecture1-2 Neural Network Basics 讲了神经网络的结构以及正向传播的方法公式,最后也快速讲了一下使用梯度下降的方法进行优化,并且比较了GD、SGD、Mini-Batch三种方法。本节原创 2017-12-17 23:04:03 · 848 阅读 · 0 评论 -
台湾大学深度学习课程 学习笔记 lecture1-2 Neural Network Basics
以下内容和图片均来自台湾大学深度学习课程。 课程地址:https://www.csie.ntu.edu.tw/~yvchen/f106-adl/syllabus.html 本节课主要讲了三个问题: 1. What is the model? (function hypothesis set) 2. What does a “good” function mean? 3. How d原创 2017-12-10 23:00:32 · 863 阅读 · 0 评论 -
台湾大学深度学习课程 学习笔记 lecture1-1 Introduction
以下内容和图片均来自台湾大学深度学习课程。 课程地址:https://www.csie.ntu.edu.tw/~yvchen/f106-adl/syllabus.html 机器学习介绍引入机器学习理论方法 Programs can do the things you ask them to do Some tasks are complex, and we don’t know how to原创 2017-12-10 16:05:10 · 1635 阅读 · 0 评论 -
台湾大学深度学习课程 学习笔记 lecture3-1 Recurrent Neural Network (RNN)
Recurrent Neural Network (RNN)循环神经网络常被用到的领域是Language Modeling,下面就从Language Modeling方法的发展,引入RNN。Language Modeling多个word组成一句话,根据一句话出现的概率可以得到更符合语法结构和有意义的句子。 比如根据给出的一段语音,可以得到两种完全不同的句子“recognize speech”、“w原创 2017-12-20 18:31:20 · 1211 阅读 · 0 评论 -
台湾大学深度学习课程 学习笔记 Lecture 5-1: Gated RNN(LSTM与GRU介绍)
以下内容和图片均来自台湾大学深度学习课程。 课程地址:https://www.csie.ntu.edu.tw/~yvchen/f106-adl/syllabus.html Review首先复习一下 lecture3-1 Recurrent Neural Network 讲过的RNN结构。RNN假设现在有3个sequence表示为 x1x^1、x2x^2、x3x^3,设定的初始化向量 h0h_原创 2018-01-10 14:18:06 · 2953 阅读 · 1 评论