
台大李宏毅ML课程笔记
文章平均质量分 73
code_caq
机器学习、计算机视觉爱好者。
努力学习的新人!
展开
-
【台大李宏毅ML课程】Lecture 4 Classification笔记
Lecture 4 Classification本讲主要讲述了基于概率模型的分类器分类的应用场景就很多了,如信用卡评分、疾病诊断、模式识别等等等等。1.为什么不用回归而用分类 因为那些离回归函数比较远但却是正确的点会带了很大的error2.初步的想法 对于一个二分类问题,采用如下方式: 哪个类别的P(C|x)大就判为哪一类; 其中P(C1)和P(C2)可以根据训练集中类...原创 2018-02-09 21:06:57 · 551 阅读 · 0 评论 -
【台大李宏毅ML课程】Lecture 3 Gradient Descent笔记
(感谢李宏毅老师,所有图片来自于老师的课件)Lecture 3 Gradient Descent本讲主要讲了解决最优化问题用到的梯度下降的方法,以及对梯度下降法的一个改进,最后从泰勒级数的角度解释了梯度下降的数学原理。本讲从比较深的角度介绍梯度下降,讲的十分的好。1.Review:Gradient Descent 梯度下降法主要是为了求解凸优化问题(具体步骤可见Lecture 1...原创 2018-02-09 10:58:47 · 1123 阅读 · 0 评论 -
【台大李宏毅ML课程】Lecture 1-2 Linear Regression、Error笔记
(感谢李宏毅老师,所有图片来自于老师的课件)Lecture 1 Regression本讲主要是讲了一个线性回归模型,以及梯度下降法求解参数。以宝可梦为例。回归(Regression)有很多应用场景,比如时序预测、自动驾驶、推荐系统等。1.线性回归以线性回归y=wx+b为例,可以基于损失函数最小(此处选取平方损失函数)来求解参数w和b,从而得到best model。 为...原创 2018-02-08 21:16:09 · 1131 阅读 · 0 评论 -
【台大李宏毅ML课程】Lecture 6-11 Deep Learning笔记
李宏毅老师ML课程的Lecture 6-11都是在讲deep learning,所以合在一起总结好了。 主要内容我用xmind大致总结了一下。 如有错误,请务必指正谢谢!! 用图来源于课程以及网上的图~1.Deep learning发展史 略(= =||)2.Mini-batch Gradient Descent 每次(one epoch)选取一部分数据进行梯度下降,从而参数...原创 2018-03-13 21:04:44 · 572 阅读 · 1 评论 -
【台大李宏毅ML课程】Lecture 13 Unsupervised Learning——Linear Dimension Reduction笔记
本节课主要讲了两种线性降维的方法——cluster和PCA,并从两个角度解释了PCA。最后讲了一些关于矩阵分解的知识。1.clustercluster就简单的带过了,主要是k-means和HACk-means原理: (1)先初始化k个中心点ci (i=1,….,k) (2)如果样本x离ci更近,就划分到第i类 (3)更新每个类别的中心点 (4)重复(2)(3)如何选择K...原创 2018-03-25 15:13:45 · 1170 阅读 · 2 评论 -
【台大李宏毅ML课程】Lecture 19 Transfer Learning迁移学习笔记
本节课主要讲了迁移学习的一些基本概念和算法的主要思想~~ 图片来源与李宏毅老师ppt 如有错误,请务必指正!!1.Transfer Learning基本概念target data:相关的数据,很少 source data:不直接相关的,很多有很多与target data不直接相关的source data 比如说target data是一些小猫小狗,任务是给小猫小狗分类, ...原创 2018-03-21 15:14:01 · 1518 阅读 · 0 评论 -
【台大李宏毅ML课程】Lecture 12 Semi-Supervised Learning半监督学习笔记
本节课主要讲了半监督学习Semi-supervised:样本中有一部分数据有标签(label data)但很少,另一部分数据无标签(unlabel data),很多~因为收集无标签的数据很容易,但是收集有标签数据没那么容易~图片来源于李宏毅老师ppt,如有错误务必指正!! 博主总结的时候喜欢中英夹杂,别介意!1.Semi-supervised Generative Model 基本思想...原创 2018-03-21 16:51:42 · 1459 阅读 · 0 评论 -
【台大李宏毅ML课程】Lecture 14 Word Embedding笔记
本节课主要讲了无监督学习——word embedding的一些基本概念1.word embedding(word2vector) 传统的1 of N encoding(或者one-hot独热编码)的表示法过于稀疏,不可取。所以考虑将每个word映射到另一个空间里去 machine通过阅读很多documents来理解语义,从而可以达到word embedding的目的2.How ab...原创 2018-03-22 11:30:49 · 1760 阅读 · 0 评论