
AndrewNg老师公开课视频总结
机器学习算法那些事
欢迎关注公众号:机器学习算法那些事,一个认真有情怀的机器学习社区
展开
-
机器学习系统设计.
前言:本文课件均来自Andrew Ng老师的machine learning公开课课程。一、评价模型 评价模型的一种标准方法是把数据集随机分为训练集和测试集,训练集和测试集的样本比例是7:3,下面举例线性回归和逻辑回归的训练/测试步骤: 1.1 线性回归模型构建步骤(1)最小化训练损失函数模型来得到参数theta,损失函数模型采用均方差表达式。(2)用训练得到的模型...原创 2018-05-26 15:57:22 · 1322 阅读 · 0 评论 -
神经网络
前言:本文课件均来自Andrew Ng老师的machine learning公开课课程。一、神经网络基础 如下图,Layer1为输入层,Layer2,Layer3为中间层,Layer4为输出层,L代表神经网络一共有几层,代表第l层包含的单元数(不包括偏差单元)。 神经网络二分类则输出层只有一个节点,若为k分类(k>=3),则输出层为k个节点,如下图。...原创 2018-03-04 15:46:05 · 960 阅读 · 0 评论 -
逻辑回归
分类算法与回归算法的不同在于因变量是否是连续变量,逻辑回归可用于分类,本文的内容包括:(一)线性回归分类算法的弊端,(二)逻辑回归函数,(三)、正则化。(图片来自于斯坦福大学Andrew老师所讲得机器学习视频截图)一、 线性回归分类算法的弊端线性回归算法预测值为连续的,线性回归分类算法受到训练样本的影响,如下图: (一)对训练样本进行建模,当阈值大于等于0.5时则判断为恶性肿...原创 2018-02-08 00:46:59 · 738 阅读 · 0 评论 -
多变量线性回归
多变量线性回归算法思想与单变量线性回归算法思想基本一致,(1)先找到损失函数,(2)求损失函数最小化后的参数;本文还简单介绍了特征缩放,正则方程以及矩阵不可逆的情况。(备注:图片都来自andrew老师的视频课程的截图)一、损失函数多变量的线性回归的目标函数(考虑双变量): 对应的损失函数: 二、损失函数的最小化算法对训练样本构建模型也就是最小化损失函数...原创 2018-02-03 23:36:57 · 1881 阅读 · 0 评论 -
单变量的线性回归模型算法
【写在前面的话】大概一年前看过Andrew老师的机器学习课程,受益良多。今年在用机器学习分类的时候,发现很多机器学习基础知识都已经忘得一干二净,对自己很是无语。因此,作者打算重新温习一篇Andrew老师的机器学习课程,并用博客来记录每一节课程的知识要点,加油吧! 机器学习模型: 如上图,机器学习可...原创 2018-01-31 20:01:20 · 2490 阅读 · 0 评论