【机器学习】逻辑回归模型

本文深入探讨了逻辑回归模型,从线性回归的基础出发,解释了如何将其应用于分类问题,特别是二分类问题。通过引入Sigmoid函数,将模型转换为概率预测,进而通过最大似然估计和梯度下降法进行模型学习。文中还讨论了逻辑回归模型的损失函数和参数更新规则。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、逻辑回归模型

  • 要说逻辑回归,我们得追溯到线性回归模型,线性回归是对于多维空间中的样本点,用特征的线性组合去拟合空间中点的分布和轨迹。如下图所示:
  • 线性回归用来对连续值结果进行预测,现在我们需要处理的是分类问题,这里主要讨论二分类问题,可以推广导多分类问题中去。
  • 将线性回归推广到分类问题最直接的想法是:
    • 线性回归预测出连续值结果,那么如果我们在线性回归的基础上设定一个阈值,将线性回归输出结果大于这个阈值的归为正例,反正为反例。
    • 下面我们使用用Andrew Ng老师的课件中的例子来说明一下这种情况,下图中 X X X为数据点肿瘤的大小, Y Y Y为观测结果是否是恶性肿瘤。 h θ ( x ) h_θ (x) hθ(x)为构建的线性回归模型,并且设定一个阈值=0.5,预测 h θ ( x ) ≥ 0.5 h_θ (x)≥0.5 hθ(x)0.5的这些点为恶性肿瘤,而 h θ ( x ) &lt; 0.5 h_θ (x)&lt;0.5 hθ(x)<0.5为良性肿瘤。
    • 但如果是下面样本的情况:
      现在再设定0.5,于是我们需要调整相应的阈值才能获得较好的结果,
    • 而现实生活的分类问题中,会比例子中这个更为复杂,而这个时候我们借助于线性回归+阈值的方式,已经很难完成一个鲁棒性很好的分类器。
  • 逻辑回归 将线性回归推广到分类问题想法:
    • 上面的分析可以看出线性回归+阈值对于复制情况下是不适用的,于是我们就可以换个思路:我们将线性回归模型不再想象为一个拟合样本的直线或超平面,而是现象成为一个分割样本点的直线或超平面。如下图所示:
      我们将学习到的线性回归模型h_θ (x)称为分离超平面,将平面以上的样本归为正例( h θ ( x ) &gt; 0 h_θ (x)&gt;0 hθ(x)>0),以下的样本归为负例( h θ ( x ) &lt; 0 h_θ (x)&lt;0 hθ(x)<0)。这样就不需要对阈值进行选择了。
    • 以上思路的模型可以表示为: f ( x ) = s i g n ( h θ ( x ) ) f(x)=sign(h_θ (x)) f(x)=sign(hθ(x))
    • 其中 s i g n sign sign为符号函数:
    • 因为sign函数值不连续,无法进行一些相关求导,所以不方便后面的优化计算,于是我们找来替补函数Sigmoid函数: g ( x ) = 1 1 + e − z g(x)=\frac{1}{1+e^{-z} } g(x)=1+ez1
    • 图像如下:
    • 于是我们得到逻辑回归的模型: f ( x ) = g ( h θ ( x ) ) = 1 1 + e − h θ ( x ) = 1 1 + e − W T x f(x)=g(h_θ (x))=\frac{1}{1+e^{-h_θ (x)} } =\frac{1}{1+e^{-W^T x} } f(x)=g(hθ(x))=1+ehθ(x)1=1+eWTx1
  • 注意:
    • 上面说在逻辑回归中其中的线性回归模型为分离直线或者分离超平面,其实只是不一定的,线性模型可以是曲线或者曲面,主要取决于使用的特征:
    • 下图是直线或平面的例子:
      这幅图中逻辑回归使用的线性回归模型为: h θ ( x ) = w 1 x 1 + w 2 x 2 + w 0 h_θ (x)=w_1 x_1+w_2 x_2+w_0 hθ(x)=w1x1+w2x2+w0
    • 下图是曲线或曲面的例子:
      这幅图中逻辑回归使用的线性回归模型为: h θ ( x ) = w 1 x 1 2 + w 2 x 2 2 + w 0 h_θ (x)=w_1 x_1^2+w_2 x_2^2+w_0 hθ
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值