机器学习基础——标准方程法

标准方程法

J(x) = ax² + bx + c
优点:
不需要学习率;
不需要迭代;
可以得到全局最优解;
缺点:
需要计算(XTX)-1,-1指的是逆;
时间复杂度大约是O(n³);
n是特征数量;


考虑是分子布局还是分母布局
分子布局:分子为列向量或者分母为行向量;
分母布局:分子为行向量或者分母为列向量;

import numpy as np 
import matplotlib.pyplot as plt
from numpy import genfromtxt

# 导入数据
data = np.genfromtxt("C:\\ML\\chapter-1\\data.csv",delimiter=",")
x_data = data[:,0,np.newaxis]
y_data = data[:,1,np.newaxis]
plt.scatter(x_data,y_data)
plt.show()

print(np.mat(x_data).shape)
print(np.mat(y_data).shape)
# 给样本添加偏置项
X_data = np.concatenate((np.ones((100,1)),x_data),axis=1)
print(X_data.shape)
print(X_data[:3])

# 标准方程法求解回归参数
def weights(xArr,yArr):
    xMat = np.mat(xArr) # 转换成矩阵格式
    yMat = np.mat(yArr)
    xTx = xMat.T*xMat # 矩阵乘法
    # 计算矩阵的值,如果为0,说明该矩阵没有逆矩阵
    if np.linalg.det(xTx) == 0.0:
        print('This matrix cannot do inverse')
        return
    # xTx.I为xTx的逆矩阵
    ws = xTx.I * xMat.T * yMat
    return ws

ws = weights(X_data,y_data)
print(ws)

# 画图
x_test = np.array([[20],[80]])
y_test = ws[0] + x_test*ws[1]
plt.plot(x_data,y_data,'b.')
plt.plot(x_test,y_test,'r')
plt.show()

在这里插入图片描述
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

xiao黄

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值