线性回归
回归
回归分析 根据数据 确定两种或两种以上变量间的相互依赖的定量关系
一元回归
多元回归
线性回归
非线性回归
线性回归
监督学习
Y=aX+b
minmise{∑i=1m(yi′−yi)2}
minmise{2m1∑i=1m(yi′−yi)2} -> 方便求导 -> 损失函数
m 为样本数
y’ 为输出结果
minmise{2m1∑i=1m(yi′−yi)2}=minmise{2m1∑i=1m(ax+b−yi)2}=g(a,b)
梯度下降法
寻找极小值的一种方法。 通过向函数上当前点对应梯度(或近似梯度) 的反方向的规定 步长进行搜索,直到在极小值点收敛
minmise{2m1∑i=1m(yi′−yi)2}=minmise{2m1∑i=1m(ax+b−yi)2}=g(a,b)
⎩⎨⎧tempa=a−α∂a∂g(a,b)=a−αm1∑i=1m(axi+b−yi)xitempb=b−α∂b∂g(a,b)=b−αm1∑i=1m(axi+b−yi)a=tempab=tempb⎭⎬⎫
模型评估
均方误差 MSE
MSE=m1i=1∑m(yi′−yi)2
R方值
R2=1−∑i=1m(yi−yi)2∑i=1m(yi′−yi)2=1−方差MSE
代码要点
scikit-learn
机器学习算法
不包括 深度学习 和 强化学习
只支持Python
MSE and K2
from sklearn.metrics import mean_squared_error, r2_socre
MSE = mean_squared_error(y, y_predict)
R2 = r2_score(y, y_predict)
画图对比
from matplotlib import pyplot as plt
plt.scatter(y, y_predict)
#画散点图 越集中于y=x 说明模型拟合得越好