逻辑回归
主要用于分类任务
sigama 函数
σ(x)=1+e−x1
值域在0到1->压缩
输入项需要先进行线性变化:
z=wx+b
w 描述因子对分类结果的影响大小, b为偏置值
实际输出为
y(要么是0要么是1)
预测输出为
y^=σ(wx+b)(输出一个介于0和1之间的数)
线性回归中 损失函数为 预测值和实际值之间的平方差:
但是在逻辑回归中运用这种方法 则损失函数可能会变成非凸函数:
后果是在梯度下降的时候可能会陷入局部最小值而非全局最小值点
y=1L=−log(y^)y=0L=−log(1−y^)
合并两者得到 二元交叉熵损失函数 又叫对数损失函数
L(y,y^)=−[ylog(y^)+(1−y)log(1−y^)]
作为整个数据集,损失函数求平均变为成本函数
J(w,b)=−m1i=1∑m[y(i)log(y^(i))+(1−y(i))log(1−y^(i))]
梯度下降法:
wnew=wold−α∂w∂Jbnew=bold−α∂b∂J
多元拓展:
z=w1x1+w2x2+...+wnxn+bz=w1w2..wnTx1x2..xn+bz=WTX+b