最小二乘法:使离差平方和  (i=1~n)  ∑(yi-yi')  最小的方法

结论:设回归方程为y'=bx+a;解得

回归直线方程:在一组具有相关关系的变量与数据的(x,y)间,最能体现x,y关系的直线(一条尽可能接近所有数据点的直线)

设回归方程为y'=bx+a;

要使直线最拟合,则使(i=1~n)  ∑(yi-yi') 最小,但yi-yi'可能为负,无法正确反映整体数据的切合程度,所以用平方,使得∑(yi-yi')^2最小,由n组xi,yi,最终解得

线性回归中的最小二乘法

线性回归模型

f(x)=w_{1}x_{1}+w_{2}x_{2}+...+w_{d}x_{d}+b = W^{T}X+b

用最小二乘法最小化残差得损失函数为E(W,b)=\sum_{i=1}^{m} (f(x)-y_{i})^{2}=\sum_{i=1}^{m} (W^{T}X+b-y_{i})^{2}

最小化误差:(W^{*},b^{*})=arg min\sum_{i=1}^{m} (W^{T}X+b-y_{i})^{2}

分别对W,b求偏导得:

\frac{\partial E }{\partial W }=2(W\sum_{i=1}^{m}X^{2}+\sum_{i=1}^{m}x_{i}(b-y_{i}))

\frac{\partial E }{\partial b }=2(mb+\sum_{i=1}^{m}(WX-y_{i}))

对于比较简单的函数,我们令偏导=0就可求出最优值W与b:

W=\frac{\sum_{i=1}^{m}y_{i}(X_{i}-\bar{X})}{\sum_{i=1}^{m}X_{i}^{2}-\frac{1}{m}(\sum_{i=1}^{m}X_{i})^{2}}

b=\frac{1}{m}\sum_{i=1}^{m}(y_{i}-WX_{i})

其中\bar{x}=\frac{1}{m}\sum_{i=1}^{m}X_{i}

但对于像下图这样有多个最优解的情况,我们用梯度下降法一步步找最优值,避免陷入局部最优解的情况,且计算量小很多。


W=W-\alpha \frac{\partial E}{\partial W}

b=b-\alpha \frac{\partial E}{\partial b} 

多元线性回归

最终求得:

推导过程

 

 


推导过程可见:https://blog.csdn.net/marsjohn/article/details/54911788

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐