机器学习之最小二乘线性回归原理解读与公式推导 | 您所在的位置:网站首页 › stata最小二乘法回归方程 › 机器学习之最小二乘线性回归原理解读与公式推导 |
求损失函数取最小值时对应的假设 h h h 假设 h h h 与 w ⃗ \vec w w 有关,将 L ( h ) L(h) L(h) 化为自变量为 w ⃗ \vec w w 的函数 得 L ( w ⃗ ) = 1 n ∑ i = 1 n ( w ⃗ T ⋅ x ⃗ i − y i ) 2 L(\vec w) = \frac{1}{n}\sum\limits_{i=1}^n(\vec w^T\cdot \vec x_i-y_i)^2 L(w )=n1i=1∑n(w T⋅x i−yi)2 令 X = [ x ⃗ 1 T x ⃗ 2 T ⋯ x ⃗ n T ] T \mathbf X=\begin{bmatrix} \vec x_1^T&\vec x_2^T&\cdots&\vec x_n^T \end{bmatrix}^T X=[x 1Tx 2T⋯x nT]T , y ⃗ = [ y 1 y 2 ⋯ y n ] T \vec y = \begin{bmatrix} y_1&y_2&\cdots&y_n \end{bmatrix}^T y =[y1y2⋯yn]T 得 L ( w ⃗ ) = 1 n ( X ⋅ w ⃗ − y ⃗ ) T ⋅ ( X ⋅ w ⃗ − y ⃗ ) L(\vec w) = \frac{1}{n}(\mathbf X\cdot\vec w- \vec y)^T\cdot(\mathbf X\cdot\vec w- \vec y) L(w )=n1(X⋅w −y )T⋅(X⋅w −y ) = 1 n ( w ⃗ T X T X w ⃗ − w ⃗ T X T y ⃗ − y ⃗ T X w ⃗ + y ⃗ T y ⃗ ) =\frac{1}{n}(\vec w^T\mathbf X^T\mathbf X\vec w-\vec w^T\mathbf X^T\vec y-\vec y^T\mathbf X\vec w+\vec y^T\vec y) =n1(w TXTXw −w TXTy −y TXw +y Ty ) = 1 n ( w ⃗ T X T X w ⃗ − 2 w ⃗ T X T y ⃗ + y ⃗ T y ⃗ ) =\frac{1}{n}(\vec w^T\mathbf X^T\mathbf X\vec w-2\vec w^T\mathbf X^T\vec y+\vec y^T\vec y) =n1(w TXTXw −2w TXTy +y Ty ) ,因为 w ⃗ T X T y ⃗ \vec w^T\mathbf X^T\vec y w TXTy 与 y ⃗ T X w ⃗ \vec y^T\mathbf X\vec w y TXw 均为 1 × 1 1\times1 1×1 矩阵 梯度下降法 解析法 求 w ⃗ ∗ \vec w^* w ∗ 使 ∂ ∂ w ⃗ L ( w ⃗ ∗ ) = 0 \frac{\partial}{\partial \vec w}L(\vec w^*) = 0 ∂w ∂L(w ∗)=0 ,则 w ⃗ ∗ \vec w^* w ∗ 即为 L ( w ⃗ ) L(\vec w) L(w ) 对最优解(凸优化问题) ∂ ∂ w ⃗ L ( w ⃗ ) = 2 X T X w ⃗ − 2 y ⃗ T X \frac{\partial}{\partial \vec w}L(\vec w) = 2\mathbf X^T\mathbf X\vec w-2\vec y^T\mathbf X ∂w ∂L(w )=2XTXw −2y TX 2 X T X w ⃗ ∗ − 2 y ⃗ T X = 0 2\mathbf X^T\mathbf X\vec w^*-2\vec y^T\mathbf X = 0 2XTXw ∗−2y TX=0 w ⃗ ∗ = ( X T X ) − 1 y ⃗ T X = ( X T X ) − 1 X T y ⃗ \vec w^*=(\mathbf X^T\mathbf X)^{-1}\vec y^T \mathbf X = (\mathbf X^T\mathbf X)^{-1}\mathbf X^T\vec y w ∗=(XTX)−1y TX=(XTX)−1XTy |
CopyRight 2018-2019 实验室设备网 版权所有 |