高级计量经济学 4:小样本OLS(上)
此文内容为《高级计量经济学及STATA应用》的笔记,陈强老师著,高等教育出版社出版。
我只将个人会用到的知识作了笔记,并对教材较难理解的部分做了进一步阐述。为了更易于理解,我还对教材上的一些部分(包括代码和正文)做了修改。
仅供学习参考,请勿转载,侵删!
本文目录:
3 小样本OLS
3.1 多元线性回归模型
3.1.1 线性假定
3.1.2 严格外生性
3.1.3 不存在“多重共线性”
3.1.4 球形扰动项
3.1.5 本章公式
3.2 OLS的代数推导
3.2.1 的OLS模型
3.2.2 的OLS一阶条件
3.2.3 的OLS二阶条件
3.2.3 的估计
3.2.4 本章公式
![\S \text{ 第 3 章 } \S](https://math.jianshu.com/math?formula=%5CS%20%5Ctext%7B%20%E7%AC%AC%203%20%E7%AB%A0%20%7D%20%5CS)
![\text{小样本OLS}](https://math.jianshu.com/math?formula=%5Ctext%7B%E5%B0%8F%E6%A0%B7%E6%9C%ACOLS%7D)
3 小样本OLS
3.1 古典线性回归模型的假定
最小二乘法(Ordinary Least Square,OLS)是单一方程线性回归模型最常见、最基本的估计方法。古典线性回归模型(Classical Linear Regression Model,CLRM)的假定如下。
3.1.1 线性假定
总体的模型为:
其中, 为样本容量, 为解释变量的数量。对于 ,下标 代表第 个观测值(observation),下标 表示第 个解释变量。如果回归有常数项,那么通常令 。 是待估计参数,称为回归系数(regression coefficients)。 则是扰动项。
线性假设的含义是,每个解释变量 对被解释变量 的边际效应均为常数,因为 ,如果认为边际效应是可变的,可以加入二次项 、三次项 、交叉项 等。比如加入交叉项 ,那么 ,可以发现这时 对 的边际效应是可以变化的。
总体的模型也被称为数据生成过程(Data Generating Process,DGP)。为了更表达简洁,以后常常采用矩阵和向量的形式表示。令第 个观测数据为 ,回归系数向量为 ,那么上述 可以写成:
把所有观测 所对应的方程叠(stack)在一起,有:
为了更简洁地书写,定义:
为 数据矩阵
那么方程 可以写成:
![{\bf y}={\bf X}{\pmb \beta}+{\pmb \varepsilon}\tag{3.4}](https://math.jianshu.com/math?formula=%7B%5Cbf%20y%7D%3D%7B%5Cbf%20X%7D%7B%5Cpmb%20%5Cbeta%7D%2B%7B%5Cpmb%20%5Cvarepsilon%7D%5Ctag%7B3.4%7D)
3.1.2 严格外生性
CLRM要求扰动项满足严格外生性(strict exogeneity),即:
即给定数据矩阵 的条件下,扰动项 的条件期望为0。这意味着 必须均值独立于(mean-independent)所有解释变量的观测数据。根据前面提到的均值独立比不线性相关,那就在要求 这是一个很强的假设,不过在大样本下则不需要这么强。
其实,均值独立并不要求 ,只需要让 就可以了。不过,如果存在截距项,那就总可以把扰动项的非零期望归入常数中,从而满足新的严格外生性。
性质1:扰动项的无条件期望为零
证明1:根据迭代期望定律
证毕。
定义:如果随机变量 满足 ,那么就说 正交(orthogonal)
注意,计量上的正交的定义与概率论的定义略有不同
性质2:解释变量与扰动项正交
证明2:严格外生性要求均值独立 线性不相关,由有:
而且:
所以有:
证毕。
3.1.3 不存在“多重共线性”
不存在多重共线性(strict multicollinearity),即数据矩阵 满秩,即 。如果不满足这个条件,我们称 不可识别。实际中不容易出现严格多重共线性,就算有,Stata也会自动识别。
可以这么理解:如果不满足多重共线性,那么矩阵 就存在一些多余的解释变量。另外,在后面推算OLS估计量的时候会需要用到 ——如果 不满秩,那么 不存在。
3.1.4 球形扰动项
球形扰动项(spherical disturbance)即扰动项满足同方差、无自相关的性质,即:
之所以称为“球形扰动项”,是因为扰动项的协方差矩阵与单位矩阵 成正比。
球形扰动下,协方差矩阵 的主对角线都等于 ,即满足条件同方差(conditional homoskedasticity),否则存在条件异方差(conditional heteroskedasticity)。
球形扰动下, 的非主对角线都等于0,说明不同个体的扰动项之间没有自相关
3.1.5 本节总结
主要有以下几个公式和推论
线性假设
![{\bf y} = {\bf X} \pmb \beta + \pmb \varepsilon](https://math.jianshu.com/math?formula=%7B%5Cbf%20y%7D%20%3D%20%7B%5Cbf%20X%7D%20%5Cpmb%20%5Cbeta%20%2B%20%5Cpmb%20%5Cvarepsilon)
严格外生性
![{\rm E}(\varepsilon_i|{\bf X})=0](https://math.jianshu.com/math?formula=%7B%5Crm%20E%7D(%5Cvarepsilon_i%7C%7B%5Cbf%20X%7D)%3D0)
推论1:无条件期望为零,用期望迭代定律证明
![{\rm E}(\varepsilon_i)=0](https://math.jianshu.com/math?formula=%7B%5Crm%20E%7D(%5Cvarepsilon_i)%3D0)
推论2:解释变量和扰动项正交,用协方差公式展开证明
![{\rm E}(\varepsilon_i x_{ik})=0](https://math.jianshu.com/math?formula=%7B%5Crm%20E%7D(%5Cvarepsilon_i%20x_%7Bik%7D)%3D0)
不存在多重共线性
![\text{rank}({\bf X}) = K](https://math.jianshu.com/math?formula=%5Ctext%7Brank%7D(%7B%5Cbf%20X%7D)%20%3D%20K)
球形扰动项
![\text{Var}(\pmb \varepsilon) = \pmb\sigma^2 \pmb I_n](https://math.jianshu.com/math?formula=%5Ctext%7BVar%7D(%5Cpmb%20%5Cvarepsilon)%20%3D%20%5Cpmb%5Csigma%5E2%20%5Cpmb%20I_n)
3.2 OLS的代数推导
根据3.1.1,我们知道总体的模型是:![{\bf y}={\bf X}{\pmb \beta}+{\pmb \varepsilon}](https://math.jianshu.com/math?formula=%7B%5Cbf%20y%7D%3D%7B%5Cbf%20X%7D%7B%5Cpmb%20%5Cbeta%7D%2B%7B%5Cpmb%20%5Cvarepsilon%7D)
根据假设3.1.4,我们有:![\text{Var}(\pmb \varepsilon) = \pmb\sigma^2 \pmb I_n](https://math.jianshu.com/math?formula=%5Ctext%7BVar%7D(%5Cpmb%20%5Cvarepsilon)%20%3D%20%5Cpmb%5Csigma%5E2%20%5Cpmb%20I_n)
从而需要估计的参数有: 和 ![\pmb \sigma^2](https://math.jianshu.com/math?formula=%5Cpmb%20%5Csigma%5E2)
3.2.1 的OLS模型
为了估计位置参数向量 ,对于 的任意一个假想值(hypothetical value) ,记第 个数据的拟合误差(即残差,residual)为 。写成向量的形式,记 ,则有:
最二乘法的思想就在于找到使得残差平方和(Sum of Squared Residuals,SSR) 最小的 。其数学规划问题出为:
看到任何平方和的第一反应都应该是写成向量内积的形式,即
代入 ,则数学规划问题为:
注意到 ,而且这俩均是标量,所以可以合并为 ,从而数学规划问题进一步可以化为:
我们发现,目标函数 实际上是关于 的二次型(类比二次函数)。为了对 求导(一阶条件),我们要引入对向量的微分规则:
假设列向量 ,则 。对向量 求导其实就是对 的每个分量求偏导数,然后再把这些偏导数排列成列向量的形式,所以:
![\frac{\partial\left(\boldsymbol{a}^{\prime} \tilde{\boldsymbol{\beta}}\right)}{\partial \tilde{\boldsymbol{\beta}}}=\left(\frac{\partial\left(\boldsymbol{a}^{\prime} \tilde{\boldsymbol{\beta}}\right)}{\partial \tilde{\boldsymbol{\beta}}_{1}} \frac{\partial\left(\boldsymbol{a}^{\prime} \tilde{\boldsymbol{\beta}}\right)}{\partial \tilde{\boldsymbol{\beta}}_{2}} \ldots \frac{\partial\left(\boldsymbol{a}^{\prime} \tilde{\boldsymbol{\beta}}\right)}{\partial \tilde{\boldsymbol{\beta}}_{k}}\right)^{\prime}=\left(a, a_{2} \cdots a_{\kappa}\right)^{\prime}=\boldsymbol{a}](https://math.jianshu.com/math?formula=%5Cfrac%7B%5Cpartial%5Cleft(%5Cboldsymbol%7Ba%7D%5E%7B%5Cprime%7D%20%5Ctilde%7B%5Cboldsymbol%7B%5Cbeta%7D%7D%5Cright)%7D%7B%5Cpartial%20%5Ctilde%7B%5Cboldsymbol%7B%5Cbeta%7D%7D%7D%3D%5Cleft(%5Cfrac%7B%5Cpartial%5Cleft(%5Cboldsymbol%7Ba%7D%5E%7B%5Cprime%7D%20%5Ctilde%7B%5Cboldsymbol%7B%5Cbeta%7D%7D%5Cright)%7D%7B%5Cpartial%20%5Ctilde%7B%5Cboldsymbol%7B%5Cbeta%7D%7D_%7B1%7D%7D%20%5Cfrac%7B%5Cpartial%5Cleft(%5Cboldsymbol%7Ba%7D%5E%7B%5Cprime%7D%20%5Ctilde%7B%5Cboldsymbol%7B%5Cbeta%7D%7D%5Cright)%7D%7B%5Cpartial%20%5Ctilde%7B%5Cboldsymbol%7B%5Cbeta%7D%7D_%7B2%7D%7D%20%5Cldots%20%5Cfrac%7B%5Cpartial%5Cleft(%5Cboldsymbol%7Ba%7D%5E%7B%5Cprime%7D%20%5Ctilde%7B%5Cboldsymbol%7B%5Cbeta%7D%7D%5Cright)%7D%7B%5Cpartial%20%5Ctilde%7B%5Cboldsymbol%7B%5Cbeta%7D%7D_%7Bk%7D%7D%5Cright)%5E%7B%5Cprime%7D%3D%5Cleft(a%2C%20a_%7B2%7D%20%5Ccdots%20a_%7B%5Ckappa%7D%5Cright)%5E%7B%5Cprime%7D%3D%5Cboldsymbol%7Ba%7D)
同样地,假设 为 阶对称矩阵,则对二次型 可以证明:
可见,对二次型的导数依旧保留了二次函数的一些相似的结构。
证明:二次型的求导法则
其实不难证明,展开就可以了。同样地假设 为 阶对称矩、 是 维向量,那么根据二次型的定义(二次其次多项式函数),有:
那么对 的求导,就是:
证毕。
从而,我们可以求解一阶条件和二阶条件:
3.2.2 的OLS一阶条件
对 求导就有:
设最小二乘估计量为 ,那么 满足正规方程组:
从而我们可以定义正规方程(组)为:
即 ,意味着残差向量 和解释变量 正交,这是OLS估计的一个重要特征。最后可以求解 的OLS估计量 为:
![\pmb b = {(\bf X^\prime X)^{-1}X^\prime}\pmb y](https://math.jianshu.com/math?formula=%5Cpmb%20b%20%3D%20%7B(%5Cbf%20X%5E%5Cprime%20X)%5E%7B-1%7DX%5E%5Cprime%7D%5Cpmb%20y)
3.2.3 的OLS二阶条件
要求海塞矩阵(Hessian)正定,即:
![\frac{\partial^2(\text{SSR})}{\partial \tilde{\pmb{\beta}} \partial \tilde{\pmb{\beta}}^\prime} \equiv \frac{\left( \frac{\partial \text{SSR}}{\partial \tilde{\pmb{\beta}}} \right)}{\partial \tilde{\pmb{\beta}}^\prime} \equiv \left(\begin{array}{ccc} \frac{\partial^{2} \mathrm{SSR}}{\partial^{2} \tilde{\beta}_{1}} & \cdots & \frac{\partial^{2} \mathrm{SSR}}{\partial \tilde{\beta}_{1} \partial \tilde{\beta}_{k}} \\ \vdots & & \vdots \\ \frac{\partial^{2} \mathrm{SSR}}{\partial \tilde{\beta}_{k} \partial \tilde{\beta}_{1}} & \cdots & \frac{\partial^{2} \mathrm{SSR}}{\partial^{2} \tilde{\beta}_{k}} \end{array}\right)=2 \bf{X}^{\prime} \bf{X}](https://math.jianshu.com/math?formula=%5Cfrac%7B%5Cpartial%5E2(%5Ctext%7BSSR%7D)%7D%7B%5Cpartial%20%5Ctilde%7B%5Cpmb%7B%5Cbeta%7D%7D%20%5Cpartial%20%5Ctilde%7B%5Cpmb%7B%5Cbeta%7D%7D%5E%5Cprime%7D%20%5Cequiv%20%5Cfrac%7B%5Cleft(%20%5Cfrac%7B%5Cpartial%20%5Ctext%7BSSR%7D%7D%7B%5Cpartial%20%5Ctilde%7B%5Cpmb%7B%5Cbeta%7D%7D%7D%20%5Cright)%7D%7B%5Cpartial%20%5Ctilde%7B%5Cpmb%7B%5Cbeta%7D%7D%5E%5Cprime%7D%20%5Cequiv%20%5Cleft(%5Cbegin%7Barray%7D%7Bccc%7D%20%5Cfrac%7B%5Cpartial%5E%7B2%7D%20%5Cmathrm%7BSSR%7D%7D%7B%5Cpartial%5E%7B2%7D%20%5Ctilde%7B%5Cbeta%7D_%7B1%7D%7D%20%26%20%5Ccdots%20%26%20%5Cfrac%7B%5Cpartial%5E%7B2%7D%20%5Cmathrm%7BSSR%7D%7D%7B%5Cpartial%20%5Ctilde%7B%5Cbeta%7D_%7B1%7D%20%5Cpartial%20%5Ctilde%7B%5Cbeta%7D_%7Bk%7D%7D%20%5C%5C%20%5Cvdots%20%26%20%26%20%5Cvdots%20%5C%5C%20%5Cfrac%7B%5Cpartial%5E%7B2%7D%20%5Cmathrm%7BSSR%7D%7D%7B%5Cpartial%20%5Ctilde%7B%5Cbeta%7D_%7Bk%7D%20%5Cpartial%20%5Ctilde%7B%5Cbeta%7D_%7B1%7D%7D%20%26%20%5Ccdots%20%26%20%5Cfrac%7B%5Cpartial%5E%7B2%7D%20%5Cmathrm%7BSSR%7D%7D%7B%5Cpartial%5E%7B2%7D%20%5Ctilde%7B%5Cbeta%7D_%7Bk%7D%7D%20%5Cend%7Barray%7D%5Cright)%3D2%20%5Cbf%7BX%7D%5E%7B%5Cprime%7D%20%5Cbf%7BX%7D)
在这里, 表示对 的每一个分量求偏导,然后把这些偏导数以行向量的形式排列好。
是一个正定矩阵。
不过,根据CLRM的“没有严格多重共线性”假定,我们假设了 满秩,从而 也是满秩的,所以海赛矩阵必正定
有了一阶条件,我们就有了估计参数 的OLS估计量 ,于是就自然有了 的拟合值(fitted values)或预测值(predicted values):
由于残差向量 与解释变量 正交(见一阶条件),因此可以得到拟合值也与残差向量正交。
证明: 与 正交
证毕。
3.2.4 的估计
至于扰动项的方差 ,总体扰动 无法观测,而样本残差 则可以近似地看出是 的实现值,所以使用以下的统计量估计方差 :
分母是 保证了 是对 的无偏估计量。 其实是自由度,因为正规方程组有 个方程(因为有 个解释变量),所以只有 个方程是“自由”的。直观地说,如果得到了其中的 个方程以后,剩下的 个方程都可以根据正规方程组推算出来。当然,在大样本中 ,从而 ,这时候分母使用 还是 没有多大差别。
另外,我们称 为回归方程的标准误(差)(standard error of the regression),一般直接简称标准误(standard error)
3.2.5 本节小结
正规方程组
![{\bf X}^{\prime}\underbrace{(\pmb y-{\bf X} \pmb b)}_{=\pmb e}=0](https://math.jianshu.com/math?formula=%7B%5Cbf%20X%7D%5E%7B%5Cprime%7D%5Cunderbrace%7B(%5Cpmb%20y-%7B%5Cbf%20X%7D%20%5Cpmb%20b)%7D_%7B%3D%5Cpmb%20e%7D%3D0)
残差与解释变量和拟合值正交
![{\rm E}(\pmb{\hat y}^\prime\pmb e) ={\rm E}({\bf X}^\prime\pmb e)=0](https://math.jianshu.com/math?formula=%7B%5Crm%20E%7D(%5Cpmb%7B%5Chat%20y%7D%5E%5Cprime%5Cpmb%20e)%20%3D%7B%5Crm%20E%7D(%7B%5Cbf%20X%7D%5E%5Cprime%5Cpmb%20e)%3D0)
的估计量
![\pmb b = ({\bf X^\prime X})^{-1}{\bf X}^\prime \pmb y](https://math.jianshu.com/math?formula=%5Cpmb%20b%20%3D%20(%7B%5Cbf%20X%5E%5Cprime%20X%7D)%5E%7B-1%7D%7B%5Cbf%20X%7D%5E%5Cprime%20%5Cpmb%20y)
的估计、标准误
![s = \sqrt{s^2} = \sqrt{\frac{\pmb e^\prime \pmb e}{n-K}}](https://math.jianshu.com/math?formula=s%20%3D%20%5Csqrt%7Bs%5E2%7D%20%3D%20%5Csqrt%7B%5Cfrac%7B%5Cpmb%20e%5E%5Cprime%20%5Cpmb%20e%7D%7Bn-K%7D%7D)
|