计量经济学导论01:简单回归模型 您所在的位置:网站首页 对模型的基本假定 计量经济学导论01:简单回归模型

计量经济学导论01:简单回归模型

#计量经济学导论01:简单回归模型| 来源: 网络整理| 查看: 265

目录Chapter 1:简单回归模型一、相关与回归Part 1:相关程度的度量Part 2:简单线性回归的模型设定Part 3:简单线性回归的基本假定二、简单线性回归的参数估计Part 1:普通最小二乘法Part 2:普通最小二乘估计的代数性质三、拟合优度Part 1:总变差的分解Part 2:拟合优度四、简单线性回归的假设检验Part 1:普通最小二乘估计的统计分布Part 2:变量的显著性检验五、对数形式的线性回归模型

Chapter 1:简单回归模型 一、相关与回归 Part 1:相关程度的度量

回顾在概率论与数理统计中,我们常常使用相关系数去度量随机变量 \(X\) 和 \(Y\) 之间的线性相关程度:

总体相关系数

\[\rho_{XY} = \frac{{\rm Cov}(X,\,Y)}{\displaystyle\sqrt{{\rm Var}(X){\rm Var}(Y)}} , \]

样本相关系数

\[r_{XY} = \frac{\displaystyle\sum_{i=1}^n(X_i-\bar{X})(Y_i-\bar{Y})}{\displaystyle\sqrt{\displaystyle\sum_{i=1}^n(X_i-\bar{X})\displaystyle\sum_{i=1}^n(Y_i-\bar{Y})}} , \]

在使用相关系数时,我们需要注意以下几点:

相关系数只反映变量间的线性相关程度,不能说明非线性相关关系;

样本相关系数是总体相关系数的样本估计值,由于抽样波动,样本相关系数是个随机变量,其统计显著性有待检验;

相关系数只能反映线性相关程度,不能确定因果关系。

在计量经济学中,利用相关系数单纯地发现两个或多个变量间具有某种联系,这样的结论是很难令人信服和满意的。我们常常关心的是一个变量对另一个变量之间的因果关系,以及隐藏在随机性后面的统计规律性,于是我们需要引入回归分析的方法。

回归分析的研究对象是具有相关关系的变量,研究目的是寻求它们之间客观存在的依赖关系。我们将从一元线性回归模型开始讨论,大致思路将按照模型设定、基本假设、参数估计、假设检验的顺序展开,并逐渐延伸。

Part 2:简单线性回归的模型设定

简单回归模型可以用来研究两个变量之间的关系。我们直接从概念引入,然后再对其细节逐一解释。首先,我们需要注意辨析以下几个概念:

总体回归函数(PRF)

\[{\rm E}(Y_i|X_i) = \beta_0+\beta_1X_i. \]

总体回归模型(PRM)

\[Y_i = \beta_0+\beta_1X_i+u_i . \]

样本回归函数(SRF)

\[\hat{Y}_i=\hat{\beta}_0+\hat{\beta}_1X_i . \]

样本回归模型(SRM)

\[Y_i=\hat{\beta}_0+\hat{\beta}_1X_i+e_i. \]

线性的含义:\(Y\) 和 \(X\) 之间并不一定存在线性关系,但是,只要通过转换可以使 \(Y\) 的转换形式和 \(X\) 的转换形式存在相对于参数的线性关系,该模型即称为线性模型。

随机干扰项:在总体回归模型中,随机干扰项 \(u\) 是一个不可观测的随机变量,代表了除了 \(X\) 之外可以影响 \(Y\) 的因素。其重要程度在于随机干扰项 \(u\) 的性质往往决定着计量方法的选择,在后续的内容中我们将对这些方法逐一涉及。

Part 3:简单线性回归的基本假定

为什么要作基本假定?回归分析的主要目的是通过样本回归模型尽可能准确的估计总体回归模型。由于我们在模型中引入了随机扰动项,只有对随机扰动的分布作出假定,才能确定所估计参数的分布性质,也才可能进行假设检验和区间估计。在这里我们仅介绍必要的模型假设,关于线性回归基本假设的严格定义,以及涉及参数估计和假设检验的推导过程将在多元回归分析部分展开详述。

条件零均值:\({\rm E}(u_i|x)=0\) ,其含义为在给定解释变量 \(x\) 的条件下,随机误差项的均值为 \(0\) ,即不包含任何系统的趋势。利用全期望公式可以推导出无条件零均值:\({\rm E}(u_i)={\rm E}\left[{\rm E}(u_i|x)\right]=0\) 。

同方差:\({\rm Var}(u_i|x)=\sigma^2\) ,其含义为在给定解释变量 \(x\) 的条件下,被解释变量 \(y_i\) 在其均值附近的波动程度是一致的。

序列无关:\({\rm Cov}(u_i,u_j|x)=0,\,i\neq j\) ,其含义为在给定解释变量 \(x\) 的条件下,不同次的观测是彼此不相关的。

正态性:\(u_i|x\sim N(0,\sigma^2)\) 。正态性假设的提出旨在为区间估计和假设检验提供服务。事实上,正态性假定不影响对参数的点估计,只有在确定参数的统计分布时才有所需要。在正态性假定下,可以得到 \(y|x\sim N(\beta_0+\beta_1x,\sigma^2)\) 。

二、简单线性回归的参数估计 Part 1:普通最小二乘法

我们称样本回归函数中的 \(\hat{y}\) 为被解释变量的拟合值,理想的估计方法应该使得样本理论值 \(y_i\) 和拟合值 \(\hat{y}_i\) 的差距(即残差 \(e_i=\hat{u}_i\) )越小越好。由于 \(e_i\) 可正可负,所以我们取其平方和的最小值作为拟合的目标函数。

基本思想:最小化残差平方和

\[\min \displaystyle\sum_{i=1}^ne_i^2 = \min \displaystyle\sum_{i=1}^n(y_i-\hat{\beta}_0-\hat\beta_1x_i)^2 . \]

取偏导数为 \(0\) 可以 OLS 估计值的一阶条件:

\[\begin{aligned} &\frac1n\displaystyle\sum_{i=1}^n(y_i-\hat{\beta}_0-\hat\beta_1x_i)=0 , \\ \\ &\frac1n\displaystyle\sum_{i=1}^nx_i(y_i-\hat{\beta}_0-\hat\beta_1x_i)=0 . \end{aligned} \]

求解一阶条件即可得到回归系数的 OLS 估计:

\[\begin{aligned} &\hat{\beta}_0=\bar{y}-\hat{\beta}_1\bar{x} , \\ \\ &\hat{\beta}_1=\frac{\displaystyle\sum_{i=1}^n(x_i-\bar{x})(y_i-\bar{y})}{\displaystyle\sum_{i=1}^n(x_i-\bar{x})^2} . \end{aligned} \]

给出 \(\sigma^2\) 的 OLS 估计(不作证明):

\[\hat{\sigma}^2=\frac{\sum\limits_{i=1}^n e_i^2}{n-2} . \]

注意,这里的 \(\hat\sigma^2\) 是 \(\sigma^2\) 的无偏估计,但 \(\hat\sigma\) 仅是 \(\sigma\) 的一致估计而非无偏估计。

Part 2:普通最小二乘估计的代数性质

根据 OLS 估计值的一阶条件,我们可以推导出 OLS 估计值及其相关统计量的一些有用的代数性质。这些代数性质在我们后面计算总变差的分解和定义拟合优度时会起到很大的作用。

(1) OLS 残差和及其样本均值都为零:

\[\sum_{i=1}^n e_i=0. \]

(2) 解释变量和 OLS 残差的样本协方差为零:

\[\sum_{i=1}^nx_ie_i=0. \]

(3) 点 \((\bar{x},\,\bar{y})\) 总在 OLS 回归线上:

\[\bar{y}= \hat\beta_0+\hat\beta_1\bar{x}. \]

三、拟合优度 Part 1:总变差的分解

首先我们先定义总变差,即总平方和(Total Sum of Squares),伍德里奇将其缩写为 \(\rm SST\) ,在其他的一些教材中也写作 \(\rm TSS\) 。 \(\rm SST\) 度量了 \(y_i\) 在样本中的分散程度,可以发现如果我们将 $ \rm SST$ 除以 \(n-1\) 便得到了 \(y_i\) 的样本方差:

\[{\rm SST}=\sum_{i=1}^n(y_i-\bar{y})^2. \]

类似的,我们定义回归平方和(Explained Sum of Squares)用来度量 \(\hat{y}_i\) 的样本波动,在这里我们继续沿用伍德里奇的写法,记为 \({\rm SSE}\) :

\[{\rm SSE}=\sum_{i=1}^n(\hat{y}_i-\bar{y})^2. \]

最后我们定义残差平方和(Residual Sum of Squares)用来度量残差 \(e_i\) 的样本波动,简记为 \({\rm SSR}\) :

\[{\rm SSR}=\sum_{i=1}^n(y_i-\hat{y}_i)^2=\sum_{i=1}^ne_i^2. \]

这里的缩写方式对于不同的教材和作者有着不同的习惯,在不同的计量经济学软件中也有不同的表示,在本篇笔记中我们仅参考伍德里奇在《计量经济学导论》中的写法,希望读者谅解。

关于总变差的分解,其含义为:\(y\) 的总波动总能表示成能解释的波动和不能解释的波动之和,即

\[{\rm SST=SSE+SSR}. \]

利用上述 OLS 的代数性质,给出证明:

\[\begin{aligned} {\rm SST}=\sum_{i=1}^n(y_i-\bar{y})^2 &=\sum_{i=1}^n\left[(y_i-\hat{y}_i)+(\hat{y}_i-\bar{y})\right]^2 \\ &=\sum_{i=1}^n(y_i-\hat{y}_i)^2+2\sum_{i=1}^n(y_i-\hat{y}_i)(\hat{y}_i-\bar{y})+\sum_{i=1}^n(\hat{y}_i-\bar{y})^2 \\ &={\rm SSR}+2\sum_{i=1}^ne_i\left[(\hat\beta_0+\hat\beta_1x_i)-(\hat\beta_0+\hat\beta_1\bar{x})\right]+{\rm SSE} \\ &={\rm SSR}+2\hat\beta_1\left(\sum_{i=1}^ne_ix_i-\bar{x}\sum_{i=1}^ne_i\right)+{\rm SSE} \\ &= {\rm SSR}+{\rm SSE} . \end{aligned} \]

Part 2:拟合优度

通过 OLS 估计我们可以得到样本回归函数 \(\hat{y}=\hat\beta_0+\hat\beta_1 x\) ,也可以称为样本回归线。现在我们想要计算出一个数值,用以概括回归线对数据拟合的程度是好是坏,即引入拟合优度的概念。根据之前的总变差分解公式,我们用回归平方和占 \(y\) 的总变差的比例来判断样本回归线与样本观测值的拟合优度,用 \(R^2\) 来表示,称之为可决系数:

\[R^2=\frac{\rm SSE}{\rm SST}=\frac{\rm SST-SSR}{\rm SST}=1-\frac{\rm SSR}{\rm SST} . \]

可能会有这样一个疑问:既然 \({\rm SSR}\) 反映了样本观测值与估计值偏离的大小,可否直接用它作为拟合优度检验的统计量?事实上,检验统计量一般应选择相对量而不用绝对量,而 \({\rm SSR}\) 的大小和样本容量 \(n\) 的关系很大,样本容量小的回归方程肯定有更小的残差平方和,不能因此而判断模型的拟合优度较好。

根据以上定义,我们可以概括可决系数 \(R^2\) 的特点如下:

\(R^2\) 越大,模型的拟合优度越好;

取值范围: \(0\leq R^2 \leq 1\) ;

\(R^2\) 是随抽样而变动的随机变量;

\(R^2\) 不因变量 \(y\) 或 \(x\) 的单位变化而改变。

但使用可决系数 \(R^2\) 时应注意以下几点:

可决系数 \(R^2\) 只是说明模型中的所有解释变量对因变量的联合影响程度,特别在多元回归模型中, \(R^2\) 不能说明模型中每个解释变量的影响程度。 在模型中加入新的解释变量会使得 \(R^2\) 增大,因此基于 \(R^2\) 的大小来对解释变量进行筛选可能会导致一些不合理的模型。 如果建模的目的只是为了预测因变量的值,而不是为了得到符合经济意义的估计回归系数,一般可考虑有较高的可决系数。 四、简单线性回归的假设检验 Part 1:普通最小二乘估计的统计分布

变量的显著性检验用来对模型中被解释变量与解释变量之间的线性关系是否显著成立做出推断,可以弥补 \(R^2\) 不能解释每个变量的影响程度的不足。在这里我们只讨论斜率参数的估计 \(\hat\beta_1\) 的统计分布。

在满足基本假设的情况下,我们可以推导出 \(\hat\beta_1\) 的概率分布:

\[\hat{\beta}_1 \sim N\left(\beta_1, \frac{\sigma^2}{\sum_\limits{i=1}^n(x_i-\bar{x})^2}\right). \]

在这里我们先给出结论,其推导过程我们在多元回归分析的部分引入严格意义上的经典假设和高斯-马尔科夫定理之后进行证明。

对 \(\hat\beta_1\) 的概率分布进行标准变换即可得到:

\[\frac{\hat\beta_1-\beta_1}{{\rm sd}(\hat\beta_1)}\sim N(0,1) , \]

其中,\({\rm sd}(\hat\beta_1)\) 表示 \(\beta_1\) 的标准差:

\[{\rm sd}(\hat{\beta}_1 )={\frac{\sigma}{\sqrt{\sum_\limits{i=1}^n(x_i-\bar{x})^2}}} , \]

但需要满足一个前提,即 \(\sigma\) 是一个已知的常数。若 \(\sigma\) 未知,我们需要用 \(\hat\sigma\) 代替,此时计算得到的统计量我们称之为标准误(standard error),即

\[{\rm se}(\hat{\beta}_1 )={\frac{\hat\sigma}{\sqrt{\sum_\limits{i=1}^n(x_i-\bar{x})^2}}} , \]

进而我们用可以计算的 \(\hat\beta_1\) 的标准误代替不可计算的标准差去构造我们的检验统计量,但此时 \(\dfrac{\hat\beta_1-\beta_1}{{\rm se}(\hat\beta_1)}\) 将不再服从标准正态分布,而是 \(t\) 分布:

\[\frac{\hat\beta_1-\beta_1}{{\rm sd}(\hat\beta_1)}\sim t(n-2) , \]

其中 \(n\) 为样本容量, \(n-2\) 为自由度。

Part 2:变量的显著性检验

在已知统计量的分布之后,我们可以进行下述的假设检验过程。

提出假设:

\[H_0:\beta_1=0 \ \longleftrightarrow \ H_1:\beta_1 \neq 0 , \]

构造 \(t\) 统计量:

\[T=\frac{\hat{\beta}_1 -\beta_1}{{\rm se}(\hat{\beta}_1)}\sim t(n-2), \]

给定显著性水平 \(\alpha\),如果

\[|T|>t_{\alpha/2}(n-2) , \]

则称 \(t\) 统计量在 \(\alpha\) 的显著性水平下显著,拒绝原假设。

当然我们还可以使用 \(p\) 值。 \(p\) 值是基于既定的样本数据所计算的统计量,是拒绝原假设的最低显著性水平:设由样本算出检验统计量 \(T\) 的值为 \(t_0\) ,则

\[p=2\times P(t>|t_0|) . \]

我们可以理解为当 \(p



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有