普通最小二乘法(OLS)
普通最小二乘法(OrdinaryLeastSquare,简称OLS),是应用最多的参数估计方法,
也是从最小二乘原理出发的其他估计方法的基础,是必须熟练掌握的一种方法。
在已经获得样本观测值ii
xy,
(i=1,2,…,n)的情况下(见
图2.2.1中的散点),假如模型(2.2.1)的参数估计量已经求
得到,为
^
0
和
^
1
,并且是最合理的参数估计量,那么直线
方程(见图2.2.1中的直线)
ii
xy
^
1
^
0
^
i=1,2,…,n(2.2.2)
应该能够最好地拟合样本数据。其中
^
i
y
为被解释变量的估计值,它是由参数估计量和解释
变量的观测值计算得到的。那么,被解释变量的估计值与观测值应该在总体上最为接近,判
断的标准是二者之差的平方和最小。
),()(
10
22
10
1
QuxyQ
ii
n
i
i
),(min
ˆˆ
ˆˆ
10
2
1
10
2
1
2
ˆ
,
ˆ
1100
QxyyyuQ
n
ii
n
iii
(2.2.3)
为什么用平方和?因为二者之差可正可负,简单求和可能将很大的误差抵消掉,只有平
方和才能反映二者在总体上的接近程度。这就是最小二乘原则。那么,就可以从最小二乘
原则和样本观测值出发,求得参数估计量。
由于
2
1
^
1
^
0
1
2
^
))((
)(
n
ii
n
ii
xy
yyQ
=
是
^
0
、
^
1
的二次函数并且非负,所以其极小值总是存在的。根据罗彼塔法则,当Q对
^
0
、
^
1
的一阶偏导数为0时,Q达到最小。即
0
0
1100
1100
ˆ
,
ˆ
1
ˆ
,
ˆ
0
Q
Q
(2.2.4)
容易推得特征方程:
0)
ˆˆ
(
0
ˆ
)
ˆˆ
(
10
1
1
10
iiii
n
i
i
iiii
n
i
i
exxyx
eyyxy
解得:
2
^
1
^
0
^
1
^
0
iiii
ii
xxxy
xny
(2.2.5)
所以有:
xy
xx
yyxx
xxn
yxyxn
n
i
i
n
i
ii
n
i
i
n
i
i
n
i
i
n
i
i
n
i
ii
10
1
2
1
2
11
2
111
1
ˆˆ
)(
))((
)(
)()(
ˆ
(2.2.6)
于是得到了符合最小二乘原则的参数估计量。
为减少计算工作量,许多教科书介绍了采用样本值的离差形式的参数估计量的计算公
式。由于现在计量经济学计算机软件被普遍采用,计算工作量已经不是什么问题。但离差形
式的计算公式在其他方面也有应用,故在此写出有关公式,不作详细说明。记
i
x
n
x
1
i
y
n
y
1
yyy
xxx
ii
ii
(2.2.6)的参数估计量可以写成
xy
x
yx
n
t
i
n
t
ii
10
1
2
1
1
ˆˆ
ˆ
(2.2.7)
至此,完成了模型估计的第一项任务。下面进行模型估计的第二项任务,即求随机误差项方
差的估计量。记
iiii
yyue
ˆˆ
为第i个样本观测点的残差,即被解释变量的估计值
与观测值之差。则随机误差项方差的估计量为
2
ˆ
2
2
n
e
i
u
(2.2.8)
在关于
2ˆ
u
的无偏性的证明中,将给出(2.2.8)的推导过程,有兴趣的读者可以参考
有关资料。
在结束普通最小二乘估计的时候,需要交代一个重要的概念,即“估计量”和“估计值”
的区别。由(2.2.6)给出的参数估计结果是由一个具体样本资料计算出来的,它是一个“估
计值”,或者“点估计”,是参数估计量
^
0
和
^
1
的一个具体数值;但从另一个角度,仅仅
把(2.2.6)看成
^
0
和
^
1
的一个表达式,那么,则是i
y
的函数,而i
y
是随机变量,所以
^
0
和
^
1
也是随机变量,在这个角度上,称之为“估计量”。在本章后续内容中,有时把
^
0
和
^
1
作为随机变量,有时又把
^
0
和
^
1
作为确定的数值,道理就在于此。
本文发布于:2022-12-09 15:32:24,感谢您对本站的认可!
本文链接:http://www.wtabcd.cn/fanwen/fan/88/73340.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |