估计量的期望等于真值称为无偏估计量?

估计量的期望等于真值是无偏估计量的话,那么真值怎么确定呢?x横是E(X)的无偏估计量,是不是说E(x横)=E(X),这句话又是什么意思呢?平均值怎么会有数学期望?

你说的这个比较难以理解,你慢慢听我说。

首先,你说的每一句话都是对的:估计量的期望等于真值是无偏估计量。

实际应用中,真正的真值永远无法确定。

为了打字方便,我们用Y代替“X横”。
Y是n次重复的随机试验的平均值,每一次都与X是相同分布的,也就是:
Y=(X1+X2+...+Xn)/n,其中:X1、X2、...、Xn与X独立同分布
无偏估计,就是指:E(Y)=E(X)
这最初看来是个废话,但是用来进行估计的公式:Y=(X1+X2+...+Xn)/n 是人为确定的。
如果我们成心捣乱,用另一个坑爹的公式估计,比如:Y'=(X1+X2+...+Xn)/(n-1),那么E(Y')就不再等于E(X),从而这个新的Y'就不是无偏估计了。

所谓“平均值怎么会有数学期望”。
因为Y是随机变量的平均值,所以它也是随机变量,所以它也有数学期望。
Y本身也是个随机变量,你可以这样想:我们先进行n次随机试验,得到一个Y值;我们再进行n次试验,又得到一个Y值。这两次得到的Y值是不同的,也就是说:Y本身是随机的。一次Y的随机试验是由n次X的随机试验合起来的。用抽象的公式表示出来,就是:
Y=(X1+X2+...+Xn)/n
这个公式和平常遇到的随机变量的公式是一样的,比如平时遇到的一些:X、Y是随机变量,那么 Z=X+Y 也是一个随机变量。只不过我们这个公式中 Y=(X1+X2+...+Xn)/n,合成Y的随机变量有n个,比平时多了一些而已。

真正的真值,记为μ,永远无法确定。假设进行1万次试验,测得1万个Y值,还是不能确定真正的μ值。只能从理论上说,由于是无偏估计,所以:E(Y)=μ。但不管试验1万次,还是1亿次,永远不可能得到真正的μ。

说了这么多,你肯定还是不明白,因为还没说到真正的部分:为什么要弄个无偏估计的概念?!比如:通过平均值 Y=(X1+X2+...+Xn)/n 来估计 μ,是件很正常的事,当然有 E(Y)=μ,那为什么还要费那么大劲,弄个无偏估计的概念?!

这是因为:到方差的估计上,就不一样了。
如果不看书,不知道书上的无偏估计公式,而让我们自己写个方差的估计公式,那么肯定写:
Z=[(X1-Y)^2+(X2-Y)^2+...+(Xn-Y)^2]/n
下面是难点,要理解这个公式的瑕疵:它不是无偏估计,也就是:E(Z)不等于E((X-μ)^2)。为什么呢?因为Z的公式中用的是Y,而不是μ。如果把Z的公式中的Y全部换成μ,那么它是无偏估计。可是μ的真值无法得到,所以实际应用中,肯定要用Y来代替μ。这有什么影响呢?这个影响很微妙。

因为Y本身是由X1、X2、...、Xn得到的,那么相对于这组的n个数据,Y不会像μ那么不偏不倚,而是会向着X1、X2、...、Xn的中心偏移,使得Y比较“适合”这组数据。这个“适合”的意思,就是说:如果这次的X1、X2、...、Xn偏小(随机试验嘛,总会有大有小,这次就偏小了一点儿),那么Y也会跟着偏小。正因为Y跟着X1、X2、...、Xn同步的偏大偏小,当计算方差Z时,Z就会偏小那么一丁点。不知你能不能理解我说的,这很重要,但很难用语言描述。

用几个极端的例子说明一下,就更明白了。
比如:n=1时,就用一次试验来估计。Y=X1,Z=(X1-Y)^2。这就很明显了:Z永远等于0。为什么呢?因为Y跟着X1同步变大变小,再用Y来代替μ计算方差Z,那么Z肯定就偏小了。假设我们知道μ,用Z'=(X1-μ)^2来计算方差,那就没问题了。但我们不知道μ,用的是Y代替μ,而Y偏向那组数据的中心,所以计算出来的方差就有偏差了。

再比如:n=2时。Y=(X1+X2)/2,位于两个数的平均值上。比如:μ=4,而这次试验的两个数 X1=1,X2=5 偏小了一点儿。那么Y=3也跟着偏小了一点儿。如果用μ来计算方差:
Z'=[(1-4)^2+(5-4)^2]/2=5
而如果用跟着X1、X2一同偏小的Y来计算方差:
Z=[(1-3)^2+(5-3)^2]/2=4
可见,Z永远比真正的方差小。这不像Y的估计 Y=(X1+X2+...+Xn)/n,Y的估计有大有小,最后 E(Y)=μ。Z的估计永远偏小,E(Z)<E((X-μ)^2)。

好了,就说这么多了,你慢慢理解一下吧。最后,书上的公式是经过很复杂的计算的,无偏的方差估计公式:[(X1-Y)^2+(X2-Y)^2+...+(Xn-Y)^2]/(n-1)。
温馨提示:答案为网友推荐,仅供参考
相似回答