1.为什么样本方差的分母是n-1
首先给出样本方差的计算方法:
[S^2=frac{1}{n-1}sum_{i=1}^{n}{(X_i-ar{X})}^2]
其中样本均值
[ar{X}=frac{1}{n}sum_{i=1}^{n}X_i]
总体方差(在总体均值$mu$已知的情况下)的定义是
[{sigma}^2=frac{1}{n}sum_{i=1}^{n}{(X_i-mu)}^2]
那为什么样本方差的分母要使用n-1而不是n,证明如下:
======插入:证明需要用到以下性质======
(1)期望的线性可加性:若$X$和$Y$是两个随机变量,则他们的期望的和等于和的期望,即
[E(aX+bY)=aE(X)+bE(Y)]
(2)方差的性质
若$X$和$Y$相互独立,则
[D(aX+bY)=a^2DX+b^2DY]
(3)若总体$X$的均值、方差均存在,且$EX=mu$,$DX={sigma}^2$,则
[Ear{X}=mu]
[Dar{X}=frac{sigma^2}{n}]
证明:
[Ear{X}=Eleft(frac{1}{n}sum_{i=1}^{n}X_i ight)=frac{1}{n}sum_{i=1}^{n}{EX_i}=frac{1}{n}sum_{i=1}^{n}EX=mu]
[Dar{X}=Dleft(frac{1}{n}sum_{i=1}^{n}X_i ight)=frac{1}{n^2}sum_{i=1}^{n}{DX_i}=frac{1}{n^2}sum_{i=1}^{n}DX=frac{1}{n^2}nsigma^2=frac{sigma^2}{n}]
======
[Eleft(S^2 ight)=frac{1}{n-1}Eleft(sum_{i=1}^{n}left(X_i-ar{X} ight)^2 ight)=frac{1}{n-1}Eleft(sum_{i=1}^{n}left(X_i-mu+mu-ar{X} ight)^2 ight)=frac{1}{n-1}Eleft(sum_{i=1}^{n}left(left(X_i-mu ight)^2-2(X_i-mu)(ar{X}-mu)+left(ar{X}-mu ight)^2 ight) ight)=frac{1}{n-1}Eleft(sum_{i=1}^{n}{left(X_i-mu ight)^2-2(ar{X}-mu)sum_{i=1}^{n}{(X_i-mu)}+{nleft(ar{X}-mu ight)}^2} ight)=frac{1}{n-1}Eleft(sum_{i=1}^{n}{left(X_i-mu ight)^2-2n(ar{X}-mu)(ar{X}-mu)+{nleft(ar{X}-mu ight)}^2} ight)=frac{1}{n-1}Eleft(sum_{i=1}^{n}{left(X_i-mu ight)^2-{nleft(ar{X}-mu ight)}^2} ight)=frac{1}{n-1}sum_{i=1}^{n}{E(left(X_i-mu ight)^2)-nE(left(ar{X}-mu ight)^2)}=frac{1}{n-1}left(nsigma^2-nfrac{sigma^2}{n} ight)=sigma^2]
因此样本方差$S^2$是总体方差$sigma^2$的无偏估计。
2.什么是无偏估计
无偏估计是用样本统计量来估计总体参数时的一种无偏推断。估计量的数学期望等于被估计参数的真实值,则称此估计量为被估计参数的无偏估计,即具有无偏性,是一种用于评价估计量优良性的准则。无偏估计的意义是:在多次重复下,它们的平均数接近所估计的参数真值。——来源于百度百科
3.软件的计算方法
在matlab和R中,默认使用的都是样本标准差,即分母是n-1,如下。
>> std([1,2,3])
ans =
1
> sd(c(1,2,3)) [1] 1
而在Python中,需要注意默认是用的分母为n的标注差,需要加ddof = 1才是样本标准差。
import numpy as np
a=np.std([1,2,3])
b=np.std([1,2,3],ddof = 1)
print('a=',a,',b=',b)
a= 0.816496580927726 ,b= 1.0
4.关于是否有偏的测试
mus=[];
sigmas=[];
means=[];
std_ns=[];
std_n_1s=[];
mse_n=[];
mse_n_1=[];
for i=1:10000
mu=rand;
sigma=rand;
r = normrnd(mu,sigma,[1,20]);
mus=[mus,mu];
sigmas=[sigmas,sigma];
means=[means,mean(r)];
std_ns=[std_ns,std_n(r)];
std_n_1s=[std_n_1s,std_n_1(r)];
mse_n=[mse_n,mean(std_ns-sigmas)];
mse_n_1=[mse_n_1,mean(std_n_1s-sigmas)];
end
plot(mse_n);hold on;plot(mse_n_1);
hold off;
legend('std n','std n-1');
function s=std_n(x)
s=sqrt(sum((x-mean(x)).^2)/length(x));
end
function s=std_n_1(x)
s=sqrt(sum((x-mean(x)).^2)/(length(x)-1));
end

可以看到,使用n-1为分母计算出的比n更加精确。