打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
实例讲解统计学基础知识(4):参数估计

参数估计

统计学有两大主要分支,分别是描述性统计学和推断统计学。描述性统计学用于描述和概括数据的特征以及绘制各类统计图表。总体数据,往往因为数据量太大而难以被获取,所以就有了通过较小的样本数据推测总体特性的推断统计学。

推断统计学的一个研究方向就是用样本数据估算总体的未知参数,称之为参数估计。如果是用一个数值进行估计,则称为点估计;如果估计时给出的是一个很高可信度的区间范围,则称为区间估计。

本文先介绍了抽样分布和中心极限定理,并用蒙特卡洛方法进行模拟;然后引入置信区间的概念,并将之用于分析BRFSS数据中的BMI指数上。
首先依旧是导入相关Python模块和数据,顺便看下数据量。

# 输入import pandas as pdimport numpy as npimport matplotlib.pyplot as pltimport seaborn as snsimport brfssdf = brfss.ReadBrfss()bmi = df.bmi.dropna() # 取数据中的bmi列,并去除缺失值print(len(bmi))# 输出405058

中心极限定理

如果我们将上述40万多份的BMI数据看成是总体,然后从中随机抽取n个数据组成一份样本,并计算该样本的均值。重复这一过程1000次,我们就得到了1000个样本的均值分布,即抽样分布
抽样分布满足中心极限定理,即在样本量n越来越大时,均值的抽样分布将越来越接近正态分布,该分布的均值等于总体的均值;标准差,在这里也称为标准误差SE满足公式:


这里使用蒙特卡洛模拟的方法,在40万BMI数据中随机抽取n个数计算均值,并重复1000次,组成抽样分布。以下的sampling_distribution()函数用于实现这一模拟过程,并绘制抽样分布的直方图和ECDF图。

def sampling_distribution(data, sample_size=20, bins=40):    #抽样分布模拟,输出均值、标准差以及直方图、ECDF图    # 随机抽样    sampling = [np.mean(np.random.choice(data, size=sample_size, replace=False)) for _ in range(1000)]      # 输出总体和抽样分布的均值、标准差    mu = np.mean(data)    se = np.std(data) / np.sqrt(sample_size)    print('mean of sample means: %.2f' % np.mean(sampling))    print('population means: %.2f' % mu)    print('Standard deviation of sample means: %.2f' % np.std(sampling))    print('Standard Error: %.2f' % se)    # 绘制抽样分布的直方图、ECDF图    fig = plt.figure(figsize=(16,5))    p1 = fig.add_subplot(121)    plt.hist(sampling, bins=bins, rwidth=0.9)    plt.xlabel('sampling means')    plt.ylabel('counts')    p2 = fig.add_subplot(122)    plot_ecdf(sampling, xlabel='sampling means', label='sampling ')    sample = np.random.normal(mu, se, size=10000)    plot_ecdf(sample, xlabel='sampling means', label='normal distribution')    plt.show()def ecdf(data):    #计算ECDF    x = np.sort(data)    y = np.arange(1, len(x)+1) / len(x)    return (x,y)def plot_ecdf(data, xlabel=None , ylabel='ECDF', label=None):    #绘制ECDF图    x, y = ecdf(data)    _ = plt.plot(x, y, marker='.', markersize=3, linestyle='none', label=label)    _ = plt.legend(markerscale=4)    _ = plt.xlabel(xlabel)    _ = plt.ylabel(ylabel)    plt.margins(0.02)

下面我们将样本量n分别取为10、20、100,进行三次模拟。

# 输入sampling_distribution(bmi, sample_size=10)sampling_distribution(bmi, sample_size=20)sampling_distribution(bmi, sample_size=100)# 输出mean of sample means: 27.95population means: 28.04Standard deviation of sample means: 2.04Standard Error: 2.10mean of sample means: 28.11population means: 28.04Standard deviation of sample means: 1.50Standard Error: 1.49mean of sample means: 28.05population means: 28.04Standard deviation of sample means: 0.69Standard Error: 0.67




观察上面的输出结果和图形,我们发现随着样本量的递增,抽样分布越来越靠近正态分布,其均值和标准差也越来越符合中心极限定理中给出的关系。

一般当n大于等于30时,样本均值的抽样分布近似为正态分布。此时我们可以用样本的均值来估计总体的均值,这就是点估计的一种最简单的方式。但从上述分布也可以看出,样本均值其实是以一定概率在总体均值附近浮动的,所以这就有了后面将要讲的置信区间。

关于中心极限定理,还有一点需要强调的是,无论变量原来的分布是什么样的,其均值的抽样分布在n足够大时都会接近正态分布。比如我们研究BRFSS数据中人们每周运动的总时间(单位:分钟),大部分人每周运动的时间少于500分钟,而极少数人能达到3000分钟,其直方图反应数据大部分集中在左侧,而右侧有一条长长的尾巴。

exemin = df[df.exemin != 0].exemin.dropna()   # 提取锻炼时间数据,丢弃0或者缺失值plt.hist(exemin,bins=40, range=(0,3000), rwidth=0.9)  # 绘制直方图plt.xlabel('exercise mins per week')plt.ylabel('counts')plt.show()


显然这一数据分布并不满足正态分布,但是我们采用上述相同的方法模拟其样本均值的抽样分布,在样本量n为1000时,抽样分布与正态分布符合的非常好。可见中心极限定理并不要求变量原来分布的样子,这也正是其魅力所在。

# 输入sampling_distribution(exemin, sample_size=1000)# 输出mean of sample means: 499.54population means: 499.37Standard deviation of sample means: 23.60Standard Error: 23.75

正态分布的特性

既然中心极限定理中涉及了正态分布,我们就来看看其均值和标准差的一些性质。这里导入scipy的统计模块,使用scipy.stats.norm()模拟标准正态分布,即均值为0,标准差为1。使用norm.pdf()计算概率密度,并绘制概率密度函数(PDF)图。

import scipy.statsnorm = scipy.stats.norm()  # 标准正态分布x = np.arange(-5, 5, 0.02)y = norm.pdf(x)  # 概率密度plt.plot(x,y)plt.axvline(x=0,ymax=0.95, linestyle='--', color='red', alpha=0.5)plt.axvline(x=1,ymax=0.59, linestyle='--', color='green')plt.axvline(x=-1,ymax=0.59, linestyle='--', color='green')plt.axvline(x=2,ymax=0.16, linestyle='--', color='blue')plt.axvline(x=-2,ymax=0.16, linestyle='--', color='blue')plt.margins(0.02)plt.show()


PDF图中曲线下的面积代表了概率, 使用norm.cdf()可计算这部分面积,即累积概率分布。于是我们就可以得到变量距离均值在1个标准差范围内的概率为0.68,2个标准差范围内的概率是0.95,3个标准差范围内的概率是0.997。可见在正态分布中,数据主要集中在3个标准差之内。

# 输入print('1 sigma : %.3f' % (norm.cdf(1) - norm.cdf(-1)))print('2 sigma : %.3f' % (norm.cdf(2) - norm.cdf(-2)))print('3 sigma : %.3f' % (norm.cdf(3) - norm.cdf(-3)))# 输出1 sigma : 0.6832 sigma : 0.9543 sigma : 0.997

反过来,我们也可以通过概率来求变量分布的区间,这里使用norm.interval(),比如95%的情况下变量分布在-1.96到1.96之间,99%的情况下分布在-2.58到2.58之间。

# 输入norm.interval(0.95)norm.interval(0.99)# 输出(-1.959963984540054, 1.959963984540054)(-2.5758293035489004, 2.5758293035489004)

置信区间

在能够计算正态分布中一定概率下对应的变量区间后,我们再回到之前用样本均值估计总体均值时遗留的问题,即样本的均值围绕总体均值在一定范围内浮动的。我们需要估算总体均值在多大的概率下落在抽样的随机区间内,这就是置信区间。
我们仍然将40多万的bmi数据当成是总体,然后从中随机抽取样本量为100的数据,根据中心极限定理绘制抽样分布图如下。

sample_size = 100    # 计算总体的均值和标准差mu = np.mean(bmi)se = np.std(bmi) / np.sqrt(sample_size)# 绘制正态分布的PDFnorm = scipy.stats.norm(mu, se)x = np.arange(26, 31, 0.01)y = norm.pdf(x)plt.plot(x,y)# 绘制抽样分布的直方图sample_size = 100    sampling = [np.mean(np.random.choice(bmi, size=sample_size, replace=False)) for _ in range(1000)]plt.hist(sampling, bins=40, rwidth=0.9, normed=True, alpha=0.7)plt.show()


根据正态分布的性质,在95%的概率下,均值分布区间是(26.74, 29.35)。也就是说,在样本量为100时,我们有95%的信心相信总体均值落在26.74和29.35之间,这就是95%的置信区间。同理,99%的置信区间是(26.33, 29.76)。注意这是在大样本量的情况下,我们才能使用正态分布,而如果样本量n小于30,则需要采用t分布。

# 输入norm.interval(0.95)norm.interval(0.99)# 输出(26.738141245959351, 29.346706751112283)(26.328305902131977, 29.756542094939658)

区间估计的应用

回到本系列文章一直在探索的一个问题,即比较富人和普通人的BMI指数。此时,bmi数据不再当做总体看待,而是作为调查的样本,总体是BRFSS数据针对的全体美国人。首先将bmi数据按照收入等级分为两组,即富人bmi数据和普通人bmi数据。

df2 = df[['bmi', 'income']].dropna()  # 提取数据中bmi和收入水平income这两列,并忽略缺失值bmi_rich = df2[df2.income == 8].bmi   # 收入水平为8级的,认为是富人bmi_ord = df2[df2.income != 8].bmi    # 收入水平为1-7级的,认为是普通人群

以下定义了mean_ci()函数,根据置信区间的计算公式,计算95%置信度下均值所在的区间。

def mean_ci(data):    '''给定样本数据,计算均值95%的置信区间'''    sample_size = len(data)    std = np.std(data, ddof=1)  # 估算总体的标准差    se = std / np.sqrt(sample_size)  # 计算标准误差       point_estimate = np.mean(data)      z_score = scipy.stats.norm.isf(0.025)  # 置信度95%    confidence_interval = (point_estimate - z_score * se, point_estimate + z_score * se)    return confidence_interval

于是得到富人bmi95%的置信区间为(27.42, 27.49), 普通人bmi95%的置信区间为(28.51, 28.57)。这两个区间间隔的还比较远,数值上差不多有1这么多。所以我们可以比较有信心的得出富人更瘦的结论。

# 输入mean_ci(bmi_rich)mean_ci(bmi_ord)# 输出(27.415906122294761, 27.485560606043915)(28.509003170593907, 28.565637279855423)

但要注意了,以上之所以能得到这么肯定的结论,源于使用的样本数据量非常大,这大大缩小了置信区间的范围(这可以从中心极限定理中标准误差的公式看出)。现在让我们使用前500个数据,看看在样本较少时会发生什么情况。

# 输入mean_ci(bmi_rich[:500])mean_ci(bmi_ord[:500])# 输出(27.849838839563304, 28.791561160436636)(28.200546441671069, 29.303493558328935)

此时富人bmi95%的置信区间为(27.85, 28.79),而普通人bmi95%的置信区间为(28.20, 29.30),很明显这两个区间都变大了。尽管富人的bmi指数仍有相对较小的趋势,但是这两个区间有部分重合,这时我们就无法得出非常肯定的结论了。可见样本量在做判断时起着非常重要的作用,样本越大,判断越准确,这也是与我们常识相符的。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
4
Bootstrap重采样进行参数估计-置信区间
概率论中常见分布总结以及python的scipy库使用:两点分布、二项分布、几何分布、泊松分布、均匀分布、指数分布、正态分布
描述性统计、参数估计和假设检验
统计学08: 区间估计与置信区间
正态分布在机器学习中为何如此重要?
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服