使用 scipy 的意外置信区间

问题描述

我使用 scipy 计算了 95% 的置信区间,结果与我预期的不同。

我正在解决一个问题,有人掷了 20K 次骰子并观察到 ​​3,932 个 6。我被要求为掷出 6 的概率建立 95% 的置信区间。 6 的数量遵循二项式分布,重复次数为 20K,成功概率为 3,932 / 20K。

# Number of observations
n_obs = 20000

# Observed proportion of successes
p_obs = 3932 / n_obs

# Observed standard deviation
s_obs = numpy.sqrt((p_obs * (1 - p_obs)) / n_obs)

如果我对这些参数使用正态近似值,则置信区间应为 p_obs ± 1.96 * s_obs。即在 0.1911 和 0.2021 之间。

但是,如果我执行以下操作,它会返回一个完全不同的间隔。

# Declare normal random variable
X = scipy.stats.norm(loc=p_obs,scale=s_obs)

# Get interval
X.interval(alpha=0.05)
> (0.1964,0.1968)        # Different to what I was expecting

为什么会这样?我错过了什么吗?

解决方法

这确实违反直觉,但结果证明 alpha 方法中的 interval() 参数是包含在区间边缘内的分布的概率。

因此,计算 95% 置信区间的正确方法是:

X.interval(alpha=0.95)
> (0.19109204017782955,0.20210795982217045)

这违背了统计中使用的标准命名法,所以我提出了一个 issue on GitHub。显然它也会导致与其他方法的名称冲突。