问题描述
我使用 scipy 计算了 95% 的置信区间,结果与我预期的不同。
我正在解决一个问题,有人掷了 20K 次骰子并观察到 3,932 个 6。我被要求为掷出 6 的概率建立 95% 的置信区间。 6 的数量遵循二项式分布,重复次数为 20K,成功概率为 3,932 / 20K。
# Number of observations
n_obs = 20000
# Observed proportion of successes
p_obs = 3932 / n_obs
# Observed standard deviation
s_obs = numpy.sqrt((p_obs * (1 - p_obs)) / n_obs)
如果我对这些参数使用正态近似值,则置信区间应为 p_obs
± 1.96 * s_obs
。即在 0.1911 和 0.2021 之间。
但是,如果我执行以下操作,它会返回一个完全不同的间隔。
# Declare normal random variable
X = scipy.stats.norm(loc=p_obs,scale=s_obs)
# Get interval
X.interval(alpha=0.05)
> (0.1964,0.1968) # Different to what I was expecting
为什么会这样?我错过了什么吗?
解决方法
这确实违反直觉,但结果证明 alpha
方法中的 interval()
参数是包含在区间边缘内的分布的概率。
因此,计算 95% 置信区间的正确方法是:
X.interval(alpha=0.95)
> (0.19109204017782955,0.20210795982217045)
这违背了统计中使用的标准命名法,所以我提出了一个 issue on GitHub。显然它也会导致与其他方法的名称冲突。