前言

假设检验是统计学中非常重要的工具,可以说占据了数理统计的半壁江山。正所谓“学统计不学假设检验,就像看四大名著不看红楼梦,证明这个人的统计造诣有限,只能度过一个相对失败的人生”(手动doge)。

不仅如此,其在实际业务中也有非常普遍的应用,例如我们在数理统计的教材中都会见到的许多关于实际生产的例子,以及现在的互联网产品中常常用到的A/B测试,其理论基础正是假设检验。

本系列文章主要介绍假设检验的思想与原理,而不只是停留在知道假设检验的步骤与各种统计量。在本文中,我们会介绍假设检验的基础,重点关注最常用到的显著性检验,分析具体步骤并给出常用的假设检验,如u检验,t检验等。

假设检验基础

假设检验的思想

假设检验的基本思想是小概率反证法思想,举例来说,假设现在有一个人声称其可以准确的知道每次抛硬币是正面还是反面,我们该如何验证他说的话呢?我们可以做出一对相斥的假设

  • 假设1:这个人无法准确的知道每次抛硬币是正面还是反面
  • 假设2:这个人可以准确的知道每次抛硬币是正面还是反面

一般记假设1为H0H_0,称为原假设,记假设2为H1H_1,称为备择假设。

接着我们抛10次硬币,让这个人判断正反面,而这个人10次都判断正确。在原假设下,这个人无法准确的知道每次抛硬币是正面还是反面,所以他只能靠随机猜测,则连续10次猜对的概率为(1/2)10(1/2)^{10},这是一个小概率事件。现在这个小概率事件发生了,因此我们可以认为原假设是错的,而拒绝原假设。这就是假设检验的基本思想,建立一个假设,并在这个假设的基础上找到一个小概率事件,如果这个小概率事件发生了,就推翻这个假设。

当然我们会发现这是有问题的,那就是通过这种方法下判断是会有概率出现错误的,万一真的发生了小概率事件呢?这都是我们需要解决的问题。

假设检验的基本概念

我们可以发现,假设的范围是非常广的。形如上述的抛硬币问题,或者检验一个分布是否为正态分布这种问题,其假设无法用具体的参数来表示,这种问题被称为非参数检验,这并不是本文关注的重点。而形如一个新策略对销量的影响这种问题,可以表达为新策略执行后,销量的平均值是否高于原策略执行时的平均值,这种可以用参数来表达的问题被称为参数检验,本文主要关注参数检验。

对于参数检验问题,一个基本的假设就是其服从的分布,所谓参数估计其实就是对分布中的参数进行估计,以上述问题为例,假设销量服从正态分布N(μ,σ2)N(\mu,\sigma^2)。假设方差不变,记原策略执行时的平均值为μ1\mu_1,这是一个定值(怎么确定的这里我们先不管,现在是理想情况下讨论),也就是说原策略的销量服从分布N(μ1,σ2)N(\mu_1,\sigma^2)。记新策略执行后,销量的实际平均值为N(μ2,σ2)N(\mu_2,\sigma^2),这个**μ2\mu_2我们是不知道的**,我们就是想知道这个μ2\mu_2到底有没有比μ1\mu_1大。我们就可以做一对假设

H0:μ2μ1vsH1:μ2>μ1H_0: \mu_2 \le \mu_1 \quad \mathrm{vs} \quad H_1: \mu_2 > \mu_1

这就是一个假设检验问题理论上的基本形式。

假设检验的基本步骤

下面我们从一个例子来看看假设检验是如何进行的,主要目的是为了讲明白一些假设检验的基本概念,以及每一步是怎么来的,为什么要这样做,而不是只是背过了假设检验的计算步骤,会用来算题。

假设某工厂生产的金属,其强度标准为平均强度要大于110Pa,现在我们要检查其生产的合金强度是否达标。首先,很自然的想法就是抽样求平均值。但是这会存在一个问题,我们的抽样终归是有限的,在现有条件下,我们要下这个判断,并且要使得犯错的概率尽可能的低,这就是假设检验要解决的问题。

建立假设

假设金属强度服从正态分布N(θ,16)N(\theta,16),这里方差已知是为了方便,实际使用中当然是方差未知的情况居多。上述过程其实就是在这个正态分布中进行抽样,这里我们假设抽取25个样本,然后根据抽取的样本的均值,判断θ\theta是否大于110。这里我们可以将θ\theta的参数空间(也就是可能的取值)划分为两个不相交的集合,记为

Θ0={θ:θ110},Θ1={θ:θ<110}\Theta_{0}=\{\theta:\theta\geq110\},\quad\Theta_{1}=\{\theta:\theta<110\}

于是我们可以建立一对假设,写为

H0:θΘ0={θ:θ110}vsH1:θΘ1={θ:θ<110}H_0:\theta\in\Theta_0=\{\theta:\theta\geqslant110\}\quad\mathrm{vs}\quad H_1:\theta\in\Theta_1=\{\theta:\theta<110\}

一般简写为

H0:θ110vsH1:θ<110H_0:\theta\geqslant110\quad\mathrm{vs}\quad H_1:\theta<110

选择统计量并确定拒绝域形式

接着,我们需要划分均值的取值空间,也就是均值在什么范围内就选择拒绝H0H_0,根据上面的情景,自然是均值小于某个值的时候,我们才会选择拒绝H0H_0,因此,我们设这个值为cc,具体数值待定,可以定义拒绝域WW

W={(x1,x2,,xn):xc}={xc}W = \{ (x_1, x_2, \cdots, x_{n}):\overline{x}\leq c \} = \{ \overline{x}\leq c \}

相对的会存在一个接受域W={x>c}\overline{W} = \{ \overline{x} > c \}

注:在数学上,我们不能通过一个例子证明一个命题,但是可以通过一个例子推翻一个命题,所以,根据样本统计量,我们可以拒绝原假设,但是当统计量不在拒绝域中时,严格来讲,我们只能说没有理由拒绝原假设。但是从实际使用的角度,我们习惯于认为拒绝原假设就是接受备择假设,因此这里只是做一个补充说明。

显著性水平

现在整个假设检验就剩最后一步,那就是确定拒绝域中参数cc的具体数值,在此之前我们需要先做一些理论铺垫。

由于样本的随机性,当我们做出判断时,一定会有判断错误的概率,进行判断时会出现的情况有四种,如下表

原假设为真 备择假设为真
拒绝原假设 第一类错误 判断正确
接受原假设 判断正确 第二类错误

这里就引出了假设检验两类错误的概率,而这犯这两类错误的概率都是关于参数θ\theta的函数,分别记为α(θ)\alpha(\theta)β(θ)\beta(\theta),具体为

α(θ)=Pθ{XW},θΘ0β(θ)=Pθ{XW},θΘ1\alpha(\theta)=P_{\theta}\{X\in W\},\theta\in\Theta_0 \\ \beta(\theta)=P_{\theta}\{X\in\overline{W}\},\theta\in\Theta_1

这里不太好理解,我们来看一个例子。假设真实的参数θ\theta为111,则α(θ)\alpha(\theta)就是从正态分布N(111,16)N(111,16)中抽取25个样本,其均值落在拒绝域的概率。随着θ\theta的变化这个概率是会变化的,可以理解吧。

我们可以将α(θ)\alpha(\theta)β(θ)\beta(\theta)合并写为一个函数g(θ)g(\theta),定义为

g(θ)={α(θ)θΘ01β(θ)θΘ1g(\theta) = \begin{cases} \alpha(\theta) & \theta\in\Theta_0 \\ 1 - \beta(\theta) & \theta\in\Theta_1 \\ \end{cases}

这被成为该检验的势函数,其意义为落在拒绝域中的概率

代入本例的具体数值可以计算得

g(θ)=Pθ(xc)=Pθ(xθ4/5cθ4/5)=Φ(cθ4/5)g(\theta) = P_{\theta}(\overline{x}\le c) = P_{\theta}\left(\frac{\overline{x}-\theta}{4/5}\le\frac{c-\theta}{4/5}\right) = \Phi\left(\frac{c-\theta}{4/5}\right)

注:xN(θ,16/25)\overline{x}\sim N(\theta,16/25),通过标准化可以将其转化为标准正态分布的分布函数的形式

可以注意到,g(θ)g(\theta)关于θ\theta递减,其大致图像如下

image-20240309104013856

这也很好理解,θ\theta越大,抽样样本的均值的期望就越大,拒绝原假设的概率自然越大。

在上图中,g(θ)g(\theta)Θ0\Theta_0Θ1\Theta_1交界处的取值记为α\alpha,称为显著性水平,其意义为犯第一类错误的最大概率。这很好理解,既然是第一类错误,那首先是要在Θ0\Theta_0中,然后计算落入拒绝域的概率,也就是g(θ)g(\theta)的取值,很显然可以看出g(θ)g(\theta)的取值是小于α\alpha的。

可以看到g(θ)g(\theta)还有一个参数cc,我们可以通过改变cc的值来改变显著性水平α\alpha,同理也可以通过显著性水平α\alpha来确定cc的取值,这也就是确定拒绝域的方法。

确定拒绝域

我们当然希望一个假设检验犯错误的概率尽可能的低,但是这是不可能完全做到的,因为犯两类错误的概率是此消彼长的,也就是说,我们降低犯一类错误的概率时,必然会提高犯二类错误的概率。因此,我们在做假设检验时,一般会把我们希望是正确的结论设定为备择假设,例如,在上述例子中,我们希望工厂的生产质量是达标的,那我们就要把θ110\theta \geqslant 110设为备择假设。又或者,一个新的销售策略是否提升了销量,我们希望这个策略是有效的,那我们就可以把销量大于原策略销量设为备择假设。这样,我们就可以通过降低犯第一类错误的概率,来提高拒绝原假设的可信度,这也就提高了整个假设检验的可信度。

现在,我们就可以来确定拒绝域了,首先给出我们希望的显著性水平,一般会设定为α=0.05\alpha = 0.05,然后反向推导出cc的取值,也就是

g(110)=Φ(5(c110)4)=α\left.g\left(\begin{array}{c}110\end{array}\right.\right)=\Phi\bigg(\frac{5\left(\begin{array}{c}c-110\end{array}\right)}{4}\bigg)=\alpha

通过标准正态分布的分位数,可以写为

5(c110)4=uα\frac{5\left(c-110\right)}{4} = u_{\alpha}

得到c=110+0.8uαc = 110 + 0.8u_{\alpha},拒绝域为W={x110+0.8uα}W=\{\overline{x}\leq110+0.8u_{\alpha}\},也可以写为W={uuα}W = \{ u \le u_{\alpha} \}。其中u=xμ0σ0/nu=\frac{\overline{x}-\mu_0}{\sigma_0/\sqrt{n}},最后根据具体抽样得到的样本,计算统计量uxu_x,得到检验结果即可。

P值

现在让我们换一个角度来看,上面的方法是α\alpha出发求出uαu_{\alpha},再通过比较uxu_xuαu_{\alpha}下判断。这里我们反过来,通过uxu_x求出pp,再通过比较ppα\alpha下判断

那么这个pp是什么呢?pp值的意义是利用样本观测值能够做出拒绝原假设的最小显著性水平

如何求出pp值呢?设pp值对应的标准正态分布分位数为upu_p(等同于α\alpha对应uαu_{\alpha}),并且我们可以知道ux=upu_x = u_p,故

ux=upΦ(ux)=Φ(up)=pu_x = u_p \quad \Rightarrow \quad \Phi(u_x) = \Phi(u_p) = p

如果说,pp值小于我们设定的显著性水平α\alpha,那我们就可以拒绝原假设,反之接受原假设。有了pp值的存在,我们就不需要提前确定显著性水平α\alpha,而是通过pp值大小直接下判断。

注:这里Φ\Phi中的部分也被称为统计量,这是一种习惯性的叫法,例如,这个例子中是一个正态分布,方差已知,检验均值的问题,这类问题被称为U检验,对于这类检验问题,都需要计算

u=xμ0σ0/nu=\frac{\overline{x}-\mu_0}{\sigma_0/\sqrt{n}}

其中x\overline{x}是样本均值,μ0\mu_0是假设中出现的固定数值(在这个例子里就是110),σ0\sigma_0是已知的方差,nn是样本数。可以跟上面的计算对应一下。

uu代入分布函数中,就可以得到pp值,这个假设检验问题也就结束了。因此,形如这样的一个统计量可以代表一种假设检验方法

小结

现在我们来顺一顺假设检验的步骤

  1. 根据问题建立假设,一般将我们希望为真的命题设为备择假设
  2. 根据假设中涉及的参数,选择统计量
  3. 计算样本统计量并得到pp
  4. 根据pp值下判断

单个正态总体假设检验

在经过上述铺垫之后,我们只需要根据具体问题所涉及的分布及其参数,确定其使用何种统计量即可,下面我们来看几种常用的检验

U检验(Z检验)

U检验,又叫Z检验,用于正态分布方差已知的情况下,检验均值差异。也就是上述工厂的例子用到的方法。其统计量为

u=xμ0σ0/nu=\frac{\overline{x}-\mu_0}{\sigma_0/\sqrt{n}}

假设检验的三种形式

U检验可能的假设检验形式有三种

H0:μμ0vsH1:μ<μ0H0:μμ0vsH1:μ>μ0H0:μ=μ0vsH1:μμ0\begin{array}{ll} {H_{0}:\mu\geq\mu_{0}}&{\mathrm{vs}}&{H_{1}:\mu<\mu_{0}} \\ {H_{0}:\mu\leq\mu_{0}}&{\mathrm{vs}}&{H_{1}:\mu>\mu_{0}} \\ {H_{0}:\mu=\mu_{0}}&{\mathrm{vs}}&{H_{1}:\mu\neq\mu_{0}} \\ \end{array}

其中,前两种称为单侧检验,最后一种称为双侧检验

第一种检验就是我们上述的例子见过的那种,其拒绝域为

W={xc}={xμ0σ/ncμ0σ/n}={uu0}W = \{ \overline{x} \le c \} = \left\{ \frac{\overline{x}-\mu_0}{\sigma/\sqrt{n}} \le \frac{c-\mu_0}{\sigma/\sqrt{n}} \right\} = \{ u \le u_0 \}

在显著性水平为α\alpha的情况下,满足

P(uu0)=αP(u \le u_0) = \alpha

μ=μ0\mu = \mu_0时,而uu服从标准正态分布,从图像上来看,就是正态分布曲线左端的α%\alpha \%部分,如下图

image-20240309185527693

因此u0u_0取正态分布函数的α\alpha分位数uαu_{\alpha}

样本求出的统计量记为ux=xμ0σ/nu_x = \frac{\overline{x}-\mu_0}{\sigma/\sqrt{n}},且ux=upu_x = u_ppp值可以写为

ux=upΦ(ux)=Φ(up)=pp=Φ(ux)u_x = u_p \quad \Rightarrow \quad \Phi(u_x) = \Phi(u_p) = p \quad \Rightarrow \quad p = \Phi(u_x)

同理,第二种检验的拒绝域为

W={xc}={xμ0σ/ncμ0σ/n}={uu0}W = \{ \overline{x} \ge c \} = \left\{ \frac{\overline{x}-\mu_0}{\sigma/\sqrt{n}} \ge \frac{c-\mu_0}{\sigma/\sqrt{n}} \right\} = \{ u \ge u_0 \}

在显著性水平为α\alpha的情况下,满足

P(uu0)=αP(u \ge u_0) = \alpha

也就是正态分布曲线右端的α%\alpha \%部分,如下图

image-20240309185205637

因此u0u_0取正态分布函数的1α1 - \alpha分位数u1αu_{1 - \alpha}

样本求出的统计量记为ux=xμ0σ/nu_x = \frac{\overline{x}-\mu_0}{\sigma/\sqrt{n}},且ux=u1pu_x = u_{1 - p}pp值可以写为

ux=u1pΦ(ux)=Φ(u1p)=1pp=1Φ(ux)u_x = u_{1 - p} \quad \Rightarrow \quad \Phi(u_x) = \Phi(u_{1 - p}) = 1 - p \quad \Rightarrow \quad p = 1 - \Phi(u_x)

最后就是比较特殊的双侧检验情况,自然的想法是样本均值距离μ0\mu_0越远,拒绝原假设的概率越高,由于正态分布对称,因此拒绝域可以写为

W={xc}={xμ0σ/ncμ0σ/n}={uu0}W = \{ |\overline{x}| \ge c \} = \left\{ \left|\frac{\overline{x}-\mu_0}{\sigma/\sqrt{n}} \right| \ge \frac{c-\mu_0}{\sigma/\sqrt{n}} \right\} = \{ |u| \ge u_0 \}

在显著性水平为α\alpha的情况下,满足

P(uu0)=αP(|u| \ge u_0) = \alpha

从图像上来看就是正态分布曲线的两端,由于两端总共占α%\alpha \%,因此每一端各占α/2%\alpha/2 \%,如下图

image-20240309191354282

因此u0u_0取正态分布函数的1α/21 - \alpha/2分位数u1α/2u_{1 - \alpha/2}

样本求出的统计量记为ux=xμ0σ/n|u_x| = \frac{|\overline{x}-\mu_0|}{\sigma/\sqrt{n}},且ux=u1p/2|u_x| = u_{1 - p/2},由于统计量分布对称pp值可以写为

ux=u1p/2Φ(ux)=Φ(u1p/2)=1p/2p=2(1Φ(ux))|u_x| = u_{1 - p/2} \quad \Rightarrow \quad \Phi(|u_x|) = \Phi(u_{1 - p/2}) = 1 - p/2 \quad \Rightarrow \quad p = 2(1 - \Phi(|u_x|))

综上,我们来总结一下u检验各情况的拒绝域与pp

image-20240311210303802

假设 拒绝域 pp
H0:μμ0vsH1:μ<μ0{H_{0}:\mu\geq\mu_{0}} \quad \mathrm{vs} \quad {H_{1}:\mu<\mu_{0}} {uuα}\{ u \le u_{\alpha} \} Φ(ux)\Phi(u_x)
H0:μμ0vsH1:μ>μ0{H_{0}:\mu\leq\mu_{0}} \quad \mathrm{vs} \quad {H_{1}:\mu>\mu_{0}} {uu1α}\{ u \ge u_{1 - \alpha} \} 1Φ(ux)1 - \Phi(u_x)
H0:μ=μ0vsH1:μμ0{H_{0}:\mu=\mu_{0}} \quad \mathrm{vs} \quad {H_{1}:\mu \ne \mu_{0}} ${ u

t检验

t检验,用于正态分布方差未知的情况下,检验均值差异。此时我们用样本标准差ss来替代uu统计量中的σ0\sigma_0

t=xμ0s/nt=\frac{\overline{x}-\mu_0}{s/\sqrt{n}}

μ=μ0\mu = \mu_0时,tt统计量服从自由度为n1n-1tt分布。由于tt分布也为对称分布,故其拒绝域与pp值与u检验类似。

假设检验的三种形式

依旧沿用上述的三种检验形式,对于第一种检验,其拒绝域为

W={xc}={xμ0s/ncμ0s/n}={tt0(n1)}W = \{ \overline{x} \le c \} = \left\{ \frac{\overline{x}-\mu_0}{s/\sqrt{n}} \le \frac{c-\mu_0}{s/\sqrt{n}} \right\} = \{ t \le t_0(n-1) \}

满足

P(tt0(n1))=αP(t \le t_0(n-1)) = \alpha

t0(n1)t_0(n-1)tα(n1)t_{\alpha}(n-1),也就是拒绝域为W={ttα(n1)}W = \{ t \le t_{\alpha}(n-1) \}

样本求出的统计量记为tx=xμ0s/nt_x = \frac{\overline{x}-\mu_0}{s/\sqrt{n}},且tx=tpt_x = t_{p}pp值可以写为

ux=upt(ux)=t(up)=pp=t(ux)u_x = u_p \quad \Rightarrow \quad t(u_x) = t(u_p) = p \quad \Rightarrow \quad p = t(u_x)

同理,对于第二种检验,拒绝域为W={tt1α(n1)}W = \{ t \ge t_{1 - \alpha}(n-1) \}pp值为p=1t(ux)p = 1 - t(u_x)

对于第三种检验,拒绝域为W={tt1α/2(n1)}W = \{ t \ge t_{1 - \alpha/2 }(n-1) \}pp值为p=2(1t(ux))p = 2(1 - t(|u_x|))

image-20240311210346768

假设 拒绝域 pp
H0:μμ0vsH1:μ<μ0{H_{0}:\mu\geq\mu_{0}} \quad \mathrm{vs} \quad {H_{1}:\mu<\mu_{0}} {ttα(n1)}\{ t \le t_{\alpha}(n-1) \} t(ux)t(u_x)
H0:μμ0vsH1:μ>μ0{H_{0}:\mu\leq\mu_{0}} \quad \mathrm{vs} \quad {H_{1}:\mu>\mu_{0}} {tt1α(n1)}\{ t \ge t_{1 - \alpha}(n-1) \} 1t(ux)1 - t(u_x)
H0:μ=μ0vsH1:μμ0{H_{0}:\mu=\mu_{0}} \quad \mathrm{vs} \quad {H_{1}:\mu \ne \mu_{0}} ${ t

两个正态总体假设检验

在实际业务中,最常用的就是两个正态总体的假设检验,这也是A/B测试所使用的假设检验方法。因为在实际业务中,我们是不可能知道任何总体分布的真正参数的,而单个总体的检验就只能用于与一个定值做比较的情况,如上述的工厂生产标准。形如测试新策略,新功能的效果一类的需求,本质上都是比较两个总体的参数是否有差异。例如,游戏场景下,现在要检验新活动对用户活跃时间是否有显著影响,这就可以转化为,没有出新活动之前的用户活跃时间是一个正态总体,出新活动后的用户活跃时间是一个正态总体,比较这两个正态总体的均值是否有显著差异的问题。

那么,两个正态总体的假设要怎么写呢?还是分三种假设情况,以检验均值为例,分别是

情况1:检验总体1的均值是否小于总体2的均值

情况2:检验总体1的均值是否大于总体2的均值

情况3:检验总体1的均值是否与总体2的均值有差异

记两个总体为N(μ1,σ12)N(\mu_1,\sigma_1^2)N(μ2,σ22)N(\mu_2,\sigma_2^2),则三种假设可以写为

H0:μ1μ2vsH1:μ1<μ2H0:μ1μ2vsH1:μ1>μ2H0:μ1=μ2vsH1:μ1μ2\begin{array}{ll} {H_{0}:\mu_1\geq\mu_{2}} &{\mathrm{vs}}& {H_{1}:\mu_1<\mu_{2}} \\ {H_{0}:\mu_1\leq\mu_{2}} &{\mathrm{vs}}& {H_{1}:\mu_1>\mu_{2}} \\ {H_{0}:\mu_1=\mu_{2}} &{\mathrm{vs}}& {H_{1}:\mu_1\neq\mu_{2}} \\ \end{array}

由于上面我们已经给出了单总体的假设检验,我们可以将双总体的假设转化为单总体的假设,将所有右边的项移项到左边,即

H0:μ1μ20vsH1:μ1μ2<0H0:μ1μ20vsH1:μ1μ2>0H0:μ1μ2=0vsH1:μ1μ20\begin{array}{ll} {H_{0}:\mu_1 - \mu_{2}} \geq 0 &{\mathrm{vs}}& {H_{1}:\mu_1 - \mu_{2}} < 0 \\ {H_{0}:\mu_1 - \mu_{2}} \leq 0 &{\mathrm{vs}}& {H_{1}:\mu_1 - \mu_{2}} > 0 \\ {H_{0}:\mu_1 - \mu_{2}} = 0 &{\mathrm{vs}}& {H_{1}:\mu_1 - \mu_{2}} \neq 0 \\ \end{array}

下面我们就以上述假设为基础来看看双总体的拒绝域与pp值。

双样本u检验

双样本u检验,也叫双样本z检验,用于两个正态总体方差均已知,比较均值的情况。记两个总体为N(μ1,σ12)N(\mu_1,\sigma_1^2)N(μ2,σ22)N(\mu_2,\sigma_2^2),其中σ1\sigma_1σ2\sigma_2为已知量,抽取两个正态总体的样本数分别为mmnn,样本均值分别记为x\overline{x}y\overline{y}

我们来回顾一下单总体时的统计量是如何确定的,就是将样本均值x\overline{x}标准化为uu,使其符合标准正态分布。正态总体为N(μ0,σ02)N(\mu_0,\sigma_0^2),样本量为nn,因此样本均值的分布为xN(μ0,σ02n)\overline{x} \sim N\left(\mu_{0}, \frac{\sigma_{0}^{2}}{n} \right),将其进行标准化,得到统计量uu

u=xμ0σ0/nu = \frac{\overline{x} - \mu_0}{\sigma_{0}/\sqrt{n}}

同理,样本均值的分布为xN(μ1,σ12m)\overline{x} \sim N\left(\mu_{1}, \frac{\sigma_{1}^{2}}{m} \right)yN(μ2,σ22n)\overline{y} \sim N\left(\mu_{2}, \frac{\sigma_{2}^{2}}{n} \right),可以得到

xyN(μ1μ2,σ12m+σ22n)\overline{x}-\overline{y} \sim N\left(\mu_{1}-\mu_{2},\frac{\sigma_{1}^{2}}{m}+\frac{\sigma_{2}^{2}}{n}\right)

xy\overline{x}-\overline{y}进行标准化,得到统计量uu

u=(xy)(μ1μ2)σ12m+σ22n=xyσ12m+σ22nu = \frac{(\overline{x}-\overline{y}) - (\mu_1 - \mu_2)}{\sqrt{\frac{\sigma_1^2}m+\frac{\sigma_2^2}n}} = \frac{\overline{x}-\overline{y}}{\sqrt{\frac{\sigma_1^2}m+\frac{\sigma_2^2}n}}

后续,三种情况的拒绝域与pp值同单总体u检验,如下

image-20240311210419404

假设 拒绝域 pp
H0:μ1μ20vsH1:μ1μ2<0{H_{0}:\mu_1 - \mu_{2}} \geq 0 \quad {\mathrm{vs}} \quad {H_{1}:\mu_1 - \mu_{2}} < 0 {uuα}\{ u \le u_{\alpha} \} Φ(ux)\Phi(u_x)
H0:μ1μ20vsH1:μ1μ2>0{H_{0}:\mu_1 - \mu_{2}} \leq 0 \quad {\mathrm{vs}} \quad {H_{1}:\mu_1 - \mu_{2}} > 0 {uu1α}\{ u \ge u_{1 - \alpha} \} 1Φ(ux)1 - \Phi(u_x)
H0:μ1μ2=0vsH1:μ1μ20{H_{0}:\mu_1 - \mu_{2}} = 0 \quad {\mathrm{vs}} \quad {H_{1}:\mu_1 - \mu_{2}} \ne 0 ${ u

大样本u检验与近似t检验

将上述情况改为方差未知,也就是两个正态总体方差均已知,比较均值的情况。记样本方差为s1s_1s2s_2,按照单总体时的做法,用样本方差替代总体方差,也就是统计量为

u=t=(xy)(μ1μ2)s12m+s22n=xys12m+s22nu = t = \frac{(\overline{x}-\overline{y}) - (\mu_1 - \mu_2)}{\sqrt{\frac{s_1^2}m+\frac{s_2^2}n}} = \frac{\overline{x}-\overline{y}}{\sqrt{\frac{s_1^2}m+\frac{s_2^2}n}}

当样本量mmnn足够大时,根据中心极限定理,统计量uu近似服从标准正态分布,因此可以用u检验的那套,这就是大样本u检验。

而当样本量mmnn不够大时,统计量tt服从自由度为ll的t分布,其中ll的计算公式为

l=(s12m+s22n)2s14m2(m1)+s24n2(n1)l=\frac{(\frac{s_1^2}m+\frac{s_2^2}n)^2}{\frac{s_1^4}{m^2(m-1)}+\frac{s_2^4}{n^2(n-1)}}

一般ll不为整数,常常取最近的整数代替,因此可以用t检验那套,这就是近似t检验。

总结下来就是,在样本量充足的情况下,使用大样本u检验,其拒绝域与pp值如下

image-20240311210434668

假设 拒绝域 pp
H0:μ1μ20vsH1:μ1μ2<0{H_{0}:\mu_1 - \mu_{2}} \geq 0 \quad {\mathrm{vs}} \quad {H_{1}:\mu_1 - \mu_{2}} < 0 {uuα}\{ u \le u_{\alpha} \} Φ(ux)\Phi(u_x)
H0:μ1μ20vsH1:μ1μ2>0{H_{0}:\mu_1 - \mu_{2}} \leq 0 \quad {\mathrm{vs}} \quad {H_{1}:\mu_1 - \mu_{2}} > 0 {uu1α}\{ u \ge u_{1 - \alpha} \} 1Φ(ux)1 - \Phi(u_x)
H0:μ1μ2=0vsH1:μ1μ20{H_{0}:\mu_1 - \mu_{2}} = 0 \quad {\mathrm{vs}} \quad {H_{1}:\mu_1 - \mu_{2}} \ne 0 ${ u

在样本量有限的情况下,使用近似t,其拒绝域与pp值如下

image-20240311210449677

假设 拒绝域 pp
H0:μ1μ20vsH1:μ1μ2<0{H_{0}:\mu_1 - \mu_{2}} \geq 0 \quad {\mathrm{vs}} \quad {H_{1}:\mu_1 - \mu_{2}} < 0 {ttα(l)}\{ t \le t_{\alpha}(l) \} t(ux)t(u_x)
H0:μ1μ20vsH1:μ1μ2>0{H_{0}:\mu_1 - \mu_{2}} \leq 0 \quad {\mathrm{vs}} \quad {H_{1}:\mu_1 - \mu_{2}} > 0 {tt1α(l)}\{ t \ge t_{1 - \alpha}(l) \} 1t(ux)1 - t(u_x)
H0:μ1μ2=0vsH1:μ1μ20{H_{0}:\mu_1 - \mu_{2}} = 0 \quad {\mathrm{vs}} \quad {H_{1}:\mu_1 - \mu_{2}} \ne 0 ${ t

注1:统计学上,常常以30作为样本是否足够大的分界线

注2:大样本u检验是实际场景中最常用的检验,因为实际场景中,30往往是一个很容易满足的样本数。再者,实际场景中的样本总体可能服从各种奇怪的分布,但是,不管需要检验的样本总体服从什么分布,根据中心极限定理,在样本量充足的情况下,其样本均值都会服从正态分布,因此可以使用大样本u检验。在A/B test中,几乎可以只使用大样本u检验。

非正态总体的假设检验

对于非正态总体的假设检验,其推导流程与正态总体是类似的,这里我们以两点分布b(1,p)b(1,p)为例。在实际场景中这也很常见,也就是对比例类的指标进行检验,如检验点击率,次日留存率等指标,都是服从两点分布的,参数pp就是所谓的xx率。要检验pp与定值p0p_0的关系,三种假设可以写为

H0:pp0vsH1:p<p0H0:pp0vsH1:p>p0H0:p=p0vsH1:pp0\begin{array}{ll} {H_{0}:p \geq p_0} &{\mathrm{vs}}& {H_{1}:p < p_0} \\ {H_{0}:p \leq p_0} &{\mathrm{vs}}& {H_{1}:p > p_0} \\ {H_{0}:p = p_0} &{\mathrm{vs}}& {H_{1}:p \neq p_0} \\ \end{array}

其统计量自然是进行nn次实验,发生记为1的事件的总次数,其服从二项分布b(n,p)b(n,p)(这里就跟选择均值为统计量,然后均值服从正态分布是一样的)。以第一种假设为例,记次数为x\overline{x},可以得到拒绝域形式为

W={xc}W = \{ \overline{x} \le c \}

在显著性水平为的情况下,满足

P(xc)=i=0c(ni)p0i(1p0)ni=αP(\overline{x} \le c) = \sum_{i=0}^{c}\left(\begin{array}{l} n \\ i \end{array}\right) p_{0}^{i}\left(1-p_{0}\right)^{n-i}=\alpha

但是这里会有个问题,就是这是个离散分布,所以cc只能取整数,因此一般会找到一个整数c0c_0,使得

i=0c0+1(ni)p0i(1p0)ni>α>i=0c0(ni)p0i(1p0)ni\sum_{i=0}^{c_0 + 1}\left(\begin{array}{l} n \\ i \end{array}\right) p_{0}^{i}\left(1-p_{0}\right)^{n-i} > \alpha > \sum_{i=0}^{c_0}\left(\begin{array}{l} n \\ i \end{array}\right) p_{0}^{i}\left(1-p_{0}\right)^{n-i}

c=c0c = c_0,确定拒绝域。

而求其pp值则会方便许多,记样本求出的统计量为x0x_0pp值可以写为

p=P(xx0)=P(x[x0])=i=0[x0](ni)p0i(1p0)nip = P(\overline{x} \le x_0) = P(\overline{x} \le [x_0]) = \sum_{i=0}^{[x_0]}\left(\begin{array}{l} n \\ i \end{array}\right) p_{0}^{i}\left(1-p_{0}\right)^{n-i}

其中,[x0][x_0]为不大于x0x_0的最大整数。

同理,第二种假设检验的拒绝域为

W={xc}W = \{ \overline{x} \ge c \}

满足

P(xc)=i=cn(ni)p0i(1p0)ni=αP(\overline{x} \ge c) = \sum_{i=c}^{n}\left(\begin{array}{l} n \\ i \end{array}\right) p_{0}^{i}\left(1-p_{0}\right)^{n-i} = \alpha

pp值为

p=P(xx0)=P(x[x0]+1)=i=0[x0]+1(ni)p0i(1p0)nip = P(\overline{x} \ge x_0) = P(\overline{x} \ge [x_0] + 1) = \sum_{i=0}^{[x_0] + 1}\left(\begin{array}{l} n \\ i \end{array}\right) p_{0}^{i}\left(1-p_{0}\right)^{n-i}

第三种检验的拒绝域为

W={xc}={xx0orxx0}W = \{ |\overline{x}| \ge c \} = \{ \overline{x} \ge x_0 \quad or \quad \overline{x} \le x_0 \}

满足

P(xc)=i=0c(ni)p0i(1p0)ni=α/2P(xc)=i=cn(ni)p0i(1p0)ni=α/2P(\overline{x} \le c) = \sum_{i=0}^{c}\left(\begin{array}{l} n \\ i \end{array}\right) p_{0}^{i}\left(1-p_{0}\right)^{n-i}=\alpha/2 \\ P(\overline{x} \ge c) = \sum_{i=c}^{n}\left(\begin{array}{l} n \\ i \end{array}\right) p_{0}^{i}\left(1-p_{0}\right)^{n-i} = \alpha/2

pp值为

p=min{P(xx0),P(xx0)}=min{P(x[x0]+1),P(x[x0])}=min{i=0[x0]+1(ni)p0i(1p0)ni,i=0[x0](ni)p0i(1p0)ni}p = \mathrm{min} \{ P(\overline{x} \ge x_0), P(\overline{x} \le x_0) \} = \mathrm{min} \{ P(\overline{x} \ge [x_0] + 1), P(\overline{x} \le [x_0]) \} = \\ \mathrm{min} \left\{ \sum_{i=0}^{[x_0] + 1}\left(\begin{array}{l} n \\ i \end{array}\right) p_{0}^{i}\left(1-p_{0}\right)^{n-i}, \sum_{i=0}^{[x_0]}\left(\begin{array}{l} n \\ i \end{array}\right) p_{0}^{i}\left(1-p_{0}\right)^{n-i} \right\}

大样本假设检验

单总体

上面我们提到过,根据中心极限定理,当样本量足够大时,样本均值服从正态分布。因此,对于总体不服从正态分布的情况,我们也可以构造uu统计量,并使用u检验来进行假设检验。我们继续用上述两点分布的例子,xb(1,p)x \sim b\left(1, p \right),均值为pp,方差为p(1p)p(1 - p),设样本量为nn,则当nn足够大时,我们可以认为xN(p,p(1p))\overline{x} \sim N\left(p, p(1 - p) \right),因此我们可以构造统计量

u=xpp(1p)/nu = \frac{\overline{x}-p}{\sqrt{p(1 - p)}/\sqrt{n}}

而后,拒绝域与pp值均与u检验相同。

双总体

对于双总体的情况,也可以使用大样本u检验,假设xb(1,p1)x \sim b\left(1, p_1 \right)yb(1,p2)y \sim b\left(1, p_2 \right),样本量分别为mmnn,则当nn足够大时,我们可以认为xN(p1,p1(1p1)/m)\overline{x} \sim N\left(p_1, p_1(1 - p_1)/m \right)yN(p2,p2(1p2)/n)\overline{y} \sim N\left(p_2, p_2(1 - p_2)/n \right),因此我们可以构造统计量

u=(xy)(p1p2)p1(1p1)m+p2(1p2)n=xyp1(1p1)m+p2(1p2)nu = \frac{(\overline{x}-\overline{y}) - (p_1 - p_2)}{\sqrt{\frac{p_1(1 - p_1)}m+\frac{p_2(1 - p_2)}n}} = \frac{\overline{x}-\overline{y}}{\sqrt{\frac{p_1(1 - p_1)}m+\frac{p_2(1 - p_2)}n}}

同理,当方差未知时可以使用样本方差来进行估计,也就是

u=xys12m+s22n=xyx(1x)m+y(1y)nu = \frac{\overline{x}-\overline{y}}{\sqrt{\frac{s_1^2}m+\frac{s_2^2}n}} = \frac{\overline{x}-\overline{y}}{\sqrt{\frac{\overline{x}(1 - \overline{x})}m+\frac{\overline{y}(1 - \overline{y})}n}}

而后,拒绝域与pp值均与大样本u检验相同。

总结

本文介绍了假设检验的基本思想与原理,分析了假设检验的步骤,并给出了常用假设检验的统计量,拒绝域及pp值,并且介绍了在实际场景中最泛用的大样本检验。