最近看了些统计学的东东,做了点笔记记。各位看官看完觉得好的给个赞,觉得有问题的评论给出建议呗~

  假设我们知道总体的分布函数的形式,但是不知道其具体参数,为了推断总体的的某些未知特性,我们通常会提出一些关于总体的假设,例如「均值为0」、「硬币投出正面概率为0.5」。接著为了决定是否接受/拒绝这些假设,我们会从总体中做抽样得到很多的样本,并通过这些样本去决定是否接受假设,这个从提出假设、根据样本做出决策的整个过程就是假设检验

  假设总体的分布函数的参数为 	heta ,我们要判断这个 	heta 是否是正常的,为此我们制定了两个假设:

H_{0}:	hetainOmega \ H_{1}:	heta
otinOmega

H_{0} 我们称之为零假设。这两个假设是指,该参数是否落在某个范围内,如果在就说明是正常的,否则则非正常。

  为了去验证假设 H_{0} 是否成立,我们抽样得到一批样本 ??={??_1,?,??_n} ,希望通过这批样本去验证假设。在 H_0 成立的情况下,抽样得到的样本犯错误的概率应该是很小的(例如如果硬币投出正面的概率是0.5,那么投100次、1000次投出正面的次数怎么说也不会偏离期望太多),这个很小很小的概率为 alpha ,即

P{样本犯错误}=alpha

alpha 就是显著性水平,一般为很小的数,例如0.05、0.1等。判断是否犯错误的标准有很多,例如可以判断样本均值与期望是否差太远。

  接下来就是检验了,去检验 H_0 是否成立有两个方法,但都是等价的,后面会具体说明:

  1. 判断这批样本是否犯错,如果犯错了则可拒绝 H_0
  2. 计算p-value,即在 H_0 成立的情况下产生 X 的概率,可理解成 ??(??|??_0) ,若p-value小于 alpha ,则也可拒绝 H_0

思想在于,如果 H_0 成立,那么产生的样本犯错误的概率是很小很小的,但是这么小的概率都发生的话,则有理由怀疑 H_0 是否成立。

  在 H_0 为真的情况下,我们若还是拒绝了 H_0 ,称之为第I类错误;若在 H_0 不为真的情况下,我们接受了 H_0 ,称之为第II类错误。可以知道,犯第I类错误的概率为 alpha ,我们一般控制第I类错误发生的概率,定 alpha 很小很小,0.05、0.1等。这种只对犯第I类错误的概率加以控制,但是不考虑犯第II类错误的概率的检验,称为显著性检验

Example

我们用两个栗子来说明。

栗子1

特别地,当 frac{ar{x}-mu}{sigma/sqrt{n}}>k 成立时,也称落在检验统计量落在了拒绝域内。接著按照第二种方法,通过p值去检查

可以看出,其实第一种方法和第二种方法没本质区别,第二种方法比较p-value(即产生当前样本或更差样本的概率)与 alpha 的大小,其实就是在判断样本是否犯错。第二种也可以理解为,产生这种样本这么小的概率都发生了(小于 alpha ),那么有理由怀疑零假设是否成立。

栗子2

参考

1. zh.wikipedia.org/wiki/%

2. 显著性水平_百度百科

3. blog.csdn.net/lanchunhu

4. 统计学假设检验中 p 值的含义具体是什么?

5. 如何看待「p 值已死」这种说法?

6. 《概率论与数理统计》


推荐阅读:
相关文章