P-Value

 

先看下面例子:
先模拟产生50个服从N(0,1)的样本,这里要用到下面的语法COMPUTE x = RV.NORMAL(0,1) .EXECUTE .如
果要检验这50个x值的样本是否服从正态分布,可作One-Sample Kolmogorov-Smirnov TestNPAR TESTS  
/K-S(NORMAL)= x  /MISSING ANALYSIS.结果是Kolmogorov-Smirnov Z=.780Asymp. Sig. (2-tailed)
=.577其思想是1、先提出假设:先认为该样本服从正态分布,这样根据特定计算公式得到的统计量z就应
该服从标准正态分布。2、现在根据样本算得的Z=.780,在假定H0成立前提下,其出现的概率是挺大的
P=0.577。3、据此尚不能否定样本服从正态分布的假设,故只能接受它.(P越小,显著性越强)。
假如不告诉你这50个x值的样本是模拟产生的,让你去检验它是否服从正态。
所用的方法是一样的,而假如得到
Kolmogorov-Smirnov Z=2
Asymp. Sig. (2-tailed)<0.05
据此就可以否定样本服从正态分布的零假设了。

显著性水平和P值是两个不同的概念。前者是人为定的一个小概率值,一般情况下取0.05(有时为降低I
型错误的概率,也可取0.1,增大样本等(两类错误))。而P值也是概率,是指在零假设成立的前提下,获得现有检验统计量值(如t、z等)以及比该值更为极端情况下的概率,若P<0.05(显著性水平),则拒绝零假设,而接受备择假设;反之,不能拒绝零假设,只好接受它。
SPSS中的sig实际上是P值。


T检验、F检验和统计学意义(P值或sig值)
1,T检验和F检验的由来
一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发
的一些统计方法,进行统计检定。通过把所得到的统计检定值,统计学家建立了一些随机变量的概率分布(probability distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具
有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis,Ho)。相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。统计显著性(sig)就是出现目前样本这结果的机率。
2,统计学意义(P值或sig值)
结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。专业上,p值为结果可信程度的一个递减指标,p值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。p值是将观察结果认为有效即具有总体代表性的犯错概率。如p=0.05提示样本中变量关联有5%的可能是由于偶然性造成的。即假设总体中任意变量间均无关联,我们重复类似实验,会发现约20个实验中有一个实验,我们所研究的变量关联将等于或强于我们的实验结果。(这并不是说如果变量间存在关联,我们可得到5%或95%次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的可能性与设计的统计学效力有关。)在许多研究领域,0.05的p值通常被认为是可接受错误的边界水平。



在相同测量条件下进行的测量称为等精度测量,例如在同样的条件下,用同一个游标卡尺测量铜棒的直
径若干次,这就是等精度测量。对于等精度测量来说,还有一种更好的表示误差的方法,就是标准误差

标准误差定义为各测量值误差的平方和的平均值的平方根,故又称为均方误差。
设n个测量值的误差为ε1、ε2……εn,则这组测量值的标准误差σ等于:
(此处为一公式,显示不出来,你看下文字就可以知道这个公式是什么样的。)
由于被测量的真值是未知数,各测量值的误差也都不知道,因此不能按上式求得标准误差。测量时能够
得到的是算术平均值(),它最接近真值(N),而且也容易算出测量值和算术平均值之差,称为残差(
记为v)。理论分析表明①可以用残差v表示有限次(n次)观测中的某一次测量结果的标准误差σ,其计
算公式为 (此处为一公式,显示不出来,你看下文字就可以知道这个公式是什么样的。)
对于一组等精度测量(n次测量)数据的算水平均值,其误差应该更小些。理论分析表明,它的算术平均
值的标准误差。有的书中或计算器上用符号s表示)与一次测量值的标准误差σ之间的关系是
(此处为一公式,显示不出来,你看下文字就可以知道这个公式是什么样的。)
需要注意的是,标准误差不是测量值的实际误差,也不是误差范围,它只是对一组测量数据可靠性的估
计。标准误差小,测量的可靠性大一些,反之,测量就不大可靠。进一步的分析表明,根据偶然误差的
高斯理论,当一组测量值的标准误差为σ时则其中的任何一个测量值的误差εi有68.3%的可能性是在(-σ,+σ)区间内

世界上多数国家的物理实验和正式的科学实验报告都是用标准误差评价数据的,现在稍好一些的计算器都有计算标准误差的功能,因此,了解标准误差是必要的。

置信度是人为规定的,是检验是否发生小概率的标准
显著性水平则是数据本身是否有差异,一般用P表示,P越小越好
举例 P<0.05,说明差异显著(显著的话一般会标上*,**)
两组数据的不同处理结果是不同的
其实心理学的假设可以这么解释
期望两组数不同,但假设它们完全相同,概率是95%,99%(置信度)
但处理后的结果发现数在置信区间外,即发生了小概率事件,P<0.05 OR P<0.01
那么既然发生了小概率事件,则两组数据不同
再说一下置信区间你可以画个横轴,中间一个点是平均数,(我贴张图的等会)
置信度或置信水平是正确的概率,显著性水平是犯错误的概率

在零假设下,检验统计量取其实现值及(沿着备选假设的方向)更加极端值的概率称为p-值(p-value

这种事先规定的概率称为显著性水平(significant level),用字母a来表示。
p-值小于或等于a时,就拒绝零假设。所以,a是所允许的犯第一类错误概率的最大值。当p-值小于或等于a时,就说这个检验是显著的。 p-值又称为观测的显著性水平(observed significant level)作为概率的显著性水平a实际上相应于一个检验统计量取值范围的一个临界值(critical value),它定义为,统计量取该值或更极端的值的概率等于a

 

上一篇:[转]GIS 克隆 IClone


下一篇:分享相关资料