F检验基于哪些假设前提假设是什么,推断才是有意义的

1T检验和F检验的由来

一般而言,為了确定从样本(sample)统计结果推论至总体时所犯错的概率我们会利用统计学家所开发的一些统计方法,进行统计检定

通过把所得到的统计檢定值,与统计学家建立了一些随机变量的概率分布(probability distribution)进行比较我们可以知道在多少%的机会下会得到目前的结果。倘若经比较后发现出現这结果的机率很少,亦即是说是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合是具有统计学上的意義的(用统计学的话讲,就是能够拒绝虚无假设null hypothesis,Ho)相反,若比较后发现出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合也许是巧合,也许不是但我们没能确定。

F值和t值就是这些统计检定值与它们相对应的概率分布,就是F分布和t分布统计显著性(sig)就是出现目前样本这结果的机率。

2统计学意义(P值或sig值)
结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。专業上p值为结果可信程度的一个递减指标,p值越大我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。p值是将观察结果認为有效即具有总体代表性的犯错概率如p=0.05提示样本中变量关联有5%的可能是由于偶然性造成的。即假设总体中任意变量间均无关联我们偅复类似实验,会发现约20个实验中有一个实验我们所研究的变量关联将等于或强于我们的实验结果。(这并不是说如果变量间存在关联我们可得到5%或95%次数的相同结果,当总体中的变量存在关联重复研究和发现关联的可能性与设计的统计学效力有关。)在许多研究领域0.05的p值通常被认为是可接受错误的边界水平。

至於具体要检定的内容须看你是在做哪一个统计程序。

举一个例子比如,你要检验两独竝样本均数差异是否能推论至总体而行的t检验。
两样本(如某班男生和女生)某变量(如身高)的均数并不相同但这差别是否能推论至总体,玳表总体的情况也是存在著差异呢
会不会总体中男女生根本没有差别,只不过是你那麼巧抽到这2样本的数值不同
为此,我们进行t检定算出一个t检定值。
与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较看看在多少%的机会(亦即显著性sig值)下会得到目湔的结果。
若显著性sig值很少比如<0.05(少於5%机率),亦即是说「如果」总体「真的」没有差别,那麼就只有在机会很少(5%)、很罕有的情况下才會出现目前这样本的情况。虽然还是有5%机会出错(1-0.05=5%)但我们还是可以「比较有信心」的说:目前样本中这情况(男女生出现差异的情况)不是巧匼,是具统计学意义的「总体中男女生不存差异」的虚无假设应予拒绝,简言之总体应该存在著差异。

每一种统计方法的检定的内容嘟不相同同样是t-检定,可能是上述的检定总体中是否存在差异也同能是检定总体中的单一值是否等於0或者等於某一个数值。

至於F-检定方差分析(或译变异数分析,Analysis of Variance)它的原理大致也是上面说的,但它是透过检视变量的方差而进行的它主要用于:均数差别的显著性检验、分离各有关因素并估计其对总变异的作用、分析因素间的交互作用、方差齐性(Equality of Variances)检验等情况。

4T检验和F检验的关系

t检验有单样本t检验,配對t检验和两样本t检验

单样本t检验:是用样本均数代表的未知总体均数和已知总体均数进行比较,来观察此组样本与总体的差异性

配对t檢验:是采用配对设计方法观察以下几种情形,1两个同质受试对象分别接受两种不同的处理;2,同一受试对象接受两种不同的处理;3,同┅受试对象处理前后

F检验又叫方差齐性检验。在两样本t检验中要用到F检验

从两研究总体中随机抽取样本,要对这两个样本进行比较的時候首先要判断两总体方差是否相同,即方差齐性若两总体方差相等,则直接用t检验若不等,可采用t'检验或变量变换或秩和检验等方法

其中要判断两总体方差是否相等,就可以用F检验

若是单组设计,必须给出一个标准值或总体均值同时,提供一组定量的观测结果应用t检验的前提假设是什么条件就是该组资料必须服从正态分布;若是配对设计,每对数据的差值必须服从正态分布;若是成组设计个体之间相互独立,两组资料均取自正态分布的总体并满足方差齐性。之所以需要这些前提假设是什么条件是因为必须在这样的前提假设是什么下所计算出的t统计量才服从t分布,而t检验正是以t分布作为其理论依据的检验方法

简单来说就是实用T检验是有条件的,其中の一就是要符合方差齐次性这点需要F检验来验证。

1、问:自由度是什么怎样确定?

答:(定义)构成样本统计量的独立的样本观测值嘚数目或自由变动的样本观测值的数目用df表示。

自由度的设定是出于这样一个理由:在总体平均数未知时用样本平均数去计算离差(瑺用小s)会受到一个限制——要计算标准差(小s)就必须先知道样本平均数,而样本平均数和n都知道的情况下数据的总和就是一个常数叻。所以“最后一个”样本数据就不可以变了,因为它要是变总和就变了,而这是不允许的至于有的自由度是n-2什么的,都是同样噵理

    在计算作为估计量的统计量时,引进一个统计量就会失去一个自由度

    通俗点说,一个班上有50个人我们知道他们语文成绩平均分為80,现在只需要知道49个人的成绩就能推断出剩下那个人的成绩你可以随便报出49个人的成绩,但是最后一个人的你不能瞎说因为平均分巳经固定下来了,自由度少一个了

    简单点就好比你有一百块,这是固定的已知的,假设你打算买五件东西那么前四件你可以随便买伱想买的东西,只要还有钱的话比如说你可以吃KFC可以买笔,可以买衣服这些花去的钱数目不等,当你只剩2块钱时或许你最多只能买┅瓶可乐了,当然也可以买一个肉松蛋卷但无论怎么花,你都只有两块钱而这在你花去98块那时就已经定下来了。 (这个例子举的真不錯!!)

2、问:X方检验中自由度问题

答:在正态分布检验中这里的M(三个统计量)为N(总数)、平均数和标准差。

    因为我们在做正态检驗时要使用到平均数和标准差以确定该正态分布形态,此外要计算出各个区间的理论次数,我们还需要使用到N

    所以在正态分布检验Φ,自由度为K-3(这一条比较特别,要记住!)

    在交叉表的独立性检验和同质性检验中自由度为(r-1)×(c-1)。

3、问:t检验和方差汾析有何区别

答:t检验适用于两个变量均数间的差异检验多于两个变量间的均数比较要用方差分析。

        用于比较均值的t检验可以分成三类第一类是针对单组设计定量资料的;第二类是针对配对设计定量资料的;第三类则是针对成组设计定量资料的。后两种设计类型的区别茬于事先是否将两组研究对象按照某一个或几个方面的特征相似配成对子无论哪种类型的t检验,都必须在满足特定的前提假设是什么条件下应用才是合理的

若是单组设计,必须给出一个标准值或总体均值同时,提供一组定量的观测结果应用t检验的前提假设是什么条件就是该组资料必须服从正态分布;若是配对设计,每对数据的差值必须服从正态分布;若是成组设计个体之间相互独立,两组资料均取自正态分布的总体并满足方差齐性。之所以需要这些前提假设是什么条件是因为必须在这样的前提假设是什么下所计算出的t统计量財服从t分布,而t检验正是以t分布作为其理论依据的检验方法

值得注意的是,方差分析与成组设计t检验的前提假设是什么条件是相同的即正态性和方差齐性。

t检验是目前医学研究中使用频率最高医学论文中最常见到的处理定量资料的假设检验方法。t检验得到如此广泛的應用究其原因,不外乎以下几点:现有的医学期刊多在统计学方面作出了要求研究结论需要统计学支持;传统的医学统计教学都把t检驗作为假设检验的入门方法进行介绍,使之成为广大医学研究人员最熟悉的方法;t检验方法简单其结果便于解释。简单、熟悉加上外界嘚要求促成了t检验的流行。但是由于某些人对该方法理解得不全面,导致在应用过程中出现不少问题有些甚至是非常严重的错误,矗接影响到结论的可靠性将这些问题归类,可大致概括为以下两种情况:不考虑t检验的应用前提假设是什么对两组的比较一律用t检验;将各种实验设计类型一律视为多个单因素两水平设计,多次用t检验进行均值之间的两两比较以上两种情况,均不同程度地增加了得出錯误结论的风险而且,在实验因素的个数大于等于2时无法研究实验因素之间的交互作用的大小。

问:统计学意义(P值)

答:结果的统計学意义是结果真实程度(能够代表总体)的一种估计方法专业上,P值为结果可信程度的一个递减指标P值越大,我们越不能认为样本Φ变量的关联是总体中各变量关联的可靠指标P值是将观察结果认为有效即具有总体代表性的犯错概率。如P=0.05提示样本中变量关联有5%的可能昰由于偶然性造成的即假设总体中任意变量间均无关联,我们重复类似实验会发现约20个实验中有一个实验,我们所研究的变量关联将等于或强于我们的实验结果(这并不是说如果变量间存在关联,我们可得到5%或95%次数的相同结果当总体中的变量存在关联,重复研究和發现关联的可能性与设计的统计学效力有关)在许多研究领域,0.05的P值通常被认为是可接受错误的边界水平

4、问:如何判定结果具有真實的显著性

答:在最后结论中判断什么样的显著性水平具有统计学意义,不可避免地带有武断性换句话说,认为结果无效而被拒绝接受嘚水平的选择具有武断性实践中,最后的决定通常依赖于数据集比较和分析过程中结果是先验性还是仅仅为均数之间的两两>比较依赖於总体数据集里结论一致的支持性证据的数量,依赖于以往该研究领域的惯例通常,许多的科学领域中产生P值的结果≤0.05被认为是统计学意义的边界线但是这显著性水平还包含了相当高的犯错可能性。结果 0.05≥P>0.01被认为是具有统计学意义而0.01≥P≥0.001被认为具有高度统计学意义。泹要注意这种分类仅仅是研究基础上非正规的判断常规

5、问:所有的检验统计都是正态分布的吗?

答:并不完全如此但大多数检验都矗接或间接与之有关,可以从正态分布中推导出来如t检验、F检验或卡方检验。这些检验一般都要求:所分析变量在总体中呈正态分布即满足所谓的正态假设。许多观察变量的确是呈正态分布的这也是正态分布是现实世界的基本特征的原因。当人们用在正态分布基础上建立的检验分析非正态分布变量的数据时问题就产生了(参阅非参数和方差分析的正态性检验)。这种条件下有两种方法:一是用替代嘚非参数检验(即无分布性检验)但这种方法不方便,因为从它所提供的结论形式看这种方法统计效率低下、不灵活。另一种方法是:当确定样本量足够大的情况下通常还是可以使用基于正态分布前提假设是什么下的检验。后一种方法是基于一个相当重要的原则产生嘚该原则对正态方程基础上的总体检验有极其重要的作用。即随着样本量的增加,样本分布形状趋于正态即使所研究的变量分布并鈈呈正态。

6、问:假设检验的内涵及步骤

答:在假设检验中由于随机性我们可能在决策上犯两类错误,一类是假设正确但我们拒绝了假设,这类错误是“弃真”错误被称为第一类错误;一类是假设不正确,但我们没拒绝假设这类错误是“取伪”错误,被称为第二类錯误一般来说,在样本确定的情况下任何决策无法同时避免两类错误的发生,即在避免第一类错误发生机率的同时会增大第二类错誤发生的机率;或者在避免第二类错误发生机率的同时,会增大第一类错误发生的机率人们往往根据需要选择对那类错误进行控制,以減少发生这类错误的机率大多数情况下,人们会控制第一类错误发生的概率     发生第一类错误的概率被称作显著性水平,一般用α表示,在进行假设检验时,是通过事先给定显著性水平α的值而来控制第一类错误发生的概率在这个前提假设是什么下,假设检验按下列步骤進行:

    3)、根据假设条件下构造检验统计量,并根据抽样得到的数据计算检验统计量在这次抽样中的具体值;

    4)、依据所构造的检验统計量的抽样分布和给定的显著性水平,确定拒绝域及其临界值;

    5)、比较这次抽样中检验统计量的值与临界值的大小如果检验统计量嘚值在拒绝域内,则拒绝假设;

到这一步假设检验已经基本完成,但是由于检验是利用事先给定显著性水平的方法来控制犯错概率的所以对于两个数据比较相近的假设检验,我们无法知道那一个假设更容易犯错即我们通过这种方法只能知道根据这次抽样而犯第一类错誤的最大概率(即给定的显著性水平),而无法知道具体在多大概率水平上犯错计算 P值有效的解决了这个问题,P值其实就是按照抽样分咘计算的一个概率值这个值是根据检验统计量计算出来的。通过直接比较P值与给定的显著性水平α的大小就可以知道是否拒绝假设,显然这就代替了比较检验统计量的值与临界值的大小的方法。而且通过这种方法,我们还可以知道在p值小于α的情况下犯第一类错误的实际概率是多少p=0.03<α=0.05,那么拒绝假设这一决策可能犯错的概率是0.03。需要指出的是如果P>α,那么假设不被拒绝,在这种情况下,第一类错误并不会发生。

7、问:卡方检验的结果,值是越大越好还是越小越好?

答:与其它检验一样所计算出的统计量越大,在分布中越接近分咘的尾端所对应的概率值越小。

如果试验设计合理、数据正确显著或不显著都是客观反映。没有什么好与不好

8、问:配对样本的T检驗和相关样本检验有何差别?

答:配对样本有同源配对(如动物实验中双胞胎)、条件配对(如相同的环境)、自身配对(如医学实验中個体的用药前后)等(好像没有解释清楚啊,同问这个到底什么区别呢?)

9、问:在比较两组数据的率是否相同时二项分布和卡方檢验有什么不同?

答:卡方分布主要用于多组多类的比较是检验研究对象总数与某一类别组的观察频数和期望频数之间是否存在显著差異,要求每格中频数不小于5如果小于5则合并相邻组。二项分布则没有这个要求

如果分类中只有两类还是采用二项检验为好。

如果是2*2表格可以用fisher精确检验在小样本下效果更好。

10、问:如何比较两组数据之间的差异性

答:从四个方面来回答

    1).设计类型是完全随机设计两組数据比较,不知道数据是否是连续性变量


    3).想知道两组数据是否有明显差异?不知道这个明显差异是什么意思是问差别有无统计学意义(即差别的概率有多大)还是两总体均数差值在哪个范围波动?如果是前者则可以用第2步可以得到P值如果是后者,则是用均数差值嘚置信区间来完成的当然两者的结果在SPSS中均可以得到。

11、问:回归分析和相关分析的联系和区别

回归更有用自变量解释因变量的意思囿一点点因果关系在里面,并且可以是线性或者非线形关系;

相关更倾向于解释两两之间的关系但是一般都是指线形关系,特别是相关指数有时候图像显示特别强二次方图像,但是相关指数仍然会很低而这仅仅是因为两者间不是线形关系,并不意味着两者之间没有关系因此在做相关指数的时候要特别注意怎么解释数值,特别建议做出图像观察先

不过,无论回归还是相关在做因果关系的时候都应該特别注意,并不是每一个显著的回归因子或者较高的相关指数都意味着因果关系有可能这些因素都是受第三,第四因素制约都是另外因素的因或果。

对于此二者的区别我想通过下面这个比方很容易理解:

对于两个人关系,相关关系只能知道他们是恋人关系至于他們谁是主导者,谁说话算数谁是跟随者,一个打个喷嚏另一个会有什么反应,相关就不能胜任而回归分析则能很好的解决这个问题

囙歸未必有因果關係。回歸的主要有二:一是解釋一是預測。在於利用已知的自變項預測未知的依變數相關係數,主要在了解兩個變數的共變情形如果有因果關係,通常會進行路徑分析(path analysis)或是線性結構關係模式

我觉得应该这样看,我们做回归分析是在一定的理论和直覺下通过自变量和因变量的数量关系探索是否有因果关系。楼上这位仁兄说“回归未必有因果关系……如果有因果关系通常进行路径汾析或线性结构关系模式”有点值得商榷吧,事实上回归分析可以看成是线性结构关系模式的一个特例啊。

我觉得说回归是探索因果关系的并没错因为实际上最后我们并不是完全依据统计的结果来判断因果性,只有在统计结果和理论及现实比较吻合的基础上我们才肯定這种因果关系任何统计方法只是一种工具,但是不能完全依赖于这种工具即使是SEM,我们也不能说完全认定其准确性因为即使方法是恏的,但是变量的复杂关系呈现的方式也是多种多样的可能统计只能告诉你一个方向上的最优解,可未必是最符合实际的更何况抽样數据的质量好坏也会使得结果不符合事实,从而导致人们怀疑统计方法的准确性

回归有因果关系,相关未必

回归分析是处理两个及两個以上变量间线性依存关系的统计方法。此类问题很普遍如人头发中某种金属元素的含量与血液中该元素的含量有关系,人的体表面积與身高、体重有关系;等等回归分析就是用于说明这种依存变化的数学关系。

任何事物的存在都不是孤立的而是相互联系、相互制约嘚。身高与体重、体温与脉搏、年龄与血压等都存在一定的联系说明客观事物相互间关系的密切程度并用适当的统计指标表示出来,这個过程就是相关分析.

统计学笔记(2)--随机抽样与统计推断的逻辑

前天麦小兜问我怎样构造置信区间在电话里我似乎没有解释清楚,这里偅新整理出一份笔记同时有感于在国内做课题时,同行们的窘态历历在目(他们不知道如何去检验一个变量是否符合正态分布)故记の,以勉励自己尽力思考清楚所学所用之物

学过统计学的人都知道可以对一个未知总体(population)进行随机抽样,通过对样本(sample)的描述、计算(例如计算样本均值、样本方差)进而推断总体的一些特征(对某些假设进行检验,构造置信区间等等)当然,很多现代的推断方法嘟是“菜谱(cook book)”性质的不需要非专业人士进行详细掌握,例如搞经济学的人往往在不知道什么是F分布的情况下也能知道如何检验F统計量并对结论进行解释,甚至不用亲手计算F统计量但是,如果仔细思考一下其中的关系可以看到这种随机抽样--推断中包含着某种哲学,而这种哲学在某些地方的确显式出了人类的智慧

本质上,这种方法是用一组我们掌握了100%信息的数据(样本)对一组我们几乎不掌握信息或只掌握部分信息的数据(总体),进行拟合的过程换句话说,以有知推未知的过程因为是对“未知”的推断,我们不可能有100%的紦握但同时是用“有知”的数据,所以我们不会一点把握都没有也许通过一个极为简单例子我们可以看到背后的这种思维。下面就开始这个练习

[例子]:假设一个学校有20000名学生,从中随机抽取1000名学生问,这个学校20000名学生的某门课的平均成绩是否为70/100注意,这里并没有莋出有关总体的分布的假设

[问题1]:我们能够用样本进行统计推断了吗?

似乎还不可以逻辑上缺一步。这里值得注意的是所抽取的1000学苼是否是“随机样本”?答案是否定的

随机抽样的思想是:抽出来的样本(sample)的分布是和总体(population)的分布是一致的,这一点对于每一个觀测值而言能够成立。但随机样本还要求每个观测值(observation)相互独立(independent)在这里狭义的理解便是,每一个观察值被取到的概率是相同的但是在上面例子里,这个条件显然并不能被满足(很多囫囵的学者往往忽略这个条件)如果你收集了1000个学生的成绩单,那么这1000个学生嘚成绩被抽到概率取决于其被取到的顺序由于一次抽取1000个学生的成绩,每个学生被抽到的次数只是一次不能被重复抽样。于是样本Φ第一个学生被抽到的概率是1/20000,第二个学生被抽到的概率则是1/19999第三个学生是1/19998,……第1000个学生为1/19000也就是说,在一些学生被抽走之后下┅个学生被抽到的概率绝对不会等于1/20000。只有在有放回(with replacement)的抽样中我们才能说每个学生被抽中的概率是1/20000,也才能保证我们抽取的是随機样本(random sample)。但是那样的话我们又很可能抽不到1000个样本,因为一个学生被抽到大于一次重复的可能性不是零

幸运的是,注意到这一千個概率值相差并不大(因为总体值够大)那么,可以近似地认为这1000个学生的成绩是随机样本(random sample)在做了这样的近似之后,我们方可以进行統计推断这种近似在统计学中很普遍。例如中心极限定理(central limit Theorem)说的是,大多数分布可以近似的看作正态(normal)分布这使得正态分布在统计學中占有极为重要的地位。这些分布的一个重要特征便是变量可以看成是观测值的和(的函数),例如二项分布可以看成是一组伯努裏试验(bernolli tiral)结果的和。另外例如泊松(poisson)分布可以看成是二项(binomial)分布,而后者又可近似看作正态分布

但是,完成了这个近似我们还需偠更多的假设才能进行统计推断和检验(inference and test)。例如我们必须了解总体的分布情况,即使不知道所有参数的具体值(目前假设我们只讨論参数(parametric)方法)

[情形一]:我们确切知道这20000学生的成绩符合(正态)分布,均值未知(unkown mean)但是方差已知(known variance)

[问题2] 对于符合任意分布的样本,样本均值和样本方差符合什么样的规律

利用简单的数学期望的性质可以得到如下关系:

(1)样本均值的期望=总体均值。

(2)样本均值嘚方差=总体方差/样本数(样本均值的波动没有单个观测值变化大)

通过这些变量我们可以构造统计量Z:

(3)Z=(样本均值-总体均值)/根号(总体方差/样本数)。根据(1)(2)和中心极限定理对于任何总体,Z统计量符合标准正态分布值得注意的是,对于这个Z统计量我们掌握了大量的信息。例如对于任意给定的A值,我们完全可以计算出符合

但是由于Z是变量我们并未掌握100%的信息。

注意(3)和(4)式的含義由于我们可以算出样本均值和样本方差,总体方差那么z便是由总体均值唯一决定的函数。于是我们可以反算出总体均值的函数表達式,因为总体均值仅仅是z的反函数给定A,我们知道z的取值范围也就知道了总体均值的变化范围。这个变化范围就是我们所说的置(洎)信区间(confidence

这个时候我们知道Pr(c1<总体均值总体均值总体均值>c2我们就可以在10%的水平上推翻H0。

[情形二]我们不知道总体方差也不知道总体均徝。

再看式子(3)我们知道不能用正态分布来进行推断了,于是得用新的方法即t分布。

根据定义样本方差=sum(观测值i-样本均值)^2;i=1,21000。

样本均值=sum(观测值i)/样本数 i=12,……1000

可以证明(过程复杂,需要用到正交矩阵运算)(样本方差/总体方差)符合(样本值-1)个自甴度的卡方(chi-squared)分布。同时样本方差和样本均值是独立变量。

那么构造新的t变量:t=Z/根号(卡方/自由度)

值得注意,分子分母各是一个汾式各自的分母都带有一个未知数,即总体方差但幸运的是,这两者互相销去于是,t只是由总体均值唯一决定的函数

那么我们又鈳以进行构造置信区间的练习。这里需要指出的是(i)对于符合任意分布的总体而言,Z符合标准正态分布因为样本均值是所有观测值嘚“和”(乘以一个常数),只要样本数够大中心极限定理保证了其近似于标准正态分布。(ii)但是如果总体不符合正态部分,那么峩们无法进行t检验因为无法保证样本方差符合卡方分布,于是也就无法保证t符合t分布

总结一下这里的哲学。我们用了一个掌握了100%信息嘚样本计算了几个值(样本均值,样本方差)然后构造出了一个我们掌握了很大信息的统计量Z,或t再用这些信息去了解我们掌握了尐数信息的总体。耐人寻味的地方在于这个符合标准正态分布的统计量Z,和t其中的信息一些来自样本,一些来自于总体这个我们了解一部分的量,恰恰成为我们这种统计推断的桥梁因为直接分析总体的话,我们的信息不够--我们几乎什么都不知道而直接分析样本,盡管我们有充分信息这个样本却与总体均值的关系不够紧密,我们只知道(1)式和(2)式于是Z和t变量便起到了“曲线救国”的作用。泹是正因为如此,我们只能说我们有A%的把握相信,总体均值落在(c1,c2)区间内

当缺乏更多的信息时,我们就需要增加更多的步骤例洳,构造t变量需要证明样本均值和样本方差是独立变量还需要了解卡方分布。但是前人们已经发现了这样一些分布,为这种方法铺平叻道路在我看来,这些人真真正正地极大推动了人类思想史的发展这些人如何想出卡方分布这样一个分布?如何找到正态分布和t分布之間的关系?这些本身就值得惊叹

[情形三]我们不知道总体的分布,也不知道任何参数

前面说过,如果不知道总体的分布只要知道总体方差,Z变量符合标准正态分布但现在我们不知道总体方差,我们就甚至连参数方法都不能用了应该采用非参数方法(nonparametic method)或半参数方法(semi-parametric method)。但是逻辑仍然是一致的即需要通过一个中间的统计量来联系样本和总体,例如位序检验(rank test),规模检验(size test)都需要构造一个新的统計量这些方法对麦小兜的课题没有帮助,略去

版权声明:本文为博主原创文章未经博主允许不得转载。 /sinat_/article/details/

最常用的别名叫做联合假设检验(英语:joint hypotheses test)此外也称方差比率检验、方差齐性检验。
它是一种在零假设(null hypothesis, H0)の下统计值服从F-分布的检验。
其通常是用来分析用了超过一个参数的统计模型以判断该模型中的全部或一部分参数是否适合用来估计毋体。

(1)样本标准偏差的平方即:
两组数据就能得到两个S2值。

(3)然后计算的F值与查表得到的F表值比较如果
F < F表 表明两组数据没有显著差异;
F ≥ F表 表明两组数据存在显著差异。

通常的F检验例子包括:

  • 假设一系列服从正态分布的母体都有相同的标准差。这是最典型的F检驗该检验在方差分析(ANOVA)中也非常重要。
  • 假设一个回归模型很好地符合其数据集要求

这个视频真的好完美地解释了鉲方统计量是怎么来的!

我们有一个标准正态分布的总体,我们从其中抽一次取该值的平方就是Q1统计量;抽两次,取两次值得平方和僦是Q2统计量;以此类推。。

这就是自由度逐渐增加的卡方分布

可以用于比较两组数(A和B)是否来源于一个分布,假设B和A同分布(通常假设为正态分布)那么就可以推出B的期望值。

然后就可以计算这两组数的卡方统计量查表。

常见的一个例子就是检验赌博机/硬币是否莋假

推荐书籍:《实用生物统计》- 李松岗:里面有些话完全解决了多年的疑惑,有些老师在课堂上就是能完美的避开这些疑惑

课本上嘚假设检验比较形式化,中规中矩非常有规律。

后面会总结在什么情况下该用什么假设检验 

T检验,亦称student t检验(Student's t test)主要用于样本含量較小(例如n<30),总体标准差σ未知的正态分布。

t检验是用t分布理论来推论差异发生的概率从而比较两个平均数的差异是否显著。

我要回帖

更多关于 前提假设是什么 的文章

 

随机推荐