样本量过少回归分析如何分析处理与解释

2017-03-21 刘重杰 刘重杰

回归是统计学中最常用的模型,但是,有时使用回归后发现结果难以解释,或者与临床实际并不符合,十分困惑。这可能是什么原因呢? 虽然,实际原因很多,但是重要原因之一是样本量太小!很小小样本得出回归的结果,其实并不"回 归",因此,在处理小样本做多因素回归分析时,要慎重。传统一般认为在logistic回归时,变量与样本量之比为至少5倍,即纳入5个变量时,样本量至少也需要25例,实际上,这是保守估计。如果

回归是统计学中最常用的模型,但是,有时使用回归后发现结果难以解释,或者与临床实际并不符合,十分困惑。这可能是什么原因呢? 虽然,实际原因很多,但是重要原因之一是样本量太小!很小小样本得出回归的结果,其实并不"回 归",因此,在处理小样本做多因素回归分析时,要慎重。传统一般认为在logistic回归时,变量与样本量之比为至少5倍,即纳入5个变量时,样本量至少也需要25例,实际上,这是保守估计。如果每个变量能超过40例样本时,回归的结果往往是不错的。 谈到回归,要讲其核心---最小二乘法(OLS)。 学会OLS,有人还明白了ML等方法的含义;现在学统计分析的时候,或多或少会安排统计软件的实践课程,于是大家学会了使用Excel,乃至SAS中如何来做经典的回归分析。看过不少的文献,很多都忽略了回归分析模型诊断这个环节——可能很多标准教科书没有强调,甚至是没有讲;这不能不说是一个遗憾。 回归分析使用最广泛,误用的情况也多了些。下面使用一个经典的例子,来“恶心”一下那些“过分钟爱”经典回归分析的人——我在很多课堂上都举过这个例子(Anscombe),作为从基础课程向中级乃至高级课程的开场白。上面有

作者:刘重杰



版权声明:
本网站所有注明“来源:梅斯医学”或“来源:MedSci原创”的文字、图片和音视频资料,版权均属于梅斯医学所有。非经授权,任何媒体、网站或个人不得转载,授权转载时须注明“来源:梅斯医学”。其它来源的文章系转载文章,本网所有转载文章系出于传递更多信息之目的,转载内容不代表本站立场。不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。
在此留言
评论区 (14)
#插入话题
  1. 2023-02-03 ms1000001302635629

    想学习一下,这个太需要了

    0

  2. 2022-12-03 ms9000000477503919

    数完对点是什么意思

    0

  3. 2017-06-08 1e0d2fb7m34(暂无匿称)

    学习了,非常感谢!

    0

  4. 2017-05-14 184****9840

    这个板块太好了,对学习非常有用。

    0

相关资讯

回归分析中,多重共线性的处理策略方法

在多元线性回归模型经典假设中,其重要假定之一是回归模型的解释变量之间不存在线性关系,也就是说,解释变量X1,X2,……,Xk中的任何一个都不能是其他解释变量的线性组合。如果违背这一假定,即线性回归模型中某一个解释变量与其他解释变量间存在线性关系,就称线性回归模型中存在多重共线性。多重共线性违背了解释变量间不相关的古典假设,将给普通最小二乘法带来严重后果。 造成多重共线性的原因: 1、解

学霸笔记:Logistic回归分析

Logistic回归:实际上属于判别分析,因拥有很差的判别效率而不常用。现在用得最多的是临床研究中的观察性研究。1. 应用范围: ① 适用于流行病学资料的危险因素分析 ② 实验室中药物的剂量-反应关系 ③ 观察性研究结果中混杂控制 ④ 疾病的预后因素分析 2. Logistic回归的分类: ① 按因变量的资料类型

Logistic回归如何校正的RR,而不是OR?

流行病学研究中,有两个非常重要的,衡量暴露与结局的关联指标:OR和RR。OR(Odds Ratio)中文里通常译为比值比,优势比。Odds是一个源于赌博的概念,比如猜色子大小,硬币正反面时 大 v.s.小 , 正 v.s.反 的概率的比值叫Odds, 两个odds之间再取比值叫Odds Ratio。 针对Odds Ratio具体而言,又分暴露比值比,患病比值比,发病比值比。RR(Rate Rat

logistic回归还是log-binomial回归?RR如何正确估计?

当结局发生率较大时,再使用OR来估计RR时会不准确,建议当结局发生率大于10%时,使用log-binomial回归方法替代logistic回归。 Log-binomial 回归模型是广义线性模型的一种特殊类型,由于它很容易得到某一因素率比( rate ratio, RR) 的最大似然估计值,因此,能够作为干预效应评价的选择方法。流行病学暴露于结局的关联性研究中(队列研究),当结局事件发生率较为罕

分层回归分析理论及意义,以及SPSS操作演示

分层回归(hierarchical multiple regression),也称层次回归,其实是对两个或多个回归模型进行比较。我们可以根据两个模型所解释的变异量的差异来比较所建立的两个模型。一个模型解释了越多的变异,则它对数据的拟合就越好。假如在其他条件相等的情况下,一个模型比另一个模型解释了更多的变异,则这个模型是一个更好的模型。两个模型所解释的变异量之间的差异可以用统计显著性来估计和检验

用局部加权回归散点平滑法(LOWESS)观察二维变量之间的关系

二维变量之间的关系研究是很多统计方法的基础,例如回归分析通常会从一元回归讲起,然后再扩展到多元情况。局部加权回归散点平滑法(locally weighted scatterplot smoothing,LOWESS或LOESS)是查看二维变量之间关系的一种有力工具。 LOWESS主要思想是取一定比例的局部数据,在这部分子集中拟合多项式回归曲线,这样我们便可以观察到数据在局部展现出来的规律和趋势;