二分类Logistic回归模型

合集下载

logistic回归模型——方法与应用

logistic回归模型——方法与应用

logistic回归模型——方法与应用
logistic回归模型是一种广泛应用于分类问题的统计学习方法。

它主要用于预测二分类问题,但也可以通过多类logistic回归
处理多分类问题。

方法:
1. 模型定义:logistic回归模型是一种线性分类模型,它
使用一个Logistic函数(也称为sigmoid函数)将线性模型生成
的线性组合转换为概率分数。

Logistic函数将线性组合映射到
0到1之间的值,表示输入属于正面类别的概率。

2. 模型训练:logistic回归模型的训练目标是找到一个权
重向量,使得模型能够最大化正面类别的概率。

训练算法通常采用最大似然估计方法,通过迭代优化权重向量来最小化负对数似然损失函数。

3. 预测:给定一个测试样本,logistic回归模型通过计算
样本的得分(也称为Logit),将其映射到0到1之间的概率分数。

如果概率分数超过一个预先定义的阈值,则将测试样本分类为正面类别,否则将其分类为负面类别。

应用:
1. 二分类问题:logistic回归模型最常用于解决二分类问题,例如垃圾邮件过滤、欺诈检测等。

2. 多类问题:通过多类logistic回归模型,可以将多个类别映射到0到1之间的概率分数,然后根据概率分数将测试样本分配到不同的类别中。

3. 特征选择:logistic回归模型可以用于特征选择,通过计算每个特征的卡方得分,选择与类别最相关的特征。

4. 文本分类:logistic回归模型在文本分类问题中得到广泛应用,例如情感分析、主题分类等。

统计学中的Logistic回归分析

统计学中的Logistic回归分析

统计学中的Logistic回归分析Logistic回归是一种常用的统计学方法,用于建立并探索自变量与二分类因变量之间的关系。

它在医学、社会科学、市场营销等领域得到广泛应用,能够帮助研究者理解和预测特定事件发生的概率。

本文将介绍Logistic回归的基本原理、应用领域以及模型评估方法。

一、Logistic回归的基本原理Logistic回归是一种广义线性回归模型,通过对数据的处理,将线性回归模型的预测结果转化为概率值。

其基本原理在于将一个线性函数与一个非线性函数进行组合,以适应因变量概率为S形曲线的特性。

该非线性函数被称为logit函数,可以将概率转化为对数几率。

Logistic回归模型的表达式如下:\[P(Y=1|X) = \frac{1}{1+e^{-(\beta_0+\beta_1X_1+...+\beta_pX_p)}}\]其中,P(Y=1|X)表示在给定自变量X的条件下,因变量为1的概率。

而\(\beta_0\)、\(\beta_1\)、...\(\beta_p\)则是待估计的参数。

二、Logistic回归的应用领域1. 医学领域Logistic回归在医学领域中具有重要的应用。

例如,研究者可以使用Logistic回归分析,探索某种疾病与一系列潜在风险因素之间的关系。

通过对患病和非患病个体的数据进行回归分析,可以估计各个风险因素对疾病患病的影响程度,进而预测某个个体患病的概率。

2. 社会科学领域在社会科学研究中,研究者常常使用Logistic回归来探索特定变量对于某种行为、态度或事件发生的影响程度。

例如,研究者可能想要了解不同性别、教育程度、收入水平对于选民投票行为的影响。

通过Logistic回归分析,可以对不同自变量对于投票行为的作用进行量化,进而预测某个选民投票候选人的概率。

3. 市场营销领域在市场营销中,Logistic回归也被广泛应用于客户分类、市场细分以及产品销量预测等方面。

通过分析客户的个人特征、购买习惯和消费行为等因素,可以建立Logistic回归模型,预测不同客户购买某一产品的概率,以便制定个性化的市场营销策略。

logistic回归模型和logit模型

logistic回归模型和logit模型

logistic回归模型和logit模型引言部分:在机器学习领域中,分类问题一直是研究的热点之一。

Logistic回归模型和Logit模型是二分类问题中,表现优异的分类算法。

基于二项分布的原理,这两个模型能够有效的进行分类,因此受到了广泛的应用和研究。

正文部分:一、Logistic回归模型Logistic回归模型是一种广义线性模型,被广泛应用于分类问题中。

它通过Sigmoid函数将线性回归的结果映射到概率值,在进行分类时,将概率值与设定的阈值进行比较,从而进行分类。

Logistic回归模型的形式如下:$$ P(Y=1|X)=\frac{1}{1+e^{-(w^TX+b)}} $$其中,$w$表示特征的权值,$b$表示偏置的值,$X$表示输入的特征向量,$Y$表示输出的标签。

该模型的训练过程通常采用最大似然估计方法进行优化,从而得到最佳的模型参数。

二、Logit模型Logit模型也是一种二分类模型,它的实现基于对数几率的概念。

在Logit模型中,将正例的对数几率表示为输入向量的线性函数,而负例的对数几率为其相反数。

模型的形式如下:$$ \log(\frac{P(Y=1|X)}{1-P(Y=1|X)})=w^TX+b $$Logit模型使用最大似然估计法进行参数的学习,使得模型尽可能地对训练数据进行拟合。

通过计算输入向量对应的对数几率,可以得到相应的输出标签,从而进行分类。

三、Logistic回归模型与Logit模型的异同1. 形式不同:Logistic回归模型采用的是Sigmoid函数进行分类,而Logit模型则是基于对数几率的理论进行分类。

2. 拟合效果不同:Logistic回归模型在分类效果上表现出更好的鲁棒性,能够在处理多重共线性等情况下表现出较好的效果;而Logit模型的拟合效果较为稳定,能够更好地应对噪声和异常点的干扰。

3. 处理方式不同:Logistic回归模型通常采用迭代法和正则化方法来优化模型参数;而Logit模型常常采用牛顿法等基于优化的方法来更新模型参数。

logistic回归模型的假设检验方法

logistic回归模型的假设检验方法

logistic回归模型的假设检验方法"Logistic回归模型的假设检验方法"Logistic回归模型是一种常用的数据挖掘和预测模型,特别适用于二分类问题。

在使用Logistic回归模型进行预测之前,需要对模型的假设进行检验。

本文将一步一步回答关于Logistic回归模型假设检验方法的问题。

问题1:Logistic回归模型的假设是什么?Logistic回归模型的假设通常包括以下几点:1. 线性关系:自变量与因变量之间的关系是线性的。

2. 独立性:观察样本之间是相互独立的,每个观察样本之间的结果不相互影响。

3. 多重共线性:自变量之间应当具有较低的多重共线性,即它们之间不存在高度相关性。

4. 独立的误差项:因变量与自变量之间的关系由一个独立的误差项表示。

5. 高斯分布:误差项应当服从正态分布。

问题2:如何检验Logistic回归模型的线性关系假设?为了检验Logistic回归模型的线性关系假设,可以采用如下方法:1. 偏离线性:观察因变量与自变量之间的散点图,检查是否存在非线性关系。

2. 考察残差:绘制自变量与残差的散点图,检查是否存在任何模式或趋势。

问题3:如何检验Logistic回归模型的独立性假设?为了检验Logistic回归模型的独立性假设,可以采用如下方法:1. 边际分布:首先,观察因变量和自变量的边际分布,确保样本中的分布相对均匀,没有局部聚集。

2. 自相关检验:使用相关性检验方法,如Pearson相关系数,检查是否存在自相关性。

问题4:如何检验Logistic回归模型的多重共线性假设?为了检验Logistic回归模型的多重共线性假设,可以采用如下方法:1. 方差膨胀因子(VIF):计算自变量的VIF,VIF值高于10可能存在多重共线性的问题。

2. 条件数:计算自变量矩阵的条件数,条件数大于30可能存在多重共线性的问题。

条件数是多重共线性的指标,表示自变量之间相互关联的程度。

十三、logistic回归模型

十三、logistic回归模型
二分类logistic回归模型
非条件logistic回归
模型简介

简单分析实例


哑变量设置

自变量的筛选方法与逐步回归

模型拟合效果与拟合优度检验
模型的诊断与修正
条件logistic回归
模型简介
对分类变量的分析,当考察的影响因素较少,且也为分类 变量时,常用列联表(Contingency Table)进行整理,并 用2检验或分层2检验进行分析,但存在以下局限性:
.184
Wal d 6.391
30.370 6.683 4.270
33.224
df 1 1 1 1
1
Sctep lwt
3
ptl
-.015
.007
5.584
1
.728
.327
4.961
1
ht
1.789
.694
6.639
1
Constant
.893
.829
1.158
1
a. Variable(s) entered on step 1: ptl.
模型拟合效果检验
结果分析
Area Under the Curv e
Test Result Variable(s): Predicted probability
Area Std. Errora
.708
.043
Asymptotic Sigb. .000
Asymptotic 95% Confidence Interval
❖ 给出了模型拟合过程中每一步的-2log(L)及 两个伪决定系数。
逐步回归
结果分析
Variables in the Equation

二分类Logistic回归模型

二分类Logistic回归模型

二分类Logistic 回归模型在对资料进行统计分析时常遇到反应变量为分类变量的资料,那么,能否用类似于线性回归的模型来对这种资料进行分析呢?答案是肯定的。

本章将向大家介绍对二分类因变量进行回归建模的Logistic 回归模型。

第一节 模型简介一、模型入门在很多场合下都能碰到反应变量为二分类的资料,如考察公司中总裁级的领导层中是否有女性职员、某一天是否下雨、某病患者结局是否痊愈、调查对象是否为某商品的潜在消费者等。

对于分类资料的分析,相信大家并不陌生,当要考察的影响因素较少,且也为分类变量时,分析者常用列联表(contingency Table)的形式对这种资料进行整理,并使用2χ检验来进行分析,汉存在分类的混杂因素时,还可应用Mantel-Haenszel 2χ检验进行统计学检验,这种方法可以很好地控制混杂因素的影响。

但是这种经典分析方法也存在局限性,首先,它虽然可以控制若干个因素的作用,但无法描述其作用大小及方向,更不能考察各因素间是否存在交互任用;其次,该方法对样本含量的要求较大,当控制的分层因素较多时,单元格被划分的越来越细,列联表的格子中频数可能很小甚至为0,将导致检验结果的不可靠。

最后,2χ检验无法对连续性自变量的影响进行分析,而这将大大限制其应用范围,无疑是其致使的缺陷。

那么,能否建立类似于线性回归的模型,对这种数据加以分析?以最简单的二分类因变量为例来加以探讨,为了讨论方便,常定义出现阳性结果时反应变量取值为1,反之则取值为0 。

例如当领导层有女性职员、下雨、痊愈时反应变量1y =,而没有女性职员、未下雨、未痊愈时反应变量0y =。

记出现阳性结果的频率为反应变量(1)P y =。

首先,回顾一下标准的线性回归模型:11m m Y x x αββ=+++如果对分类变量直接拟合,则实质上拟合的是发生概率,参照前面线性回归方程 ,很自然地会想到是否可以建立下面形式的回归模型:11m m P x x αββ=+++显然,该模型可以描述当各自变量变化时,因变量的发生概率会怎样变化,可以满足分析的基本要求。

logistic回归模型的分类及主要问题

logistic回归模型的分类及主要问题

Logistic回归模型的分类及主要问题一、引言逻辑回归是一种广泛应用于分类问题的统计方法,用于预测某个实例属于特定类别的概率。

尽管其简单易懂并具有很好的可解释性,但在应用过程中仍然会遇到一些问题。

本文将详细讨论逻辑回归模型的分类及其主要问题。

二、逻辑回归模型的分类1. 二元逻辑回归:这是最简单也是最常见的逻辑回归形式,用于解决二分类问题(例如,电子邮件是否为垃圾邮件)。

在这种模型中,我们尝试找到一条线或一个超平面,以最大化正类和负类之间的分离度。

2. 多项式逻辑回归:当与线性回归模型相比,数据的特性更复杂时,可以使用多项式逻辑回归。

在这种情况下,我们使用非线性函数来映射自变量和因变量之间的关系。

3. 次序逻辑回归:当输出变量是有序的(例如,评级为1到5)时,可以使用次序逻辑回归。

这种模型可以估计有序概率比(OR),即成功的概率与失败的概率之比。

三、逻辑回归模型的主要问题1. 多重共线性:逻辑回归模型假设自变量之间不存在线性关系。

然而,在现实世界的数据集中,这种假设往往不成立,导致多重共线性问题。

多重共线性会导致模型系数的不稳定,影响模型的解释性和预测准确性。

2. 类别不平衡:在处理类别不平衡的数据时,逻辑回归模型可能会遇到问题。

例如,在垃圾邮件检测中,垃圾邮件的数量通常远少于非垃圾邮件。

这种情况下,模型可能会过于倾向于预测为非垃圾邮件,导致预测性能下降。

3. 忽略交互效应:逻辑回归模型默认自变量之间没有交互效应。

然而,在现实中,自变量之间可能存在复杂的交互关系。

忽略这些交互效应可能会导致模型的预测性能下降。

4. 精度-复杂性权衡:逻辑回归模型的一个关键问题是找到精度和复杂性之间的最佳平衡。

一方面,我们希望模型尽可能精确;另一方面,我们也希望模型尽可能简单,以便解释和应用。

然而,过度复杂的模型可能会导致过拟合,而过于简单的模型则可能无法捕捉到数据的真实结构。

四、总结逻辑回归是一种强大的分类工具,但在使用过程中需要注意以上提到的问题。

logistic回归模型的假设检验方法 -回复

logistic回归模型的假设检验方法 -回复

logistic回归模型的假设检验方法-回复Logistic回归模型是一种经典的统计学习方法,用于解决二分类问题。

它基于一组假设,这些假设在进行模型的参数估计和推断时起到了重要作用。

本文将详细介绍Logistic回归模型的假设及其假设检验方法。

一、Logistic回归模型的假设Logistic回归模型的假设主要包括以下几个方面:1. 二分类假设:Logistic回归模型假设数据是二分类的,即样本数据只具有两个类别,用0和1表示。

2. 线性关系假设:Logistic回归模型假设自变量和因变量之间存在一个线性关系。

这个假设是建立在一个重要的推论上,即在自变量和因变量之间不存在非线性关系。

3. 独立性假设:Logistic回归模型假设不同样本之间是独立的。

这意味着各个样本之间的观测结果相互独立,不会相互影响。

4. 同方差性假设:Logistic回归模型假设不同样本之间的方差相等。

这意味着模型的预测误差的方差是恒定的,不会随着自变量的变化而变化。

二、Logistic回归模型的假设检验方法为了对Logistic回归模型的假设进行检验,我们需要进行一系列的统计推断。

下面将介绍三种常用的假设检验方法。

1. Wald检验Wald检验是一种常用的假设检验方法,它基于Logistic回归模型中的参数估计值和标准误差。

Wald检验的原假设和备择假设分别是H0: β=0和H1: β≠0。

具体步骤如下:(1)计算参数的估计值β_hat以及标准误差SE_beta;(2)计算检验统计量Wald statistic,即Wald = (β_hat - 0) / SE_beta;(3)根据Wald统计量的分布情况,计算p值;(4)根据p值和事先设定的显著性水平进行决策,如果p值小于显著性水平,则拒绝原假设。

2. 似然比检验似然比检验是一种用来比较两个模型拟合优度的统计检验方法。

在Logistic回归模型中,我们比较的是全模型和约简模型的拟合优度。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
那么,能否建立类似于线性回归的模型,对这种数据加以分析?以最简单的二分类因变量为例来加以探讨,为了讨论方便,常定义出现阳性结果时反应变量取值为1,反之则取值为0 。例如当领导层有女性职员、下雨、痊愈时反应变量 ,而没有女性职员、未下雨、未痊愈时反应变量 。记出现阳性结果的频率为反应变量 。
首先,回顾一下标准的线性回归模型:
结果如下:
首先输出分析中使用的记录数汇总,此处略。
表2Dependent Variable Encoding
Original Value
Internal Value
未患病
0
患病
1
表2为因变量的取值水平编码,SPSS拟合模型时默认取值水平高的为阳性结果,对于本例来讲,拟合的模型是logit(P|y=患病)。
图1 S型曲线图
以上问题促使统计学家们不得不寻求新的解决思路,如同在曲线回归中,往往采用变量变换,使得曲线直线化,然后再进行直线回归方程的拟合。那么,能否考虑对所预测的因变量加以变换,以使得以上矛盾得以解决?基于这一思想,又有一大批统计学家在寻找合适的变换函数。终于,在1970年,Cox引入了以前用于人口学领域的Logit变换(Logit Transformation),成功地解决了上述问题。
(2)各自变最的回归系数: 表示自变量 每改变一个单位,优势比的自然对数值改变量,而 即OR值,表示自变量 每变化一个单位,阳性结果出现概率与不出现概率的比值是变化前的相应比值的倍数,即优势比(注意:不是出现阳性结果的概率为变化前的倍数,即优势比并不等同于相对危险度)。
本例中自变量治疗方法的回归系数 ,为两组病人的治愈率与未治愈率之比的对数值之差,即 。因此,对于四格表资料而言,所建立的Logistic回归模型也可以写成:
以4格表资料为例具体说明各回归系数的意义:
表1 4格表资料
治疗方法
(treat)
治疗结果(outcome)
合计
治愈率
治愈(=1)
未治愈(=0)
新疗法(=1)
60 (a)
21 (c)
81
74.07%
传统疗法(=0)
42 (b)
27 (d)
69
60.87%
合计
102
48
130
68.00%
该资料如果拟合Logistic回归模型,则结果如下(操作步骤详见后述):
若 ,则
若 ,则
若 ,则
显然,OR是否大于1可以用作两种情形下发生概率大小的比较。
2.Logistic回归系数的意义
从数学上讲, 和多元回归中系数的解释并无不同,代表 改变一个单位时logit(P)的平均改变量,但由于odds的自然对数即为logit变换,因此Logistic回归模型中的系数和OR有着直接的变换关系,使得Logistic回归系数有更加贴近实际的解释,从而也使得该模型得到了广泛的应用。下面用一个实例加以说明:
(1)常数项:表示自变量取全为0(称基线状态)时,比数(Y=1与Y=0的概率之比)的自然对数值,本例中为 ,即传统疗法组的治愈率与未治愈率之比的自然对数值。在不同的研究设计中,常数项的具体含义可能不同,如基线状态下个体患病率、基线个体发病率、基线状态中病例所占比例等,但这些数值的大小研究者一般并不关心。
(2)自变量与Logit( )之间为线性关系。
(3)残差合计为0,且服从二项分布。
(4)各观测值间相互独立。
由于因变量为二分类,所以logistic回归模型的误差应当服从二项分布,而不是正态分布。因此,该模型实际上不应当使用以前的最小二乘法进行参数估计,上次均使用最大似然法来解决方程的估计和检验问题。
表4 Variables in the Equation
B
S.E.
Wald
df
Sig.
Exp(B)
Step 0
Constant
.103
.227
.205
1
.651
1.108
表4输出结果中B为模型中未引入自变量时常数项的估计值,S.E为其标准误,Wald为Wald ,是对总体回归系数是否为0进行统计学检验。
调用SPSS中的Binary Logistic过程:
图 2 Logistic回归主对话框
本例中涉及的对话框界面如图9.2所示,注意对话框中部有一个以前未出现过的a*b按钮、用于纳入交互作用,只要先将相应变量选中,然后单击此按钮,相应的交互项就会被纳入模型。本例因较为简单,未用到此功能。性别虽为分类变量,但仅有两个取值水平,所以可以直接引入模型,结果仍然可以被正常解释。
随后进行模型拟合,首先给出的是模型不含任何自变量,而只有常数项(即无效模型)时的输出结果,标题为:“Block0:BeginningBlock”。此时的模型为:
表3 Classification Tablea,b
Observed
Predicted
是否患冠心病
Percentage Correct
未患病
三、简单分析实例
SPSS中通过regression模块中的Binary Logistic过程实现结果变量为二分类的Logistic回归,下面通过一个实例分析,具体讲解相应的操作和结果解释。
例1某医师希望研究病人的年龄(岁)、性别(0为女性,1为男性)、心电图检验是否异常(ST段压低,0为正常、1为轻度异常、2为重度异常)与患冠心病是否有关。
二分类Logistic回归模型
在对资料进行统计分析时常遇到反应变量为分类变量的资料,那么,能否用类似于线性回归的模型来对这种资料进行分析呢?答案是肯定的。本章将向大家介绍对二分类因变量进行回归建模的Logistic回归模型。
第一节 模型简介
一、模型入门
在很多场合下都能碰到反应变量为二分类的资料,如考察公司中总裁级的领导层中是否有女性职员、某一天是否下雨、某病患者结局是否痊愈、调查对象是否为某商品的潜在消费者等。对于分类资料的分析,相信大家并不陌生,当要考察的影响因素较少,且也为分类变量时,分析者常用列联表(contingency Table)的形式对这种资料进行整理,并使用 检验来进行分析,汉存在分类的混杂因素时,还可应用Mantel-Haenszel 检验进行统计学检验,这种方法可以很好地控制混杂因素的影响。但是这种经典分析方法也存在局限性,首先,它虽然可以控制若干个因素的作用,但无法描述其作用大小及方向,更不能考察各因素间是否存在交互任用;其次,该方法对样本含量的要求较大,当控制的分层因素较多时,单元格被划分的越来越细,列联表的格子中频数可能很小甚至为0,将导致检验结果的不可靠。最后, 检验无法对连续性自变量的影响进行分析,而这将大大限制其应用范围,无疑是其致使的缺陷。
以上即为logistic回归模型。由上式可推得:
上面三个方程式相互等价。通过大量的分析实践,发现logistic回归模型可以很好地满足对分类数据的建模需求,因此目前它已经成为了分类因变量的标准建模方法。
通过上面的讨论,可以很容易地理解二分类logistic回归模型对资料的要求是:
(1)反应变量为二分类的分类变量或是某事件的发生率。
既然可以使用加权最小二乘法对模型加以估计,为什么现在又放弃了这种做法呢?原因在于有以下两个问题是这种分析思路所无法解决的:
(1)取值区间:上述模型右侧的取值范围,或者说应用上述模型进行预报的范围为整 个实数集 ,而模型的左边的取值范围为 ,二者并不相符。模型本身不能保证在自变量的各种组合下,因变量的估计值仍限制在0~1内,因此可能分析者会得到这种荒唐的结论:男性、30岁、病情较轻的患者被治愈的概率是300%!研究者当然可以将此结果等价于100%可以治愈,但是从数理统计的角度讲,这种模型显然是极不严谨的。
(2)曲线关联:根据大量的观察,反应变量P与自变量的关系通常不是直线关系,而是S型曲线关系。这里以收入水平和购车概率的关系来加以说明,当收入非常低时,收入的增加对购买概率影响很小;但是在收入达到某一阈值时,购买概率会随着收入的增加而迅速增加;在购买概率达到一定水平,绝大部分在该收入水平的人都会购车时,收入增加的影响又会逐渐减弱。如果用图形来表示,则如图1所示。显然,线性关联是线性回归中至关重要的一个前提假设,而在上述模型中这一假设是明显无法满足的。
基于无效模型,现在开始在分析中引入自变量。标题为“Block 1:Method=Enter”。
表6 Omnibus Tests of Model Coefficients
Chi-square
那么,什么是Logit变换呢?通常的把出现某种结果的概率与不出现的概率之比称为比值(odds,国内也译为优势、比数),即 ,取其对数 。这就是logit变换。下面来看一下该变换是如何解决上述两个问题的,首先是因变量取值区间的变化,概率是以0.5为对称点,分布在0~1的范围内的,而相应的logit(P)的大小为:


显然,通过变换,Logit( )的取值范围就被扩展为以0为对称点的整个实数域,这使得在任何自变量取值下,对 值的预测均有实际意义。其次,大量实践证明,Logit( )往往和自变量呈线性关系,换言之,概率和自变量间关系的S形曲线往往就符合logit函数关系,从而可以通过该变换将曲线直线化。因此,只需要以Logit( )为因变量,建立包含p个自变量的logistic回归模型如下:
患病
Step 0
是否患冠心病
Hale Waihona Puke 未患病037.0
患病
0
41
100.0
Overall Percentage
52.6
a. Constant is included in the model.
b. The cut value is .500
表9.3输出的是模型中仅含有常数项(见表4)时计算的预测分类结果,SPSS根据p值是否大于0.5将观察对象判断为是否出现阳性结果,即是否患冠心病。由于模型中仅含有常数项,因此所有人的预测概率均为样本率估计值P=0.5257,将所有的观察对象均判断为冠心病。判断正确率为52.6%,实际上就是全部研究对象的患病率41、78=0.5256(细小差别为四舍五入产生)。也就是说,由于当前样本中大部分人为患病,因此当模型中不包含任何自变量时,样本中所有观察对象皆被预测为患病, 总的预测准确率为52.6%。
相关文档
最新文档