LOGISTIC回归模型简介
logistic模型

Logistic模型简介Logistic回归模型是一种常用的分类模型,用于对二分类问题进行建模和预测。
该模型基于Logistic函数,将连续的输出映射到了概率值,可以方便地用于分类任务。
基本原理Logistic函数Logistic函数,也被称为Sigmoid函数,是一种常见的激活函数,公式如下:$$ f(x) = \\frac{1}{1 + e^{-x}} $$Logistic函数具有如下特点: - 输出范围在0到1之间,可以看作是一个概率值;- 在x趋近于正无穷时,输出趋近于1,在x趋近于负无穷时,输出趋近于0; - 当x=0时,输出值为0.5,此时分类为不确定。
Logistic回归模型Logistic回归模型通过将Logistic函数作用于线性回归模型的输出,将连续的输出转换为0和1的概率值。
模型的数学表达式如下:$$ P(y=1|x; w) = \\frac{1}{1 + e^{-(w_0 + w_1x)}} $$其中,P(P=1|P;P)表示在给定输入x的情况下,预测y=1的概率;P0和P1是模型的参数,通过训练数据进行估计。
对于二分类问题,可以将上式进一步扩展为:$$ P(y=c|x; w) = \\frac{e^{w_c \\cdot x}}{\\sum_{k=1}^{C} e^{w_k \\cdot x}} $$其中,C为类别数量,P P为类别c的参数,P为输入。
模型训练Logistic回归模型的训练目标是最大化似然函数。
似然函数描述了模型参数在给定训练样本的情况下的概率,即给定参数值时样本出现的可能性。
似然函数的数学表达式如下:$$ L(w) = \\prod_{i=1}^{N} P(y_i|x_i; w) $$其中,P P为第i个样本的真实标签,P P为其对应的特征,P为总样本数量。
为了计算方便,常常使用对数似然函数,即:$$ l(w) = \\log(L(w)) = \\sum_{i=1}^{N} \\log(P(y_i|x_i; w)) $$训练时使用梯度下降法最小化对数似然函数,通过迭代更新参数P,直至收敛为止。
logistic回归模型

含有名义数据的logit
含有名义数据的logit
• 例:某地25岁及以上人中各类婚姻状况居民的死 亡情况见表,试建立死亡率关于年龄和婚姻状况 的logit模型。
p ln A 1M 1 2 M 2 3 M 3 1 p
• 其中,A表示年龄(取中值),M1、M2、M3表示婚 姻状况 • 于是,估计的logit方程为:
–累积概率满足: P(Y 1) P(Y J ) 1 –累积概率的模型并不利用最后一个概率,因为它必然 等于1
多项logit模型
【例】研究性别和两种治疗方法(传统疗法与新疗法) 对某种疾病疗效的影响,84个病人的数据见表。 • 由题知,疗效是一个有序变量,包括显著、较有 效和无效三个值,需要建立累积logit模型。
• 统计分析结论如下:
–女性比男性的疗效好,其优势比为: e1.319 3.798 –新疗法比传统疗法好,其优势比为: e1.797 6.032
本次问卷中的案例
(以食堂满意度为例) • 一般为多项逻辑模型,且响应变量为有序变量。
p ln 1 10 1 x1 2 x2 1 p 1 ln p1 p2 x x 20 1 1 2 2 1 ( p1 p2 )
多项logit模型
• 当响应变量为定性有序变量时,多项logit模型的处理会与 名义变量有所不同。 • 有序响应变量的累积logit模型 –当变量为有序变量时,logit可以利用这一点,得到比 基线-类别有更简单解释的模型; –Y的累积概率是指Y落在一个特定点的概率,对结果为 类别j时,其累积概率为: P(Y j) 1 j , j 1,, J
多项logit模型
• 应用统计软件,可以得到以上模型的参数估计和回 归方程:
logistic回归模型结果解读

logistic回归模型结果解读
x
一、 logistic回归模型结果解读
Logistic回归模型是一种分类数据模型,主要用于对不同类别的输出结果进行预测,因此,其结果解读也要以分类的形式来解释。
1、系数与因变量之间的关系
Logistic回归模型通过对因变量的分析,来推断被解释变量的概率。
结果中的系数提供了因变量与被解释变量之间的关系,比如我们可以分析不同系数值大小,从而获得因变量对被解释变量的影响程度,正相关的影响是系数的正值,反之是负值。
2、P值
P值是从回归结果中获取的,它可以反映特定因变量对被解释变量的重要性,P值越小,表明相对于其它因变量,该因变量对被解释变量影响越明显,则说明该因变量是重要因素。
3、R-Square和平均绝对值
R-Square是可决系数,它反映回归结果的好坏,R-Square的值越大,表明模型的预测效果越好,也就是越能够准确的来预测被解释变量的值。
平均绝对值也是可以用来判断模型好坏的指标,它比较每个样本的预测值和实际值之间的误差,值越小则表示模型的预测精度越高。
4、改进模型
可以通过以上结果,来判断模型的预测效果好坏,从而思考如何改进模型:比如可以进行特征选择,去掉系数值较小或者P值较大的因变量;也可以使用其它模型,如决策树或神经网络模型来进行比较,看哪一个模型对被解释变量的预测效果更好。
logistic回归模型——方法与应用

logistic回归模型——方法与应用
logistic回归模型是一种广泛应用于分类问题的统计学习方法。
它主要用于预测二分类问题,但也可以通过多类logistic回归
处理多分类问题。
方法:
1. 模型定义:logistic回归模型是一种线性分类模型,它
使用一个Logistic函数(也称为sigmoid函数)将线性模型生成
的线性组合转换为概率分数。
Logistic函数将线性组合映射到
0到1之间的值,表示输入属于正面类别的概率。
2. 模型训练:logistic回归模型的训练目标是找到一个权
重向量,使得模型能够最大化正面类别的概率。
训练算法通常采用最大似然估计方法,通过迭代优化权重向量来最小化负对数似然损失函数。
3. 预测:给定一个测试样本,logistic回归模型通过计算
样本的得分(也称为Logit),将其映射到0到1之间的概率分数。
如果概率分数超过一个预先定义的阈值,则将测试样本分类为正面类别,否则将其分类为负面类别。
应用:
1. 二分类问题:logistic回归模型最常用于解决二分类问题,例如垃圾邮件过滤、欺诈检测等。
2. 多类问题:通过多类logistic回归模型,可以将多个类别映射到0到1之间的概率分数,然后根据概率分数将测试样本分配到不同的类别中。
3. 特征选择:logistic回归模型可以用于特征选择,通过计算每个特征的卡方得分,选择与类别最相关的特征。
4. 文本分类:logistic回归模型在文本分类问题中得到广泛应用,例如情感分析、主题分类等。
logistic回归模型统计描述

logistic回归模型统计描述在统计学中,logistic回归模型是一种常用的分类方法,它适用于将自变量与离散的二分类因变量相关联的情况。
本文将会详细介绍logistic回归模型的原理、概念以及应用,并解释如何利用该模型进行统计推断与预测。
一、logistic回归模型的原理与概念1.1 逻辑函数与S型曲线在logistic回归模型中,我们使用逻辑函数(logistic function)将自变量的线性组合转换为一个介于0和1之间的概率值。
逻辑函数(也称为sigmoid函数)是一个S型曲线,它可以表示如下:f(z) = 1 / (1 + e^(-z))其中,f(z)表示逻辑函数的输出值,e为自然对数的底,z为自变量的线性组合。
1.2 线性组合与logit函数在logistic回归模型中,自变量的线性组合表示为:z = β0 + β1x1 + β2x2 + ... + βnxn其中,zi表示第i个样本的线性组合值,β0、β1、β2...βn为模型的参数,xi为自变量的取值。
1.3 参数的解释与推断在logistic回归模型中,参数的解释通常使用odds ratio(比率几率)来进行推断。
比率几率表示的是某个事件的成功概率与失败概率之间的比值。
对于一个二分类事件,比率几率可以表示为:odds = p / (1 - p)其中,p为事件成功的概率。
通过对比两种不同情况下的比率几率,可以推断参数对于事件发生的影响程度。
二、logistic回归模型的应用2.1 数据准备在使用logistic回归模型时,首先需要准备好相关的数据。
通常情况下,我们将数据集分为训练集和测试集,用于模型的训练与验证。
2.2 模型拟合与参数估计使用logistic回归模型进行拟合时,通常采用最大似然估计法。
最大似然估计法旨在选择最适合观测到的数据的参数值,使得观测到的数据的概率最大化。
2.3 模型评估与优化在模型拟合完成后,我们需要对模型进行评估与优化。
logistic回归_HYJ

Logistic回归一、Logistic回归简介1.1概述Logistic回归是一种概率型非线性回归模型,与线性回归模型不同,其响应变量(Response Variable),即因变量是一分类变量(Categorical Variable)而非连续变量(Continuous Variable)。
例如,研究客户是否会购买某种产品(即买抑或不买),或者研究客户交易是否存在欺诈(即欺诈交易抑或非欺诈交易),或者研究客户是否会成为某种产品的潜在用户等等。
由于现实中存在大量类似的问题,Logistic回归被广泛运用以解决所谓的分类预测问题(Classification)。
然而,logistic回归的因变量可以是二分类的,也可以是多分类的,但是实际中最为常用的就是二分类的logistic回归,因此本文只研究二分类logistic回归。
1.2 Logistic回归的主要用途一是寻找->对因变量影响较大的自变量;(如患某疾病中的危险因素)二是预测->如果已经建立了logistic回归模型,则可以根据模型,预测在不同的自变量情况下,因变量发生(如购买某种产品)的概率有多大。
三是判别->实际上跟预测有些类似,也是根据logistic模型,判断(某人购买产品)的概率有多大,综合自变量考虑;1.3 Logistic回归模型与一般线性回归模型的区别:●线性回归模型的结果变量(outcome variable)或因变量(dependent variable)或响应变量(response variable)与自变量之间的关系是线性的,而Logistic 回归中因变量与自变量之间关系是非线性的,但可以通过Logit函数转换成线性关系。
●在线性回归中通常假设,对应自变量X 的某个值,因变量Y 的观测值具有正态分布,但是在logistic 回归中,因变量Y 却是二项发布(0和1)或多项分布。
●在logistic 回归中,不存在线性回归中有的残差项。
十三、logistic回归模型

非条件logistic回归
模型简介
❖
简单分析实例
内
容
哑变量设置
提
自变量的筛选方法与逐步回归
要
模型拟合效果与拟合优度检验
模型的诊断与修正
条件logistic回归
模型简介
对分类变量的分析,当考察的影响因素较少,且也为分类 变量时,常用列联表(Contingency Table)进行整理,并 用2检验或分层2检验进行分析,但存在以下局限性:
.184
Wal d 6.391
30.370 6.683 4.270
33.224
df 1 1 1 1
1
Sctep lwt
3
ptl
-.015
.007
5.584
1
.728
.327
4.961
1
ht
1.789
.694
6.639
1
Constant
.893
.829
1.158
1
a. Variable(s) entered on step 1: ptl.
模型拟合效果检验
结果分析
Area Under the Curv e
Test Result Variable(s): Predicted probability
Area Std. Errora
.708
.043
Asymptotic Sigb. .000
Asymptotic 95% Confidence Interval
❖ 给出了模型拟合过程中每一步的-2log(L)及 两个伪决定系数。
逐步回归
结果分析
Variables in the Equation
logistic回归模型总结

[转载]logistic回归模型总结logistic回归模型是最成熟也是应用最广泛的分类模型,通过学习和实践拟通过从入门、进阶到高级的过程对其进行总结,以便加深自己的理解也为对此有兴趣者提供学习的便利。
一、有关logistic的基本概念logistic回归主要用来预测离散因变量与一组解释变量之间的关系最常用的是二值型logistic。
即因变量的取值只包含两个类别例如:好、坏;发生、不发生;常用Y=1或Y=0表示X 表示解释变量则P(Y=1|X)表示在X的条件下Y=1的概率,logistic回归的数学表达式为:log(p/1-p)=A+BX =L其中p/1-p称为优势比(ODDS)即发生与不发生的概率之比可以根据上式反求出P(Y=1|X)=1/(1+e^-L)根据样本资料可以通过最大似然估计计算出模型的参数然后根据求出的模型进行预测下面介绍logistic回归在SAS中的实现以及输出结果的解释二、logistic回归模型初步SAS中logistic回归输出结果主要包括预测模型的评价以及模型的参数预测模型的评价与多元线性回归模型的评价类似主要从以下几个层次进行(1)模型的整体拟合优度主要评价预测值与观测值之间的总体一致性。
可以通过以下两个指标来进行检验1、Hosmer-Lemeshowz指标HL统计量的原假设Ho是预测值和观测值之间无显著差异,因此HL指标的P-Value的值越大,越不能拒绝原假设,即说明模型很好的拟合了数据。
在SAS中这个指标可以用LACKFIT选项进行调用2、AIC和SC指标即池雷准则和施瓦茨准则与线性回归类似AIC和SC越小说明模型拟合的越好(2)从整体上看解释变量对因变量有无解释作用相当于多元回归中的F检验在logistic回归中可以通过似然比(likelihood ratiotest)进行检验(3)解释变量解释在多大程度上解释了因变量与线性回归中的R^2作用类似在logistic回归中可以通过Rsquare和C统计量进行度量在SAS中通过RSQ来调用Rsquare,C统计量自动输出(4)模型评价指标汇总<span style="font-family:宋体;mso-ascii-font-family:Calibri;mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">统计量<span style="font-family:宋体;mso-ascii-font-family:Calibri;mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">趋势<span style="font-family:宋体;mso-ascii-font-family:Calibri;mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">拟合<span style="font-family:宋体;mso-ascii-font-family:Calibri;mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">作用SAS<span style="font-family:宋体;mso-ascii-font-family:Calibri;mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">调用命令<span style="font-family:宋体;mso-ascii-font-family:Calibri;mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">备注AIC<span style="font-family:宋体;mso-ascii-font-family:Calibri;mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">、SC<td valign="top" style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">越小<td valign="top" style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">越好<td width="197" valign="top" style="width:117.9pt;border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">类似与多元回归中的残差平方和<td width="177" valign="top" style="width:106.3pt;border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">模型自动输出<td width="123" valign="top" style="width:73.75pt;border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri;mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">似然比卡方<td valign="top" style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">越大<td valign="top" style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri;mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">越好<td width="197" valign="top" style="width:117.9pt;border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">类似与多元回归中的回归平方和<td width="177" valign="top" style="width:106.3pt;border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">自动输出<td width="123" valign="top" style="width:73.75pt;border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt">P<span style="font-family:宋体;mso-ascii-font-family:Calibri;mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">值越小越好RSQUARE<td valign="top" style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">越大<td valign="top" style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">越好<td width="197" valign="top" style="width:117.9pt;border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">类似与多元回归中的R^2<td width="177" valign="top" style="width:106.3pt;border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">用RSQ<span style="font-family:宋体;mso-ascii-font-family:Calibri;mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">选项调用<td width="123" valign="top" style="width:73.75pt;border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt">C<span style="font-family:宋体;mso-ascii-font-family: Calibri;mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">统计量<td valign="top" style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">越大<td valign="top" style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">越好<td width="197" valign="top" style="width:117.9pt;border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">度量观测值和条件预测的相对一致性<td width="177" valign="top" style="width:106.3pt;border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">自动输出<td width="123" valign="top" style="width:73.75pt;border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt">HL<span style="font-family:宋体;mso-ascii-font-family: Calibri;mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">统计量<td valign="top" style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">越小<td valign="top" style="border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">越好<td width="197" valign="top" style="width:117.9pt;border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt"><span style="font-family:宋体;mso-ascii-font-family:Calibri; mso-ascii-theme-font:minor-latin;mso-fareast-font-family:宋体;mso-fareast-theme-font:minor-fareast;mso-hansi-font-family:Calibri;mso-hansi-theme-font:minor-latin">度量观测值和预测值总体的一致性<td width="177" valign="top" style="width:106.3pt;border-top:none;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:solid windowtext 1.0pt;mso-border-top-alt:solid windowtext .5pt;mso-border-left-alt:solid windowtext .5pt;mso-border-alt:solid windowtext .5pt;padding:0cm 5.4pt 0cm 5.4pt">。