MSA计数型Kappa分析
MSA分析

MSA分析MSA(Kappa)分析是一种常用的可靠性分析方法,用于评估两个或多个评价者在分类测量任务中的一致性。
在医学、社会科学、市场研究和质量控制等领域中广泛应用。
本文将介绍MSA(Kappa)分析的基本背景、计算公式以及如何对数据进行解读。
1.背景在实际操作中,评价者可能会对同一对象进行分类,但每个评价者的主观判断可能存在差异,导致结果不一致。
为了度量这种一致性,MSA (Kappa)分析应运而生。
它可以用来评估评价者之间的一致性水平,以便确定评价者是否具有一致的分类标准。
2.计算公式MSA(Kappa)分析的计算基于一个叫做Kappa系数(κ)的统计指标。
Kappa系数用于评估评价者之间的一致性程度,其取值范围为[-1, 1]。
Kappa系数为正值时表示评价者之间具有一致性,为负值时表示评价者之间具有不一致性,为0时表示评价者的一致性程度与随机分类的一致性相当。
Kappa系数的计算公式为:Pr(a)-Pr(e)κ=--------------------------1-Pr(e)其中,Pr(a)为评价者之间的一致性概率,Pr(e)为评价者独立分类的概率。
在实际应用中,这两个概率可以通过计算评价者的分类结果来进行估算。
3.数据解读根据计算得到的Kappa系数,我们可以对评价者的一致性做出以下解读:-κ>0.75:评价者之间具有很高的一致性-κ=0.40-0.75:评价者之间具有一致性,但仍存在一定程度的不一致性-κ<0.40:评价者之间的一致性水平较低此外,我们还可以通过Kappa系数的置信区间来评估评价者的一致性。
如果置信区间跨越了0,表明评价者的一致性不显著;如果置信区间不包含0,表明评价者的一致性显著。
4. MSA(Kappa)分析的应用MSA(Kappa)分析广泛应用于医学领域、社会科学、市场研究和质量控制等领域。
例如,在医学领域中,医生对疾病的诊断和病情的评估可能存在主观判断的差异,MSA(Kappa)分析可以用于评估医生之间的一致性,从而提高医疗诊断的准确性和可靠性。
MSA计数型(kappa)分析表

表单编号:QR-QA-50 版本:02
MSA计数型(Kappa)分析表
量具名称: 量具编号: 量具型号: 零件名称: 交叉表: A与基准 0 A 1 总计 交叉表 数量 期望数量 数量 期望数量 数量 期望数量 交叉表 数量 期望数量 数量 期望数量 数量 期望数量 交叉表 数量 期望数量 数量 期望数量 数量 期望数量 基准值 0 21 3.8 3 20.2 24 24.0 1 3 20.2 123 105.8 126 126.0 基准值 0 21 3.8 3 20.2 24 24.0 1 3 20.2 123 105.8 126 126.0 基准值 0 24 3.8 0 20.2 24 24.0 B 0 22 3.8 2 20.2 24 24.0 C 0 21 3.8 3 20.2 24 24.0 C 0 21 3.8 3 20.2 24 24.0 1 3 20.2 123 105.8 126 126.0 1 3 20.2 123 105.8 126 126.0 1 2 20.2 124 105.8 126 126.0 1 0 20.2 126 105.8 126 126.0 总计 24 24.0 126 126.0 150 150.0 总计 24 24.0 126 126.0 150 150.0 总计 24 24.0 126 126.0 150 150.0 总计 24 24.0 126 126.0 150 150.0 总计 24 24.0 126 126.0 150 150.0 总计 24 24.0 126 126.0 150 150.0 Po 0.96 Pe 0.73 评价人A: 评价人B: 评价人C: 零件数量: 分析人: 评价时间: 测量次数: 3次/人 50 pcs 评价人与基准值交叉数据: 0-0 0-1 1-0 A 21 3 3 B 21 3 3 C 24 0 0 Kappa程度: Kappa A A — B 90.08% C 85.12% 基准 85.12% 评价人有效性: 项目 A 有效性 92.00% 漏检 12.50% 误判 2.38% 1-1 123 123 126
KAPPA【MSA】

Rater A First Measure Good Bad Rater A Second Measure
检验员A比例
代表10/20
Good Bad
0.5 0.05 0.55
0.1 0.35 0.45
0.6 0.4
由行和列的总和计算而得
计算检验员A的Kappa值
Content
1.Kappa 简介
2.Kappa 测试流程
3.Kappa 测试执行步骤
4.Kappa 判别标准
Kappa简介:
●Kappa,中文为卡帕,是度量测验结果一致程
度的统计量.
在计数型测量系统中研究一个测量员重复两次 (或测量结果与标准之间的一致性)测量结果 的一致性,或者两个测量员的测量结果之间的 一致性
产品.比如选择40个样品,其中良品约需20个,其中一类
不良缺陷至少需要4个. 这些类别应该互相排斥,否则它们应该合并起来
KAPPA Test
让每个测试员至少两次判定同一样品
为每个测试员建立独立的Kappa表,计算他 们的Kappa值
Kappa表例
Part 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 First Mea. Second Mea. First Mea. Second Mea. First Mea. Second Mea. Rater A Rater A Rater B Rater B Rater C Rater C Good Good Good Good Good Good Bad Bad Good Bad Bad Bad Good Good Good Good Good Good Good Bad Good Good Good Good Bad Bad Bad Bad Bad Bad Good Good Good Good Good Good Bad Bad Bad Bad Bad Bad Good Good Bad Good Good Bad Good Good Good Good Good Good Bad Bad Bad Bad Bad Bad Good Good Good Good Good Good Good Good Good Bad Good Good Bad Bad Bad Bad Bad Bad Good Good Bad Good Good Good Good Good Good Good Good Good Bad Good Good Good Good Good Bad Bad Bad Good Bad Good Good Good Good Good Good Good Bad Bad Bad Bad Bad Bad Bad Good Good Bad Bad Bad
读懂MSA手册中Kappa分析的结果(IATF16949五大手册 测量系统分析)

44,是A和B都评价150次,两 个人都认为不合格的次数
0 A
1
总计
B
0
1
观测值 44
6
期望值 15.7
34.3
观测值
3
97
期望值 31.3
68.7
观测值 47
103
期望值 47.0 103.0
总计
50 50.0 100 100.0 150 150.0
6,是A和B都评价 150次,A认为不合 格,而B认为合格
的次数
假设检验分析—交叉表法 评价人A与评价人B的交叉表
3,是A和B都评价150次,A认 为合格,B认为不合格的次数
0 A
1
总计
B
0
1
观测值 44
6
期望值 15.7
34.3
观测值
3
97
期望值 31.3
68.7
观测值 47
103
期望值 47.0 103.0
总计
50 50.0 100 100.0 150 150.0
期望是试验中每次可能结果的概率乘以其结果的总和 可以这样理解,当多次进行这样的试验,最终获得的结果就是期望值
期望的计算方法
简单例子:扔硬币,国徽向上获得1元,扔一次付出0.6元,那 么多次这样扔,收益多少?
计算:收益=获得—付出=0.5X1-0.6=-0.1元。这是赔钱的
假设检验分析—交叉表法
评价人A与评价人B的交叉表
假设检验分析—交叉表法
评价人A与评价人B的交叉表
这里15.7的期望值,通过评价人A、 B共同选择不合格的概率乘以评价
B
次数总获得计
0 A
1
总计
0
MSA计数型Kappa分析

3
4.3
22.7
0
123
19.7 103.3
24
126
24.0 126.0
总计
27 27.0 123 123.0 150 150.0
Po 0.98
Pe 0.72
3,是评价人A 在150次判定中, A也认为不合格 的次数,基准值
不合格,
评价人A与基准交叉表数据分析
0,是评价人A在150次判定中,基 准值不合格,A也认为不合格的次
Po 0.98
Pe 0.72
3,是评价人A 在150次判定中, A认为合格的总 数,(0+123=123)
评价人A与基准交叉表数据分析
24,是基准总的不合格总数,不 合格8个,3次判定(8*3=24)
A与基准 交叉表
数量
0 期望数量
A
数量
1 期望数量
总计
数量 期望数量
基准值
0
1
24
3
4.3
22.7
1 期望数量
总计
数量 期望数量
基准值
0
1
24
3
4.3
22.7
0
123
19.7 103.3
24
126
24.0 126.0
总计 27 27.0 123 123.0 150 150.0
Po 0.98
Pe 0.72
KAPPA=(P0-Pe )/ (n-Pe ) P0 =24+123
Pe =4.3+103.3 总评价次数:150
总计
27 27.0 123 123.0 150 150.0
总计
27 27.0 123 123.0 150
MSA计数型测量系统分析-假设试验分析法(KAPPA)

B
0.954 Good
C
0.954 Good
测量系 统有效
评价人
零件总数 正确判断数 有效性% 结* 有论效性 = 正确
A
30 29 97% Good
B
30 29 97% Good
C
30 29 97% Good
评价人 的接受
漏发警报的比例
结论
误发警报的比例
A
0%
接受
1%
B
0%
接受
1%
* 漏C发警
0%
D
16
D
D
D
17
A
A
A
18
D
D
D
19
D
D
D
20
D
D
D
21
D
D
D
22
D
D
D
23
D
D
D
24
D
D
D
25
D
D
D
26
D
D
D
27
D
D
D
28
A
A
A
29
D
D
D
30
D
D
D
评价人之间数据报
A1*C1
A D D D D D D D A D D D D D D D A D D D D D D D D D D A D D
A2*C2
1
3
1
1
1
1
1
1
1
1
1
1
4
1
1
1
1
1
1
1
1
1
MSA计数型测量系统分析——假设试验分析法(Kappa)
6.136.13 计数型测量系统分析计数型测量系统分析——————假设试验分析法假设试验分析法假设试验分析法((Kappa Kappa))说明:参照张智勇所著《ISO/TS16949五大工具最新版一本通》(机械工业出版社)编写。
计数型测量系统的分析是为了确定不同班次,不同生产线的检查人员是否能正确地区分合格品和不合格品,分析出测量结果与标准值的符合程度,以及他们自身和相互之间重复检查的一致程度。
假设试验分析—交叉表法是一种常用的计数型测量系统分析方法。
交叉表法可以在基准值(分析用样品称为基准,用计量型测量系统对样品进行测量,测量值称为基准值)已知的情况下进行,也可以在基准值未知的情况下进行。
在基准值未知的情况下进行,可以评价测量人之间的一致性,但不能评价测量系统区分好与不好的能力。
在基准值已知的情况下,即可评价测量人之间的一致性,又能评价测量人员与基准值的一致性,以及测量的有效性、漏判率和误判率,从而判断出测量人区分合格和不合格零件的能力。
6.136.13.1 .1 .1 未知基准值的一致性分析未知基准值的一致性分析1)随机选取g=50(一般选取g=30~50个样本)个能够覆盖过程范围的零件,对这些零件进行编号。
零件的编号不要让测量人知道,但分析人应该知道。
2)由3名评价人以随机盲测的方式测量所有零件各m=3次,每人测量次数为n=g×m=50×3=150次。
“接受”记为“1”,“拒绝”记为“0”,将三人所测150×3=450个数据记录于表6-21中。
测量时应按这样的规则进行:先让A 测量人以随机顺序对50个零件进行第1轮测量,然后让B 测量人、C 测量人以随机顺序进行第1轮测量,再让A 测量人进行第2轮测量,以此类推,完成测量工作。
表6-21 计数型测量系统分析数据表零件测量人A 测量人B 测量人C基准基准值代码A-1 A-2 A-3 B-1 B-2 B-3 C-1 C-2 C-31 1 1 1 1 1 1 1 1 1 1 0.476 901 +2 1 1 1 1 1 1 1 1 1 1 0.509015 +3 0 0 0 0 0 0 0 0 0 0 0.576459 -4 0 0 0 0 0 0 0 0 0 0 0.566152 -5 0 0 0 0 0 0 0 0 0 0 0.57036 -6 1 1 0 1 1 0 1 0 0 1 0.544 951 ×7 1 1 1 1 1 1 1 0 1 1 0.465454 ×8 1 1 1 1 1 1 1 1 1 1 0.502295 +9 0 0 0 0 0 0 0 0 0 0 0.437817 -10 1 1 1 1 1 1 1 1 1 1 0.515573 +11 1 1 1 1 1 1 1 1 1 1 0.488905 +12 0 0 0 0 0 0 0 10 0 0.559918 ×13 1 1 1 1 1 1 1 1 1 1 0.542704 +14 1 1 0 1 1 1 1 0 0 1 0.454518 ×15 1 1 1 1 1 1 1 1 1 1 0.517377 +16 1 1 1 1 1 1 1 1 1 1 0.531939 +17 1 1 1 1 1 1 1 1 1 1 0.519694 +18 1 1 1 1 1 1 1 1 1 1 0.484167 +19 1 1 1 1 1 1 1 1 1 1 0.520496 +20 1 1 1 1 1 1 1 1 1 1 0.477236 +21 1 1 0 1 0 1 0 1 0 1 0.452310 ×22 0 0 1 0 1 0 1 10 0 0.545604 ×23 1 1 1 1 1 1 1 1 1 1 0.529065 +24 1 1 1 1 1 1 1 1 1 1 0.514192 +25 0 0 0 0 0 0 0 0 0 0 0.599581 -26 0 1 0 0 0 0 0 0 1 0 0.547204 ×27 1 1 1 1 1 1 1 1 1 1 0.502436 +28 1 1 1 1 1 1 1 1 1 1 0.521642 +29 1 1 1 1 1 1 1 1 1 1 0.523754 +30 0 0 0 0 0 1 0 0 0 0 0.561457 ×31 1 1 1 1 1 1 1 1 1 1 0.503091 +32 1 1 1 1 1 1 1 1 1 1 0.505850 +33 1 1 1 1 1 1 1 1 1 1 0.487613 +34 0 0 1 0 0 1 0 1 1 0 0.449696 ×35 1 1 1 1 1 1 1 1 1 1 0.498698 +36 1 1 0 1 1 1 1 0 1 1 0.543077 ×37 0 0 0 0 0 0 0 0 0 0 0.409238 -38 1 1 1 1 1 1 1 1 1 1 0.488184 +39 0 0 0 0 0 0 0 0 0 0 0.427687 -40 1 1 1 1 1 1 1 1 1 1 0.501132 +41 1 1 1 1 1 1 1 1 1 1 0.513779 +42 0 0 0 0 0 0 0 0 0 0 0.566575 -43 1 0 1 1 1 1 1 1 0 1 0.462410 ×44 1 1 1 1 1 1 1 1 1 1 0.470832 +45 0 0 0 0 0 0 0 0 0 0 0.412453 -46 1 1 1 1 1 1 1 1 1 1 0.493441 +47 1 1 1 1 1 1 1 1 1 1 0.486379 +48 0 0 0 0 0 0 0 0 0 0 0.587893 -49 1 1 1 1 1 1 1 1 1 1 0.483803 +50 0 0 0 0 0 0 0 0 0 0 0.446697 -3)根据表6-21中的0和l 数据的结果将评价人A 和B、B 和C、A 和C 利用交叉表方法进行统计(见表6-22),A*B 栏中“0*0”代表A、B 两人均判拒绝的次数,统计有44个;“0*1”代表A 判拒绝而B 判接受的次数,统计有6个;“1*0”代表A 判接受而B 判拒绝的次数,统计有3个;“1*1”代表AB 两人同时判为接受的次数,统计有97个,将统计结果依次填入表6-22中。
MSA第三版中KAPPA分析法精讲
Top Consulting
总计 7 33.0 92 66.0 99 99.0 50 50.0 100 100.0 150 150.0
A
1
总计
观测值 期望值 观测值 期望值 观测值 期望值
假设检验分析—交叉表方法
计算Kappa值 Kappa=(P0-Pe)/(n-Pe) 其中P0=对角线单元中观测值的总和; Pe=对角线单元中期望值的总和。 A与B的Kappa值 P0=44+97=141 Pe=15.7+68.7=84.4 Kappa=(141-84.4)/(150-84.4)=0.86
Top Consulting
风险分析法
数据收集 随机从过程中抽取50个零件样本,以获得覆盖过 程范围的零件。使用3名评价人,每位评价人 对每个零件评价3次,将评价结果记录在“计 数型研究数据表”中。1代表接受,0代表不接 受。参见附表。 评价的组织人员通过使用实验室设备等获得每个 零件的基准值,表中的“-”、“+”、“×”代 表零件处于I区、III区和II区。
50 39
系统有效得分与计数
50 39
64%
78%
64%
78%
89%
89%
结论:1 评价人自己在所有试验上都一致 2 评价人在所有试验上都与基准一致 3 所有评价人自己保持一致,两两间一致 4 所有评价人自己和两两间一致且与基准一致
Top Consulting
Top Consulting
A与B的交叉表
0 44 15.7 3 31.3 47 47.0
Top Consulting
计数型MSA:Kappa分析中“期望计数”的计算方法
计数型MSA:Kappa分析中“期望计数”的计算方法我们仍用MSA手册中的例子来做说明。
两评价人A和B分别对随机抽取的50个零件进行测量,对每个零件的测量随机地重复了3次。
设定1表示可接受的决定(即评为1类),0表示不可接受的决定(即评为0类)。
测量结果用以下交叉表列出。
科恩(Cohen)给出的Kappa计算公式为:MSA手册中定义P0为对角栏框中(观测)计数占总计数的比例,Pe为对角栏框中期望计数占总计数的比例。
(第三版中文MSA手册中翻译有误,这里是按英文版翻译过来的)(观测)计数容易理解,如对角栏框中的44表示A和B都评为0类的测量次数,97表示A 和B都评为1类的测量次数,而6则表示A评为0类但B评为1类的测量次数,3则表示A评为1类但B评为0类的测量次数。
因此,,P0也就是评价人A和B在测量中实际一致性的比率。
那期望计数是指什么呢?假如这两位评价人都是任意地(猜测)将50 个零件判定为可接受或不可接受,其结果也会达到一定程度的一致,不过这里的一致是偶然达到的,这种偶然达到的一致性比率称为偶然一致性比率,也就是Kappa计算中的Pe。
当评价人A 与B 随机地作评价时,此两人行动一定是独立的,互不影响,从而两人同评为0 类的概率为P0+×P+0,两人同评为1 类的概率为P1+×P+1。
(这里P0+表示A评价人评为0类的测量次数占总测量次数的比率,P1+表示A评价人评为1类的测量次数占总测量次数的比率;同理P+0、P+1分别表示B评价人评为0类的测量次数占总测量次数的比率,和B评价人评为1类的测量次数占总测量次数的比率。
这时偶然一致性比率Pe = P0+×P+0+ P1+×P+1。
因此,这里15.7和68.7分别就是两评价人同时评为0类和1类的期望计数,分别为对应单元格行总计数乘以列总计数除以总计数(即总测量次数)所得。
同样31.3和34.3这两个期望计数也是按同样方式得出的。
计数型MSA表格(Kappa模型)-公式可见-可编辑-无锁定
A
0.0
B
60
C
60.0
总计 判定结论:
A — 0.000 0.000
B 0.000
— 0.000
C 0.000 0.000
—
B 0.00 数量
期望数量
1.00 数量
期望数量
60 60.0
0 0.0
0
60
0.0 60.0
0
0
0.0 0.0
总计 A与C交叉表
数量 期望数量
A 总计
0.00 数量
期望数量
1.00 数量
期望数量 数量 期望数量
60 60.0
C 0.00
60 60.0
0 0.0
60 60.0
0 0.0
1.00 0
0.0 0
0.0 0
0.0
60 60.0 总计
60 60.0
0 0.0
60 60.0
注:Kapaa=(Po-Pe)/(1-Pe) Po=对角线单元中观测值的总和 Pe=对角线单元中期望值的总和 有效性 = 正确判断的数量 / 判断的机会总数
计数型测量系统研究(Kappa模型)
零件 A-1
A-2
A-3
B-1
B-2
B-3
C-1
C-2
C-3
1
2
3
4
5
6
7
9
10
11
12
13
14
15
16
17
18
19
20
评价人
分析:
确认:
基准
基准 值
代码 - - - - - - - - - - - - - - - - - - - -
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
0 24 3.8 0 20.2 24 24.0
基准值
1 0 20.2 126 105.8 126 126.0
0 25 4.9 2 22.1 27 27.0
B 1 2
22.1 121 100.9 123 123.0
0 24 4.3
0
19.7 24 24.0
C 1 3
22.7
123
103.3 126
126.0
结论: 1、 所有评价人与基准之间有很好的一致性。 2、 所有评价人之间有很好的一致性。 3、 所有评价人都可以接受的。
评价人A与基准交叉表数据分析
24,是评价人A在150次判定中, 基准值不合格,A也认为不合格的
次数
A与基准 交叉表
数量
0 期望数量
A
数量
1 期望数量
总计
数量 期望数量
基准值
0
1
24
代码
+ + - + × + - + + + - + + + + + + - + + + - + + + + × + + + × × + + - + + - + + + + + + + - + + + +
量具名称: 量具编号: 量具型号: 零件名称: 交叉表:
A
外观检验
H4灯头
A与基准 交叉表
0 1 总计
1
1
1
1
1
1
1
1
1
MSA计数型(Kappa)分析表
评价人:B
B-1
B-2
B-3
1
1
1
1
1
1
0
0
0
1
1
1
1
0
0
1
1
1
0
0
0
1
1
1
1
1
1
1
1
1
0
0
0
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
0
0
0
1
1
1
1
1
1
1
1
1
0
0
0
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
0
1
1
1
1
1
1
1
1
1
0
0
0
1
1
1
1
1
1
A-1
A-2
A-3
1
1
1
1
1
1
0
0
0
1
1
1
1
1
0
1
1
1
0
0
0
1
1
1
1
1
1
1
1
1
0
0
0
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
0
0
0
1
1
1
1
1
1
1
1
1
0
0
0
1
1
1
1
1
1
1
1
1
1
1
1
1
1
0
1
1
1
1
1
1
1
1
1
1
1
1
1
0
1
1
1
1
1
1
1
0
0
0
111来自111
0
0
0
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
0
0
0
1
1
1
总计
27 27.0 123 123.0 150 150.0
总计
27 27.0 123 123.0 150
Po 0.98 Pe 0.72
Po 0.98 Pe 0.72
Po 1.00 Pe 0.73
Po 0.97 Pe 0.70
Po 0.98 Pe 0.72
Po 0.98 Pe 0.72
分析人:
评价时间:
<80%
漏检 ≤2% ≤5%
>5%
1-1 123 123 126
C 92.92% 92.92%
— 100.00%
C 100.00%
0.00% 0.00%
误判 ≤5% ≤10%
>10%
注: Kappa=(Po-Pe)/(1-Pe) Po=对角栏框中,观测比例的总和; Pe=对角栏框中,期望比例的总和; 有效性 =作出正确决定次数/总决定次数 1表示GOOD,0表示NO GOOD;
数量
期望数量 数量 期望数量
A与C 交叉表
0 A
1
总计
数量 期望数量 数量 期望数量 数量
评价人A: 评价人B: 评价人C: 零件数量:
0 24 4.3 0 19.7 24 24.0
基准值
1 3 22.7 123 103.3 126 126.0
0 24 4.3 0 19.7 24 24.0
基准值
1 3 22.7 123 103.3 126 126.0
零件 序号
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50
评价人:A
B 90.97%
— 92.92% 92.92%
B 96.00% 0.00% 2.38%
判定标准: Kappa大于0.75表示有很好的一致性, Kappa为1时,表示有完全的一致性, Kappa小于0.40则表示一致性不好。
判定 可接受
可接受边缘,可能 需改进
不可接受 需要改进
有效性 ≥90% ≥80%
0 24 4.3 0 19.7 24
C 1 3
22.7 123 103.3 126
50
pcs
总计
27 27.0 123 123.0 150 150.0
总计
27 27.0 123 123.0 150 150.0
总计
24 24.0 126 126.0 150 150.0
总计
27 27.0 123 123.0 150 150.0
20200718
测量次数:
3次/人
设定:1可接受;0不可接受
评价人与基准值交叉数据:
0-0
0-1
A
24
0
B
24
0
C
24
0
Kappa程度: Kappa A B C 基准
A — 90.97% 92.92% 92.92%
评价人有效性: 项目 有效性 漏检 误判
A 94.00% 0.00% 2.38%
1-0 3 3 0
数量 期望数量 数量 期望数量 数量 期望数量
B与基准 交叉表
0 B
1
总计
数量 期望数量 数量 期望数量 数量 期望数量
C与基准 交叉表
0 C
1
总计
数量 期望数量 数量 期望数量 数量 期望数量
A与B 交叉表
0 A
1
总计
数量 期望数量 数量 期望数量 数量 期望数量
B与C 交叉表
0 B
1
总计
数量 期望数量
0
0
0
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
0
0
0
1
1
1
1
1
1
1
1
1
1
1
1
评价人:C
C-1
C-2
C-3
1
1
1
1
1
1
0
0
0
1
1
1
1
1
1
1
1
1
0
0
0
1
1
1
1
1
1
1
1
1
0
0
0
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
0
0
0
1
1
1
1
1
1
1
1
1
0
0
0
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1