MSA计数型(kappa)分析表
MSA KAPPA

KAPPA测试流程
我司KAPPA流程
Q&ቤተ መጻሕፍቲ ባይዱ Thank you!
准确和精确
不准确但精确
准确但不精确
不准确和不精确
准确性
精确性
3.KAPPA简介
3.KAPPA方案案例
备注:
在选择测试样品时,要考虑以下几方面: 如果只有两个类别:良品和次品: 1.至少应该选择20个良品和20个次品。 2.最多可选择50个良品和50个次品。 3.尽量保持大约50%的良品和50%的次品 4.选择20%容易出错、不容易区分或极限样品。 5.选择不同程度或不同标准的良品和次品
无锡市方舟科技电子有限公司 MSA(计量型和计数型)
目 录 1.MSA简介? 2.计量型GR&R和KAPPA计数型区别
3. KAPPA简介和方案案例
4.利用KAPPA方案效果评估 5.KAPPA外观检验试点的实际测试 6.下周开始总测&外观检验试行
1.MSA简介
2.计量型GR&R(ANOVA)和KAPPA计数型区别
读懂MSA手册中Kappa分析的结果(IATF16949五大手册 测量系统分析)

44,是A和B都评价150次,两 个人都认为不合格的次数
0 A
1
总计
B
0
1
观测值 44
6
期望值 15.7
34.3
观测值
3
97
期望值 31.3
68.7
观测值 47
103
期望值 47.0 103.0
总计
50 50.0 100 100.0 150 150.0
6,是A和B都评价 150次,A认为不合 格,而B认为合格
的次数
假设检验分析—交叉表法 评价人A与评价人B的交叉表
3,是A和B都评价150次,A认 为合格,B认为不合格的次数
0 A
1
总计
B
0
1
观测值 44
6
期望值 15.7
34.3
观测值
3
97
期望值 31.3
68.7
观测值 47
103
期望值 47.0 103.0
总计
50 50.0 100 100.0 150 150.0
期望是试验中每次可能结果的概率乘以其结果的总和 可以这样理解,当多次进行这样的试验,最终获得的结果就是期望值
期望的计算方法
简单例子:扔硬币,国徽向上获得1元,扔一次付出0.6元,那 么多次这样扔,收益多少?
计算:收益=获得—付出=0.5X1-0.6=-0.1元。这是赔钱的
假设检验分析—交叉表法
评价人A与评价人B的交叉表
假设检验分析—交叉表法
评价人A与评价人B的交叉表
这里15.7的期望值,通过评价人A、 B共同选择不合格的概率乘以评价
B
次数总获得计
0 A
1
总计
0
KAPPA【MSA】

Minitab工具
Kappa计算也可以通过软件Minitab来实现 路径: 打开Minitab 软件-打开工作表- 统计-质量工具-属性一致性分析.下表为 范例.
范例
1.打开工作表,选择kappa test excl.
2. 点击统计-质量工具-属性一致性分析
3.输入数据:属性列(T)为“判定值”,样本(L)为“样品”,检验 员(A)为“检验员”
下表代表上表的数据,其中每个单元格 用总数的百分比来表示
Rater A First Measure Good Bad Rater A Second Measure
检验员A比例
代表10/20
Good Bad
0.5 0.05 0.55
0.1 0.35 0.45
0.6 0.4
由行和列的总和计算而得
计算检验员A的Kappa值
◆测试样品收集
在选择测试样品时,要考虑以下几方面:
如果只有两个类别:良品和次品,
◆至少应该选择20个良品和20个次品
最多可选择 50个良品和50个次品
尽量保持大约50%的良品和50%的次品
选择不同程度的良品和次品
如果样品类别超过2种,其中一类是优良,其它类别是不同 种类的缺陷方式 ◆至少应该选择大约50%的良品和每种缺陷方式最少为10%的
3第二格代表检验员a在第一次测量中判定一个样品为次品在第二次测量中判定为良品的次数第四格代表检验a在第一次测量和第二次测量中判定一个样品为次品的次数第三格代表检验员a在第一次测量中判定一个样品为良品在第二次测量中判定为次品的次数交叉表边格的数字代表行和列的总和交叉表比例检验员a比例下表代表上表的数据其中每个单元格用总数的百分比来表示代表1020由行和列的总和计算而得对kappa的定义将有所不同取决于我们是在定义检验员内部kappa还是在定义检验员之间的kappa计算检验员a的kappa值pobserved检验员两次判断一致比率检验员a两次一致判定为良品
MSA计数型测量系统分析-假设试验分析法(KAPPA)

B
0.954 Good
C
0.954 Good
测量系 统有效
评价人
零件总数 正确判断数 有效性% 结* 有论效性 = 正确
A
30 29 97% Good
B
30 29 97% Good
C
30 29 97% Good
评价人 的接受
漏发警报的比例
结论
误发警报的比例
A
0%
接受
1%
B
0%
接受
1%
* 漏C发警
0%
D
16
D
D
D
17
A
A
A
18
D
D
D
19
D
D
D
20
D
D
D
21
D
D
D
22
D
D
D
23
D
D
D
24
D
D
D
25
D
D
D
26
D
D
D
27
D
D
D
28
A
A
A
29
D
D
D
30
D
D
D
评价人之间数据报
A1*C1
A D D D D D D D A D D D D D D D A D D D D D D D D D D A D D
A2*C2
1
3
1
1
1
1
1
1
1
1
1
1
4
1
1
1
1
1
1
1
1
1
计数型MSA

零件代号 量具名称 操作者A 0 0 0 工序名称 检验日期 操作者B 0 0 0 检测项目 量具编号 操作者C 0 0 0 技术要求 0 B 数量 期望的数量 A 数量 1 期望的数量 数量 总计 期望的数量 Po= 1.00 0 0 150 150.0 0 0.0 150 150.0 Pe= B*C交叉表 C 数量 期望的数量 B 数量 1 期望的数量 数量 总计 期望的数量 Po= 1.00 0 0 150 150.0 0 0.0 150 150.0 Pe= C*A交叉表 A 数量 期望的数量 C 数量 1 期望的数量 数量 总计 期望的数量 Po= 1.00 0 0 150 150.0 0 0.0 150 150.0 Pe= 1 0 0.0 0 0.0 0 0.0 总计 150 150 0 0 150 150 0 1 0 0.0 0 0.0 0 0.0 总计 150 150 0 0 150 150 0 1 0 0.0 0 0.0 0 0.0 总计 150 150 0 0 150 150 0
评价人可接受
B #DIV/0! B 1.000 0.000 0.000
评价人可接受
C #DIV/0! C 1.000 0.000 0.000
评价人可接受
结论
有效性 错误率 错误报警率 结论
部门:品质部
编制:
校核:
总计 150 150 0 0 150 150
1.00
1.00
C*参考交叉表 参考 数量 期望的数量 C 数量 1 期望的数量 数量 总计 期望的数量 Po= 1.00 0 150 150.0 0 0.0 150 150.0 Pe= 1 0 0.0 0 0.0 0 0.0
总计 150 150 0 0 150 150
MSA第三版中KAPPA分析法精讲

Top Consulting
总计 7 33.0 92 66.0 99 99.0 50 50.0 100 100.0 150 150.0
A
1
总计
观测值 期望值 观测值 期望值 观测值 期望值
假设检验分析—交叉表方法
计算Kappa值 Kappa=(P0-Pe)/(n-Pe) 其中P0=对角线单元中观测值的总和; Pe=对角线单元中期望值的总和。 A与B的Kappa值 P0=44+97=141 Pe=15.7+68.7=84.4 Kappa=(141-84.4)/(150-84.4)=0.86
Top Consulting
风险分析法
数据收集 随机从过程中抽取50个零件样本,以获得覆盖过 程范围的零件。使用3名评价人,每位评价人 对每个零件评价3次,将评价结果记录在“计 数型研究数据表”中。1代表接受,0代表不接 受。参见附表。 评价的组织人员通过使用实验室设备等获得每个 零件的基准值,表中的“-”、“+”、“×”代 表零件处于I区、III区和II区。
50 39
系统有效得分与计数
50 39
64%
78%
64%
78%
89%
89%
结论:1 评价人自己在所有试验上都一致 2 评价人在所有试验上都与基准一致 3 所有评价人自己保持一致,两两间一致 4 所有评价人自己和两两间一致且与基准一致
Top Consulting
Top Consulting
A与B的交叉表
0 44 15.7 3 31.3 47 47.0
Top Consulting
MSA计数型Kappa分析
0 24 3.8 0 20.2 24 24.0
基准值
1 0 20.2 126 105.8 126 126.0
0 25 4.9 2 22.1 27 27.0
B 1 2
22.1 121 100.9 123 123.0
0 24 4.3
0
19.7 24 24.0
C 1 3
22.7
123
103.3 126
126.0
结论: 1、 所有评价人与基准之间有很好的一致性。 2、 所有评价人之间有很好的一致性。 3、 所有评价人都可以接受的。
评价人A与基准交叉表数据分析
24,是评价人A在150次判定中, 基准值不合格,A也认为不合格的
次数
A与基准 交叉表
数量
0 期望数量
A
数量
1 期望数量
总计
数量 期望数量
基准值
0
1
24
代码
+ + - + × + - + + + - + + + + + + - + + + - + + + + × + + + × × + + - + + - + + + + + + + - + + + +
量具名称: 量具编号: 量具型号: 零件名称: 交叉表:
A
外观检验
H4灯头
A与基准 交叉表
0 1 总计
1
1
1
1
1
1
1
1
1
MSA计数型(Kappa)分析表
评价人:B
B-1
B-2
B-3
1
1
1
1
1
1
0
0
0
1
1
1
1
0
0
1
MSA测量系统分析全套表格模板(全公式未加密)
1、2、3、4、5、线性GRR计数型Kappa分析MSA测量系统分析全套表格模板稳定性偏倚Excel原件可在本文档左侧回形针处取出再现性Kappa=(Po-Pe)/(1-Pe)A*参考 交叉表A01总计Po:0.95Pe:0.51B*参考 交叉表B01总计Po:0.97Pe:0.51C*参考 交叉表C01总计Po:0.96Pe:0.5130期望的数量26.4636.5463数量38487期望的数量数量60363一致性好6666Kappa 一致性好判定误发期望的数量638728 4.76%可接受2.30%可接受 4.76%可接受3.45%可接受可接受5.75%可接受01参考总计62063871501C0.90有效性判定重复性检查总数匹配数漏发A A B 评价人评价人%B 93.33%可接受判 定判定0.9383.33%2530 3.17%36.5450.4687数量638715090.00%可接受0.92A C 一致性好150期望的数量B 期望的数量36.9651.0488数量6387150期望的数量26.0435.9662数量38588期望的数量6387数量60248.7284150数量6387150期望的数量35.28数量28284总计01Kappa 判 定A*B 0.89一致性好C 3027A*C 0.93一致性好参考B*C 参考总计可接受期望的数量27.7238.280.90一致性好数量615Page 11 of 11。
计数型GRR-KAPPA(MSA第四版)
Source
Total Inspected
#Matched
False Negative
Fales Positive
Mixed
95%UCI
Calclated Score
95%LCI
Total inspected
#in Agreement
95%UCI
Calculated Score
95%LCI
样本:
补充:
kappa大于0.75表示有很好的一致
对于产品控制的情况下,当测量结果与决定准则是确定“符合或不符合某特
性的规范”(如:100%检验或抽样),样品(或标准)必须被选择,但不需
要包括整个过程范围。
测量系统的评估是以特性公差为基础(如对公差
的%GRR)。
在过程研究情况下,当测量结果与决定准则是确定“过程稳定性、方向以及
是否符合自然的过程变差”(如:SPC、过程控制、能力及过程改进),在整
个作业过程范围的样本可获得性变得非常重要。
当评估一测量系统对过程控
制的适用性时(如对过程变差的%GRR),推荐采用过程变差的独立估计法
(过程能力研究)。
如果Ppk大于1,则将测量系统与过程进行比较
如果Ppk小于1,则将测量系统与公差进行比较。
计数型MSA:Kappa分析中“期望计数”的计算方法
计数型MSA:Kappa分析中“期望计数”的计算方法我们仍用MSA手册中的例子来做说明。
两评价人A和B分别对随机抽取的50个零件进行测量,对每个零件的测量随机地重复了3次。
设定1表示可接受的决定(即评为1类),0表示不可接受的决定(即评为0类)。
测量结果用以下交叉表列出。
科恩(Cohen)给出的Kappa计算公式为:MSA手册中定义P0为对角栏框中(观测)计数占总计数的比例,Pe为对角栏框中期望计数占总计数的比例。
(第三版中文MSA手册中翻译有误,这里是按英文版翻译过来的)(观测)计数容易理解,如对角栏框中的44表示A和B都评为0类的测量次数,97表示A 和B都评为1类的测量次数,而6则表示A评为0类但B评为1类的测量次数,3则表示A评为1类但B评为0类的测量次数。
因此,,P0也就是评价人A和B在测量中实际一致性的比率。
那期望计数是指什么呢?假如这两位评价人都是任意地(猜测)将50 个零件判定为可接受或不可接受,其结果也会达到一定程度的一致,不过这里的一致是偶然达到的,这种偶然达到的一致性比率称为偶然一致性比率,也就是Kappa计算中的Pe。
当评价人A 与B 随机地作评价时,此两人行动一定是独立的,互不影响,从而两人同评为0 类的概率为P0+×P+0,两人同评为1 类的概率为P1+×P+1。
(这里P0+表示A评价人评为0类的测量次数占总测量次数的比率,P1+表示A评价人评为1类的测量次数占总测量次数的比率;同理P+0、P+1分别表示B评价人评为0类的测量次数占总测量次数的比率,和B评价人评为1类的测量次数占总测量次数的比率。
这时偶然一致性比率Pe = P0+×P+0+ P1+×P+1。
因此,这里15.7和68.7分别就是两评价人同时评为0类和1类的期望计数,分别为对应单元格行总计数乘以列总计数除以总计数(即总测量次数)所得。
同样31.3和34.3这两个期望计数也是按同样方式得出的。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
表单编号:QR-QA-50 版本:02
MSA计数型(Kappa)分析表
量具名称: 量具编号: 量具型号: 零件名称: 交叉表: A与基准 0 A 1 总计 交叉表 数量 期望数量 数量 期望数量 数量 期望数量 交叉表 数量 期望数量 数量 期望数量 数量 期望数量 交叉表 数量 期望数量 数量 期望数量 数量 期望数量 基准值 0 21 3.8 3 20.2 24 24.0 1 3 20.2 123 105.8 126 126.0 基准值 0 21 3.8 3 20.2 24 24.0 1 3 20.2 123 105.8 126 126.0 基准值 0 24 3.8 0 20.2 24 24.0 B 0 22 3.8 2 20.2 24 24.0 C 0 21 3.8 3 20.2 24 24.0 C 0 21 3.8 3 20.2 24 24.0 1 3 20.2 123 105.8 126 126.0 1 3 20.2 123 105.8 126 126.0 1 2 20.2 124 105.8 126 126.0 1 0 20.2 126 105.8 126 126.0 总计 24 24.0 126 126.0 150 150.0 总计 24 24.0 126 126.0 150 150.0 总计 24 24.0 126 126.0 150 150.0 总计 24 24.0 126 126.0 150 150.0 总计 24 24.0 126 126.0 150 150.0 总计 24 24.0 126 126.0 150 150.0 Po 0.96 Pe 0.73 评价人A: 评价人B: 评价人C: 零件数量: 分析人: 评价时间: 测量次数: 3次/人 50 pcs 评价人与基准值交叉数据: 0-0 0-1 1-0 A 21 3 3 B 21 3 3 C 24 0 0 Kappa程度: Kappa A A — B 90.08% C 85.12% 基准 85.12% 评价人有效性: 项目 A 有效性 92.00% 漏检 12.50% 误判 2.38% 1-1 123 123 126
A与B
交叉表 0 数量 期望数量 数量 期望数量 数量 期望数量
Po 0.97 Pe 0.73 Po 0.96 Pe 0.73 注:
A 1 总计 B与C
交叉表 0 数量 期望数量 数量 期望数量 数量 期望数量
B 1 总计
Kappa=(Po-Pe)/(1-Pe) Po=对角栏框中,观测比例的总和; Pe=对角栏框中,期望比例的总和; 有效性 =作出正确决定次数/总决定次数 1表示GOOD,0表示NO GO
B 90.08% — 85.12% 85.12%
C 85.12% 85.12% — 100.00%
B 94.00% 12.50% 2.38%
C 100.00% 0.00% 0.00%
C与基准 0 C 1 总计
Po 1.00 Pe 0.73 判定标准: Kappa大于0.75表示有很好的一致性, Kappa为1时,表示有完全的一致性, Kappa小于0.40则表示一致性不好。 判定 可接受 可接受边 缘,可能 需改进 不可接受 需要改进 有效性 ≥90% ≥80% <80% 漏检 ≤2% ≤5% >5% 误判 ≤5% ≤10% >10%
MSA计数型(Kappa)分析表
零件 序号 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 评价人A A-1 1 1 0 1 1 1 0 1 1 1 0 1 1 1 1 1 1 0 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 0 1 1 1 1 A-2 1 1 0 1 1 1 0 1 1 1 0 1 1 1 1 1 1 0 1 1 1 0 1 1 1 1 1 1 1 1 1 0 1 1 1 1 1 0 1 1 1 1 1 1 1 0 1 1 1 1 A-3 1 1 0 1 0 1 0 1 1 1 0 1 1 1 1 1 1 0 1 1 1 0 1 1 1 1 0 1 1 1 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 0 1 1 1 1 B-1 1 1 0 1 1 1 0 1 1 1 0 1 1 1 1 1 1 0 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 0 1 1 1 1 评价人B B-2 1 1 0 1 0 1 0 1 1 1 0 1 1 1 1 1 1 0 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 0 1 1 1 1 B-3 1 1 0 1 0 1 0 1 1 1 0 1 1 1 1 1 1 0 1 1 1 0 1 1 1 1 1 1 1 1 0 1 1 1 1 1 1 0 1 1 1 1 1 1 1 0 1 1 1 1 C-1 1 1 0 1 1 1 0 1 1 1 0 1 1 1 1 1 1 0 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 0 1 1 0 1 1 1 1 1 1 1 0 1 1 1 1 评价人C C-2 1 1 0 1 1 1 0 1 1 1 0 1 1 1 1 1 1 0 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 0 1 1 0 1 1 1 1 1 1 1 0 1 1 1 1 C-3 1 1 0 1 1 1 0 1 1 1 0 1 1 1 1 1 1 0 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 0 1 1 0 1 1 1 1 1 1 1 0 1 1 1 1 基准值 1 1 0 1 1 1 0 1 1 1 0 1 1 1 1 1 1 0 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 0 1 1 0 1 1 1 1 1 1 1 0 1 1 1 1 代码 + + - + × + - + + + - + + + + + + - + + + - + + + + × + + + × × + + × + + - + + + + + + + - + + + +
A与C
交叉表 0 数量 期望数量 数量 期望数量 数量 期望数量
Po 0.96 Pe 0.73
结论: 1、 所有评价人与基准之间有很好的一致性。 2、 所有评价人之间有很好的一致性。 3、 所有评价人都可以接受的。
A 1 总计
审核:
制订: