xml分类器训练
目标检测的图像特征提取之(一)HOG特征

⽬标检测的图像特征提取之(⼀)HOG特征1、HOG特征:⽅向梯度直⽅图(Histogram of Oriented Gradient, HOG)特征是⼀种在计算机视觉和图像处理中⽤来进⾏物体检测的特征描述⼦。
它通过计算和统计图像局部区域的梯度⽅向直⽅图来构成特征。
Hog特征结合SVM分类器已经被⼴泛应⽤于图像识别中,尤其在⾏⼈检测中获得了极⼤的成功。
需要提醒的是,HOG+SVM进⾏⾏⼈检测的⽅法是法国研究⼈员Dalal在2005的CVPR上提出的,⽽如今虽然有很多⾏⼈检测算法不断提出,但基本都是以HOG+SVM的思路为主。
(1)主要思想:在⼀副图像中,局部⽬标的表象和形状(appearance and shape)能够被梯度或边缘的⽅向密度分布很好地描述。
(本质:梯度的统计信息,⽽梯度主要存在于边缘的地⽅)。
(2)具体的实现⽅法是:⾸先将图像分成⼩的连通区域,我们把它叫细胞单元。
然后采集细胞单元中各像素点的梯度的或边缘的⽅向直⽅图。
最后把这些直⽅图组合起来就可以构成特征描述器。
(3)提⾼性能:把这些局部直⽅图在图像的更⼤的范围内(我们把它叫区间或block)进⾏对⽐度归⼀化(contrast-normalized),所采⽤的⽅法是:先计算各直⽅图在这个区间(block)中的密度,然后根据这个密度对区间中的各个细胞单元做归⼀化。
通过这个归⼀化后,能对光照变化和阴影获得更好的效果。
(4)优点:与其他的特征描述⽅法相⽐,HOG有很多优点。
⾸先,由于HOG是在图像的局部⽅格单元上操作,所以它对图像⼏何的和光学的形变都能保持很好的不变性,这两种形变只会出现在更⼤的空间领域上。
其次,在粗的空域抽样、精细的⽅向抽样以及较强的局部光学归⼀化等条件下,只要⾏⼈⼤体上能够保持直⽴的姿势,可以容许⾏⼈有⼀些细微的肢体动作,这些细微的动作可以被忽略⽽不影响检测效果。
因此HOG特征是特别适合于做图像中的⼈体检测的。
2、HOG特征提取算法的实现过程:⼤概过程:HOG特征提取⽅法就是将⼀个image(你要检测的⽬标或者扫描窗⼝):1)灰度化(将图像看做⼀个x,y,z(灰度)的三维图像);2)采⽤Gamma校正法对输⼊图像进⾏颜⾊空间的标准化(归⼀化);⽬的是调节图像的对⽐度,降低图像局部的阴影和光照变化所造成的影响,同时可以抑制噪⾳的⼲扰;3)计算图像每个像素的梯度(包括⼤⼩和⽅向);主要是为了捕获轮廓信息,同时进⼀步弱化光照的⼲扰。
熟悉分类器的基本原理与使用方法

熟悉分类器的基本原理与使用方法近年来,随着机器学习技术的发展,分类器已成为一种常用的分类算法。
分类器的作用是根据已有的数据集来分类新的数据。
本文将重点介绍分类器的基本原理与使用方法。
一、分类器的基本原理分类器的基本原理是通过对已有的数据进行学习,建立分类模型,再利用该模型对新的数据进行分类。
具体而言,分类器分为两个阶段:1.训练阶段训练阶段是分类器的学习过程。
这个阶段我们需要准备好一组已经分类好的数据,即训练数据集。
分类器通过学习这些数据集中的种类和规律,建立分类模型,并对训练数据集的正确率进行训练。
分类器训练的目标是使分类模型对未知数据的分类准确率尽可能高。
2.测试阶段测试阶段是分类器应用模型将未知数据进行分类的过程。
在测试阶段中,我们需要将新的数据输入模型,让分类器根据模型对数据进行分类。
分类器会将新数据分到已知分类中,并给出分类概率值,这样我们可以根据概率值来判断分类标签是否正确。
二、分类器的使用方法分类器的使用步骤如下:1.准备数据集分类器需要用到已知分类的数据,所以我们需要准备好一个训练数据集。
在准备数据集时,我们需要注意以下几点:(1)数据集应该足够大,充分反映出数据的统计规律。
(2)数据集应该涵盖所有分类情况,尽量多样化。
(3)数据集应该保持一致性,避免数据集中出现错误或者不一致的情况。
2.选择分类器选择合适的分类器是分类任务的关键。
目前常用的分类器有:朴素贝叶斯分类器、决策树分类器、支持向量机分类器、逻辑回归分类器等。
在选择分类器时应考虑以下因素:(1)样本数量。
(2)样本维度。
(3)分类数据分布特征。
(4)分类准确性要求。
3.训练分类器在选择合适的分类器后,我们需要对分类器进行训练。
分类器学习的过程主要包括以下几个步骤:(1)导入数据。
(2)划分训练集和测试集。
(3)训练分类器。
(4)评估模型性能。
4.测试分类器训练完成后,我们需要对分类器进行测试。
在测试过程中,我们需要将新的数据输入训练好的分类模型,分类器将返回分类结果以及该结果的概率值。
基于极限学习机的XML文档分类

dr=dr【dr2 , r _ ( s)_ i d s _ s _ 1 s 一 _ ㈨) ,
的第 i X 个 ML文档元素的 T I FDF特征 向量 。
d r『 =∑ sf Ⅳ(F( ,o . £ I W ̄ 1 z d c DF( ) e
_
( 3 )
其 中,d r _s 代 表通 过 , G阂值 约简产 生的 n维结构 向量 中
Ivre c met rq e c) : n es u n Fe uny值 Do
d =T w ,o l 、 F( id G)DF( i w) () 2
作者筒介 : ̄
(94 ,男 ,副教授 ,主研方向 :数据挖掘 16 一)
E m i 4 6 8 9 @q . m - a :3 2 9 8 7 q o l c
2 结构约筒 向量 空i模型 . 2 可 文献【] 出基于 VS 的扩展 向量模型 S V 5提 M L M。S VM L
一
基 于 单 层 前 馈 神 经 网 络 (i l—id n L y rF e fr ad Sn e d e a e edow r g h Nerl t rsS F ) uaNe k , L Ns的学 习算法 。在 E M 中 ,隐藏节点 wo L
收稿 日 : 0 1 32 期 2 1— —3 0
l8 7
2 , ix,=∑ g( ・ , ) O , =12 ・, = f ,,一N pg ( ) w X +
.
计
算
() 5
机
工
程
v co [ ] =1 etr + k
e df r n o
21年 1 01 0月 5日
() 4
对于文档集 D,d r 表示文档 ; _s
智能移动设备上人脸定位的实现与优化

智能移动设备上人脸定位的实现与优化【摘要】随着模式识别与人工智能学科的发展,现在已经从尖端科技慢慢渗透到我们的日常生活中。
但是因为民用设备一般性能有限,想要在有限的资源下做到比较好的识别准确性,就要在实现时对其进行优化。
本文以在有android系统的移动设备上,使用NDK和OpenCV的人脸定位为例,讨论了在移动设备上人脸定位的实现以及在有限的资源下对识别率和效率的一种优化。
经试验证明有很好的提升效果。
【关键词】OpenCV;模式识别;android;机械学习;NDK;人脸定位1.前言因为移动智能设备外形小巧,携带方便等,现在人们使用普通pc机的时间已经慢慢地被移动设备替代。
android系统的NDK是使用c\c++的开发环境,c \c++通用型比较好,算法移植方便,但是NDK的相关资料不是很多,这也导致程序编写时出现某些错误很难解决。
移动设备与普通pc机相比有一个很大的劣势——普通pc机的单核处理能力很强。
但移动设备在核心数量上却没有劣势,所以很多使用串行的方法的文献对人脸定位进行优化并不能很好的体现在移动设备上,会使系统的实时性大打折扣。
使用Haar特征的级联分类器是比较流行的人脸检测工具,其不错的识别率很受欢迎,而且可以自己训练。
由于同种人的肤色相近,而HSI上的H分量对光照影响极小,只通过H分量即可很好的判断是否为检测到的人脸为真人脸,在加入其他特征的判断,会使得准确性提升明显。
2.整体方案2.1 使用的工具OpenCV:OpenCV的全称是:Open Source Computer Vision Library。
它是一个跨平台的计算机视觉库,民用和商用两方面免费。
可以对源码进行修改和二次编译,大大加强了其中函数的灵活性。
使用非常方便。
OpenCV提供了丰富的计算机视觉相关函数,使得开发的效率大幅度提供,而且还支持一些高级的视觉相关方法,比如目标跟踪,机器学习等。
本次使用的版本为OpenCV2.4.8。
java-opencv-训练自己的物体分类器

java-opencv-训练⾃⼰的物体分类器收集正,负样本(刚开始可以先⽤50~100左右的样本量试试看,正,负样本数量最好⼤于1000,具体看个⼈感觉)。
正样本,需要做识别物体的图⽚(本⽂收集60张):正样本负样本,任意不包含正样本的图⽚(本⽂收集106张):第⼆步:调整样本,并⽣成样本描述⽂件调整样本----将正,负样本转换灰度(本⽂采⽤:IMREAD_GRAYSCALE),调整⼤⼩(本⽂采⽤:正20X20,负50X50)(据说,正20X20最佳)。
调整后正样本:调整后负样本:⽣成样本描述⽂件:cmd 进⼊posdata⽬录,执⾏ dir /b/s/p/w *.jpg > pos.txt同理进⼊negdata⽬录,执⾏ dir /b/s/p/w *.jpg > neg.txtpos.txt内容如下:neg.txt内容如下:修改pos.txt⽂件(neg.txt不⽤修改)如下:“1 0 0 20 20”,为固定格式,其中20指的是照⽚的像素⼤⼩。
第三步:⽣成.vec⽂件将\opencv\build\x64\vc14\bin 下的所有⽂件复制到posdata⽬录同级⽬录下;将上⼀步最后⽣成的pos.txt,neg.txt⽂件也放⼊该同级⽬录,如下:cmd 进⼊该⽬录,执⾏:opencv_createsamples.exe -vec pos.vec -info pos.txt -num 60 -w 20 -h 20其中-num 60,指的是图⽚的数量,-w 20 -h 20,指的是图⽚的规格。
创建traincascade.bat⽂件,添加内容:opencv_traincascade.exe -data xml -vec pos.vec -bg neg.txt -numPos 48 -numNeg 80 -numStages 10 -w 20 -h 20 -mode ALLpause其中-numPos 48为训练取的正样本的样本(取样本数量的0.8~0.9,本⽂取48),-numNeg 80为训练取的负样本的样本(取样本数量的0.8~0.9,本⽂取80),-numStages 10 表⽰训练的层数(建议15~20,本⽂取10),此时⽬录中⽂件如下;双击运⾏traincascade.bat,如下:在xml⽬录下⽣成的cascade.xml⽂件就是训练出来的分类器。
opencv级联分类器训练与使用

opencv级联分类器训练与使用什么是级联分类器?级联分类器是一种机器学习模型,用于目标检测和识别。
它是由多个分类器级联组成的模型,每个分类器都有不同的检测强度。
这种级联结构能够有效地筛选出具有较高置信度的正样本,从而加快目标检测速度,同时保持较高的检测准确性。
级联分类器的训练过程:1. 收集训练样本:首先需要收集一些正样本和负样本作为训练样本。
正样本是我们要识别的目标,而负样本则是与目标无关的背景图像。
这些样本应该尽可能覆盖实际应用中可能出现的情况。
2. 特征提取:对于每个训练样本,我们需要提取一些特征来描述图像中的目标。
OpenCV中常用的特征是Haar特征,它可以描述图像中的边缘和纹理等信息。
3. 训练分类器:利用提取的特征,我们可以使用AdaBoost算法训练分类器。
AdaBoost算法是一种迭代训练方法,它通过一系列弱分类器的加权组合来构建一个强分类器。
在每一轮迭代中,AdaBoost会根据分类错误的样本进行权重调整,以便更好地分类错误的样本。
4. 级联分类器的构建:通过训练得到的强分类器,我们可以将它们级联在一起,形成一个级联分类器。
级联分类器的结构通常是以层级的形式组织起来,每一层都包含若干个分类器。
级联分类器的使用过程:1. 加载分类器:首先需要加载训练好的级联分类器模型。
OpenCV提供了一个专门的类——CascadeClassifier来实现这个功能。
可以使用CascadeClassifier类的load方法来加载级联分类器的XML文件。
2. 图像预处理:在进行目标检测之前,我们需要对待检测图像进行一些预处理操作,以提高检测的准确性和速度。
这些预处理操作可以包括图像灰度化、直方图均衡化等。
3. 目标检测:通过调用CascadeClassifier类的detectMultiScale方法,传入待检测的图像,即可进行目标检测。
该方法会返回一组矩形框表示检测到的目标位置。
4. 结果展示:最后,我们可以在原始图像上绘制矩形框来标记检测到的目标位置,从而直观地展示检测结果。
OpenCV训练分类器制作xml

OpenCV训练分类器制作xml文档2009年12月19日星期六 21:032009-12-19考了CET英语,心情很差,估计又不过的,哎!英文差!于是看看书,看看自己感兴趣的书今天下午,研究了整个下午的小难题,在8点40分终于搞定了!肚子饿,还没吃饭,还没洗澡,克服了一个不懂的小难题,心理有点体会,想在这里留点纪念,方便别人以后学习。
于是乎,我写了:(那些开训练器的相关介绍我就不再详细谈了,进入正题)我的问题:有了opencv自带的那些xml人脸检测文档,我们就可以用cvLoad ()这个函数加载他们,让他们对我们的人脸进行检测,但是,现在生活中的计算机视觉并不远远是检测人脸,还有很多物品需要识别,所以,能不能自己做个xml的检测文档,用它来检测自己需要的东西呢?例如,检测一个可乐瓶!问题解决:首先了解下,目标检测分为三个步骤:1、样本的创建2、训练分类器3、利用训练好的分类器进行目标检测。
一,样本的创建:训练样本分为正例样本和反例样本,其中正例样本是指待检目标样本(例如可乐瓶,人脸等),反例样本指其它任意图片,所有的样本图片都被归一化为同样的尺寸大小(例如,20x20)。
1 负样本(反例样本)可以来自于任意的图片,但这些图片不能包含目标特征。
负样本由背景描述文件来描述。
背景描述文件是一个文本文件,每一行包含了一个负样本图片的文件名(基于描述文件的相对路径)。
该文件必须手工创建。
例如,假定目录下有 bg1.bmp bg2.bmp 这2个负样本的图片,这2个图片放在img 目录下,所以其背景描述文件 bg.txt 的内容为_img/bg1.bmp 1 0 0 24 28_ing/bg2.bmp 1 0 0 24 28_img/bg3.bmp 1 0 0 24 28_ing/bg4.bmp 1 0 0 24 28_img/bg5.bmp 1 0 0 24 28_ing/bg6.bmp 1 0 0 24 28_img/bg7.bmp 1 0 0 24 28_ing/bg8.bmp 1 0 0 24 28_img/bg9.bmp 1 0 0 24 28_ing/bg10.bmp 1 0 0 24 28这样负样本建立完毕,先保存!等会用!2,正样本现在,我们来看正样本的创建步骤:正样本由程序createsample 程序来创建。
智慧树知到《大数据工具应用》章节测试答案

绗竴绔?1銆?011骞撮害鑲敗鐮旂┒闄㈡彁鍑虹殑澶ф暟鎹畾涔夋槸锛氬ぇ鏁版嵁鏄寚鍏跺ぇ灏忚秴鍑轰簡甯歌鏁版嵁搴撳伐鍏疯幏鍙栥€佸偍瀛樸€佺鐞嗗拰锛? 锛夎兘鍔涚殑鏁版嵁闆嗐€?A:璁$畻B:璁块棶C:搴旂敤D:鍒嗘瀽绛旀: 鍒嗘瀽2銆佺敤4V鏉ユ鎷ぇ鏁版嵁鐨勭壒鐐圭殑璇濓紝涓€鑸槸鎸囷細Value銆乂elocity 銆乂olume鍜岋紙锛夈€?A:VarietyB:VainlyC:VagaryD:Valley绛旀: Variety3銆佸ぇ鏁版嵁鍒嗘瀽鍥涗釜鏂归潰鐨勫伐浣滀富瑕佹槸锛氭暟鎹垎绫汇€侊紙锛夈€佸叧鑱旇鍒欐寲鎺樺拰鏃堕棿搴忓垪棰勬祴銆?A:鏁版嵁缁熻B:鏁版嵁璁$畻C:鏁版嵁鑱氱被D:鏁版嵁娓呮礂绛旀: 鏁版嵁鑱氱被4銆佹柊娴拰浜笢鑱斿悎鎺ㄥ嚭鐨勫ぇ鏁版嵁鍟嗗搧鎺ㄨ崘锛屾槸鐢变含涓滅洸鐩帹閫佸埌褰撳墠娴忚鏂版氮缃戠珯鐨勭敤鎴风殑椤甸潰涓婄殑銆?A:瀵?B:閿?绛旀: 閿?5銆佺洰鍓嶇殑澶ф暟鎹鐞嗘妧鏈彧鑳藉鐞嗙粨鏋勫寲鏁版嵁銆?A:瀵?B:閿?绛旀: 閿?绗簩绔?1銆佹垜浠父鐢ㄧ殑寰蒋Office濂椾欢涓殑Access鏁版嵁搴撹蒋浠剁殑鏁版嵁搴撴枃浠舵牸寮忓悗缂€鍚嶆槸锛? 锛夈€?A:mdfB:mdbC:dbfD:xls绛旀: mdb2銆佸ぇ澶氭暟鏃ュ織鏂囦欢鐨勫悗缂€鍚嶆槸锛? 锛夈€?A:txtB:csvC:xmlD:log绛旀: log3銆佹湰璇剧▼閲嶇偣浠嬬粛鐨剋eka杞欢鐨勪笓鏈夋枃浠舵牸寮忔槸锛? 锛夈€?A:MongoDBB:ARFFC:valueD:key map绛旀: ARFF4銆佹暟鎹竻娲楀伐浣滅殑鐩殑涓昏鏄瑙e喅鏁版嵁鐨勫畬鏁存€с€佸敮涓€鎬с€佸悎娉曟€у拰锛? 锛夈€?A:涓撲笟鎬?B:鎺掍粬鎬?C:涓€鑷存€?D:鍏变韩鎬?绛旀: 涓€鑷存€?5銆佸叓鐖奔杞欢鐨勨€滆嚜瀹氫箟閲囬泦鈥濆伐浣滄柟寮忎笅锛岄渶瑕佸湪杞欢閲岃緭鍏ヤ竴涓紙锛夋潵浣滀负閲囬泦鐨勭洰鏍囥€?A:鐢佃瘽鍙风爜B:鍏抽敭璇?C:缃戦〉鍦板潃D:鐢ㄦ埛鍚?绛旀: 缃戦〉鍦板潃6銆佸叓鐖奔杞欢鐨勯噰闆嗚鍒欏彲浠ラ€氳繃鏂囦欢鐨勫舰寮忔潵瀵煎叆鎴栬€呭鍑猴紝杩欑鏂囦欢鐨勫悗缂€鍚嶆槸锛? 锛夈€?A:otdB:jpgC:pngD:gif绛旀: otd7銆丒xcel鍙互閫氳繃鈥滄暟鎹湁鏁堟€р€濇寜閽搷浣滄潵瑙勮寖鏁版嵁杈撳叆鐨勮寖鍥淬€?A:瀵?B:閿?绛旀: 瀵?8銆丒xcel涓嶈兘瀵煎叆txt鎴朿sv鏍煎紡鐨勬枃浠躲€?A:瀵?B:閿?绛旀: 閿?9銆佸叓鐖奔杞欢鍙兘瀵硅蒋浠跺唴寤轰簡鈥滅畝鏄撻噰闆嗏€濊鍒欑殑缃戠珯閲囬泦鏁版嵁銆?A:瀵?B:閿?绛旀: 閿?10銆佸叓鐖奔杞欢杩涜鑷畾涔夐噰闆嗘椂锛岄渶瑕佷簡瑙e缃戦〉鐨勯〉闈㈢粨鏋勩€?A:瀵?B:閿?绛旀: 瀵?绗笁绔?1銆佷娇鐢―BSCAN绠楁硶瀵归涪灏捐姳鏁版嵁闆嗭紙Iris.arff锛夎繘琛岃仛绫伙紝灏唀psilon鍙傛暟璁剧疆涓?.2锛? minPoints鍙傛暟璁剧疆涓?锛屽拷鐣lass灞炴€э紝閭d箞灏嗗舰鎴愶紙锛変釜绨囥€?A: 1B: 2C: 3D: 4绛旀: 32銆佷娇鐢‥M绠楁硶瀵瑰ぉ姘旀暟鎹泦锛坵eather.numeric.arff锛夎繘琛岃仛绫伙紝灏唍umClusters璁剧疆涓?锛屽嵆绨囨暟涓?锛屽叾浠栧弬鏁颁繚鎸侀粯璁ゅ€硷紝蹇界暐class灞炴€э紝浠庣粨鏋滀腑鍙煡锛屼笅鍒楅€夐」涓紝锛? 锛夋槸閿欒鐨勩€?A: 妯″瀷鐨勬渶澶т技鐒朵及璁″€兼槸-7.18B: 杩欑粍鏁版嵁鐢ㄧ畻娉曡凯浠?5娆?C: 绗洓涓皣鐨勫厛楠屾鐜囨槸0.14D: 绗洓涓皣鐨勫疄渚嬫暟涓?绛旀: 绗洓涓皣鐨勫疄渚嬫暟涓?3銆佷娇鐢⊿impleKMeans绠楁硶瀵瑰ぉ姘旀暟鎹泦锛坵eather.numeric.arff锛夎繘琛岃仛绫伙紝淇濇寔榛樿鍙傛暟锛屽嵆3涓皣浠ュ強娆ф皬璺濈銆傞€夋嫨play灞炴€т负蹇界暐灞炴€э紝浠庣粨鏋滀腑鍙煡锛屼笅鍒楅€夐」涓紝锛? 锛夋槸閿欒銆?A: 杩欑粍鏁版嵁鐢ㄧ畻娉曡凯浠e洓娆?B: 浜х敓浜嗕笁涓腑蹇冪偣C: 鑱氬悎涓?涓皣锛屽垎鍒湁7锛?锛?涓疄渚?D: 骞虫柟鍜岃宸负8.928绛旀: 杩欑粍鏁版嵁鐢ㄧ畻娉曡凯浠e洓娆?4銆佷娇鐢ㄧ嚎鎬у洖褰掞紙LinearRegression锛夊垎绫诲櫒鍜岀敤M5P鍒嗙被鍣ㄥcpu.arff鍒嗗埆杩涜鍒嗙被锛岀敱鍏惰緭鍑虹殑璇樊鎸囨爣鍙煡锛? 锛夈€?A: LinearRegression鐨勬爣鍑嗚宸瘮M5P鐨勬爣鍑嗚宸皬B: LinearRegression鐨勫钩鍧囩粷瀵硅宸瘮M5P鐨勫钩鍧囩粷瀵硅宸皬C: LinearRegression鐨勭浉瀵硅宸瘮M5P鐨勭浉瀵硅宸皬D: LinearRegression鐨勫钩鍧囨柟鏍硅宸瘮M5P鐨勫钩鍧囨柟鏍硅宸ぇ绛旀: LinearRegression鐨勫钩鍧囨柟鏍硅宸瘮M5P鐨勫钩鍧囨柟鏍硅宸ぇ5銆佸垹鍘籧pu.arff鏁版嵁鏂囦欢涓殑CACH灞炴€у悗锛屼娇鐢∕5P鍒嗙被鍣ㄦ瀯寤烘柟妗堬紝鍦ㄧ粨鏋滀腑锛屽埌杈綥M2鐨勫疄渚嬫暟鏈夛紙锛変釜銆?A: 165B: 21C: 23D: 30绛旀: 216銆佹牴鎹甁48鍒嗙被鍣ㄨ缁僿eather.nominal.arff鎵€鐢熶骇鐨勫喅绛栨爲锛屽綋outlook=sunny锛泃emperature=cool锛沨umidity =high锛泈indy=TRUE鏃讹紝鍒嗙被鐨勭粨鏋滄槸锛?锛夈€?A: YesB: NoC: 娌℃湁缁撴灉D: 鏃犳硶鍒嗙被绛旀: No7銆佹牴鎹甁48鍒嗙被鍣ㄨ缁僫ris.arff鎵€鐢熶骇鐨勫喅绛栨爲锛屽綋sepallength=4.4锛泂epalwidth=3.0锛沺etallength=1.3锛沺etalwidth=0.2鏃讹紝鍒嗙被鐨勭粨鏋滄槸锛? 锛夈€?A: Iris-setosaB: Iris-versicolorC: Iris-virginicaD: 鏃犳硶鍒嗙被绛旀: Iris-setosa8銆佸叧浜嶹eka绂绘暎鍖栬鏄庢纭殑鏄紙锛夈€?A: 绂绘暎鍖栨槸灏嗘暟鍊煎睘鎬ц浆鎹负瀛楃涓插瀷灞炴€?B: 鏈夌洃鐫g鏁e寲鏈変袱绉嶇瓑瀹藉拰绛夐鏂规硶C: 绛夊绂绘暎鍖栨槸浣垮疄渚嬪垎甯冨潎鍖€鐨?D: 绂绘暎鍖栧寘鎷棤鐩戠潱绂绘暎鍖栧拰鏈夌洃鐫g鏁e寲绛旀: 绂绘暎鍖栧寘鎷棤鐩戠潱绂绘暎鍖栧拰鏈夌洃鐫g鏁e寲9銆佷互涓嬶紙锛変笉鏄疻eka鐨勬暟鎹被鍨嬨€?A: numericB: nominalC: stringD: decimal绛旀: decimal10銆佸叧浜嶹eka鐨勬枃浠剁被鍨嬫弿杩伴敊璇殑鏄紙锛夈€?A: Weka鍙互鎵撳紑鏂囦欢鏍煎紡鏈?arff銆?csv銆?xlsxB: Weka澶勭悊鐨勬暟鎹泦绫讳技浜庡叧绯绘暟鎹簱妯瀹炰緥锛岀珫琛屽睘鎬?C: arff鏄疉SCII鏂囦欢锛屽彲浠ョ敤Word绛夋枃鏈紪杈戝櫒鎵撳紑鏌ョ湅D: @relation 瀹氫箟鏁版嵁闆嗗悕绉帮紝@data涔嬪悗鍛堢幇瀹炰緥锛屾瘡涓€琛屽氨鏄竴涓疄渚?绛旀: Weka鍙互鎵撳紑鏂囦欢鏍煎紡鏈?arff銆?csv銆?xlsx11銆佷互涓嬪睘浜庡叧鑱斿垎鏋愮殑鏄紙锛夈€?A: CPU鎬ц兘棰勬祴B: 璐墿绡垎鏋?C: 鑷姩鍒ゆ柇楦㈠熬鑺辩被鍒?D: 鑲$エ瓒嬪娍寤烘ā绛旀: 璐墿绡垎鏋?12銆佸ぇ鏁版嵁鏃朵唬鐨勫埌鏉ワ紝浣挎垜浠棤娉曚汉涓哄湴鍘诲彂鐜版暟鎹腑鐨勫ゥ濡欙紝涓庢鍚屾椂锛屾垜浠洿搴旇娉ㄩ噸鏁版嵁涓殑鐩稿叧鍏崇郴锛岃€屼笉鏄洜鏋滃叧绯汇€傚叾涓紝鏁版嵁涔嬮棿鐨勭浉鍏冲叧绯诲彲浠ラ€氳繃浠ヤ笅锛? 锛夌畻娉曠洿鎺ユ寲鎺樸€?A: K-meansB: Bayes NetworkC: C4.5D: Apriori绛旀: Apriori13銆佹煇瓒呭競鐮旂┒閿€鍞邯褰曟暟鎹悗鍙戠幇锛屼拱鍟ら厭鐨勪汉寰堝ぇ姒傜巼涔熶細璐拱灏垮竷锛岃繖绉嶅睘浜庢暟鎹寲鎺樼殑锛? 锛夐棶棰樸€?A: 鍏宠仈瑙勫垯鍙戠幇B: 鑱氱被C: 鍒嗙被D: 鑷劧璇█澶勭悊绛旀: 鍏宠仈瑙勫垯鍙戠幇14銆佸湪杩涜鑷姩閫夋嫨灞炴€ф椂锛屽繀椤昏绔嬩袱涓璞★紝鍏朵腑纭畾浣跨敤浠€涔堟柟娉曚负姣忎釜灞炴€у瓙闆嗗垎閰嶄竴涓瘎浼板€肩殑瀵硅薄鏄笅闈㈢殑锛? 锛夈€?A: 鎼滅储鏂规硶B: 灞炴€ц瘎浼板櫒C: 鍏冨垎绫诲櫒D: 瑙勫垯鎸栨帢绛旀: 灞炴€ц瘎浼板櫒15銆佷互涓嬪睘浜庡睘鎬х┖闂寸殑鎼滅储鏂规硶鐨勬槸锛?锛夈€?A: GainRatioAttributeEvalB: BestFirstC: PrincipalComponentsD: SymmetricalUncertAttributeEval绛旀: BestFirst16銆佸湪weka杞欢鎺㈢储鑰呯晫闈腑锛屽埄鐢╒isualize鏍囩椤甸€氳繃鏇存敼鍚勪釜鍙傛暟鏉ヨ繘琛屾暟鎹泦鐨勫彲瑙嗗寲灞炴€ц缃悗锛岄渶瑕佸崟鍑讳互涓嬶紙锛夋寜閽紝鎵€鏈夋洿鏀规墠浼氱敓鏁堛€?A: Select AttributeB: SubSampleC: UpdateD: Fast scrolling绛旀: Update17銆佺粰瀹氬叧鑱旇鍒橝B锛屾剰鍛崇潃锛氳嫢A鍙戠敓锛孊涔熶細鍙戠敓銆?A:瀵?B:閿?绛旀: 閿?18銆佹敮鎸佸害鏄閲忓叧鑱旇鍒欓噸瑕佹€х殑涓€涓寚鏍囥€?A:瀵?B:閿?绛旀: 瀵?19銆丷anker鏂规硶鏃㈠彲浠ョ敤浜庡崟涓睘鎬ц瘎浼板櫒锛屽張鍙互鐢ㄤ簬灞炴€у瓙闆嗚瘎浼板櫒銆?A:瀵?B:閿?绛旀: 閿?20銆佸埄鐢╳eka杞欢杩涜鏁版嵁鍙鍖栨椂锛岀敤鎴峰彲浠ラ€夋嫨绫诲埆灞炴€у鏁版嵁鐐圭潃鑹诧紝濡傛灉绫诲埆灞炴€ф槸鏍囩О鍨嬶紝鍒欐樉绀轰负褰╄壊鏉°€?A:瀵?B:閿?绛旀: 閿?绗洓绔?1銆佽礉鍙舵柉缃戠粶涓殑鑺傜偣浠h〃锛? 锛夈€?A:鍙橀噺B:闅忔満杩囩▼C:闅忔満鍙橀噺D:闅忔満鍑芥暟绛旀: 闅忔満鍙橀噺2銆佽礉鍙舵柉缃戠粶涓紝鑺傜偣闇€缁欏嚭姒傜巼鍒嗗竷鎻忚堪锛屽浜庣鏁e瀷闅忔満鍙橀噺鑰岃█锛屽彲浠ョ敤锛? 锛夌殑褰㈠紡琛ㄧず銆?A:鏉′欢姒傜巼瀵嗗害鍑芥暟B:姝f€佸垎甯?C:鏉′欢姒傜巼琛?D: 鍧囧寑鍒嗗竷绛旀: 鏉′欢姒傜巼琛?3銆佽礉鍙舵柉缃戠粶涓妭鐐逛箣闂寸殑杈逛唬琛紙锛夈€? A:闅忔満鍏崇郴B:姒傜巼鍥犳灉C:缁勫悎鍏崇郴D:闅忔満缁撴灉绛旀: 闅忔満鍏崇郴4銆佽礉鍙舵柉缃戠粶淇濆瓨鐨勬枃浠舵牸寮忔槸( )銆?A:XML BIFB:DOCXC: TXTD:XLS绛旀: XML BIF5銆佷笅闈紙锛変笉鏄弽鍚戜紶鎾缁忕綉缁滅殑缁撴瀯銆? A:杈撳叆灞?B:闅愬惈灞?C:璁$畻灞?D:杈撳嚭灞?绛旀: 璁$畻灞?6銆佺缁忕綉缁滀腑鐨勮妭鐐逛唬琛紙锛夈€?A:婵€鍔卞彉閲?B:婵€鍔卞嚱鏁?C:闅忔満鍙橀噺D:闅忔満鍑芥暟绛旀: 婵€鍔卞嚱鏁?7銆佷笅鍒楋紙锛変笉鏄父瑙佺殑婵€鍔卞嚱鏁般€?A:绾挎€у嚱鏁?B:Sigmoid鍑芥暟C:闃堝€煎嚱鏁?D:姝e鸡鍑芥暟绛旀: 姝e鸡鍑芥暟8銆佸湪璐濆彾鏂綉缁滅紪杈戠晫闈㈡椂锛屽鏋滆妭鐐圭殑鍚嶇О娌℃硶瀹屽叏鏄剧ず锛岄渶瑕佷粠锛? 锛夎彍鍗曢」杩涜璋冩暣銆?A:Tools|SetDataB:View|Zoom OutC:View|Zoom InD:Tools|Layout绛旀: Tools|Layout9銆乄EKA涓€夋嫨绁炵粡缃戠粶鍒嗙被鍣ㄦ搷浣滄椂锛屽簲璇ラ€夋嫨锛? 锛夈€?A:rules鏉$洰涓嬬殑PARTB:functions鏉$洰涓嬬殑SGD鍒嗙被鍣?C:functions鏉$洰涓嬬殑MultilayerPerceptron鍒嗙被鍣?D:榛樿鐨勫垎绫诲櫒绛旀: functions鏉$洰涓嬬殑MultilayerPerceptron鍒嗙被鍣?10銆佷笅闈㈠叧浜嶱ackage Manager瀹夎鍚庣殑鐩綍璇存槑涓嶆纭殑鏄紙锛夈€?A:doc瀛愮洰褰曞瓨鏀続PI鏂囨。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
分类:数据库/DB2/文章第一步采集样本1、将正负样本分别放在两个不同的文件夹下面分别取名pos和neg,其中pos用来存放正样本图像,neg用来存放负样本注意事项:1、正样本要统一切成24*24像素(或者其他)的格式,建议保存成灰度图,节省空间2、正样本的数目越多,训练的时间也将越长,训练出来的效果也就越好3、负样本的数量想对于正样本一定要足够的多,很多朋友在训练的时候,往往出现了CPU占用率达到了100%,但是训练只是停留在一个分类器长达几小时没有相应,问题出现在取负样本的那个函数icvGetHaarTrainingDataFromBG中; 当剩下所有的negtive样本在临时的cascade Classifier中,evaluate的结果都是0(也就是拒绝了),随机取样本的数目到几百万都是找不到误检测的neg样本了,因而没法跳出循环2、建立正负样本的说明文件这里我们假定根目录在D:\boost下面。
在cmd下面进入pos目录,输入dir /b > pos.txt这个时候会在pos文件加下面生成一个pos.txt文件,打开pos.txt我们对它进行如下编辑:(1)、将BMP 替换成为BMP 1 0 0 24 24注意:1代表此图片出现的目标个数后面的0 0 24 24代表目标矩形框(0,0)到(24,24),用户可以根据自身需要调整数值(2)、删除文本中最后一行的“pos.txt”2、对负样本进行编辑在CMD下输入dir /b > neg.txt同理,打开neg目录下的neg.txt文件,只需要删除最后一行的neg.txt这一句注意:1、负样本说明文件不能含有目标物体2、负样本图像尺寸不受到限制,但是尺寸越大,训练所用的时间越长,3、负样本图像可以是灰度图,也可以不是,笔者建议使用灰度图,这样处理起来可能更有效率4、负样本图像一定不要重复,增大负样本图像的差异性,可以增加分类器的使用范围,笔者建议可以使用网上的素材库,将1000多张不含目标的图片灰度处理后用来训练,效果更佳二、使用opencv_createsamples.exe创立样本VEC文件1、首先我们将要用的的2个程序opencv_createsamples.exe和opencv_haartraining.exe拷到根目录下在CMD下输入如下命令:opencv_createsamples.exe -vec pos.vec -info pos\pos.txt -bg neg\neg.txt -w 40 -h 40 -num 142以上参数的含义如下:-vec <vec_file_name>训练好的正样本的输出文件名。
-img<image_file_name>源目标图片(例如:一个公司图标)-bg<background_file_name>背景描述文件。
-num<number_of_samples>要产生的正样本的数量,和正样本图片数目相同。
-bgcolor<background_color>背景色(假定当前图片为灰度图)。
背景色制定了透明色。
对于压缩图片,颜色方差量由bgthresh 参数来指定。
则在bgcolor-bgthresh 和bgcolor+bgthresh 中间的像素被认为是透明的。
-bgthresh<background_color_threshold>-inv如果指定,颜色会反色-randinv如果指定,颜色会任意反色-maxidev<max_intensity_deviation>背景色最大的偏离度。
-maxangel<max_x_rotation_angle>-maxangle<max_y_rotation_angle>,-maxzangle<max_x_rotation_angle>最大旋转角度,以弧度为单位。
-show如果指定,每个样本会被显示出来,按下"esc"会关闭这一开关,即不显示样本图片,而创建过程继续。
这是个有用的debug 选项。
-w<sample_width>输出样本的宽度(以像素为单位)-h《sample_height》输出样本的高度,以像素为单位。
按下回车后我们的正样本三、使用opencv_haartraing.exe进行训练参数说明如下:Haartraining 的命令行参数如下:-data<dir_name>存放训练好的分类器的路径名。
-vec<vec_file_name>正样本文件名(由trainingssamples 程序或者由其他的方法创建的)-bg<background_file_name>背景描述文件。
-npos<number_of_positive_samples>,-nneg<number_of_negative_samples>用来训练每一个分类器阶段的正/负样本。
合理的值是:-nPos = 7000;nNeg = 3000-nstages<number_of_stages>训练的阶段数。
-nsplits<number_of_splits>决定用于阶段分类器的弱分类器。
如果1,则一个简单的stump classifier 被使用。
如果是2 或者更多,则带有number_of_splits 个内部节点的CART 分类器被使用。
-mem<memory_in_MB>预先计算的以MB 为单位的可用内存。
内存越大则训练的速度越快。
-sym(default)-nonsym指定训练的目标对象是否垂直对称。
垂直对称提高目标的训练速度。
例如,正面部是垂直对称的。
-minhitrate《min_hit_rate》每个阶段分类器需要的最小的命中率。
总的命中率为min_hit_rate 的number_of_stages 次方。
-maxfalsealarm<max_false_alarm_rate>没有阶段分类器的最大错误报警率。
总的错误警告率为max_false_alarm_rate 的number_of_stages 次方。
-weighttrimming<weight_trimming>指定是否使用权修正和使用多大的权修正。
一个基本的选择是0.9-eqw-mode<basic(default)|core|all>选择用来训练的haar 特征集的种类。
basic 仅仅使用垂直特征。
all 使用垂直和45 度角旋转特征。
-w《sample_width》-h《sample_height》训练样本的尺寸,(以像素为单位)。
必须和训练样本创建的尺寸相同在CMD下输入opencv_haartraining.exe -data xml -vec pos.vec -bg neg\neg.txt -w 40 -h 40 -mem 800然后开始训练训练过程如图,呵呵,要是成百上千的样本的话,我们先去吃完泡面休息一下吧好了,休息回来,训练完成提示信息如下:在根目录下就会生成相应的XML文件人脸数据库汇总■Annotated Database (Hand, Meat, LV Cardiac, IMM face) (http://www2.imm.dtu.dk/~aam/)■AR Face Database (/~aleix/aleix_face_DB.html)■BioID Face Database (/downloads/facedb/index.php)■Caltech Computational Vision Group Archive (Cars, Motorcycles, Airplanes, Faces, Leaves, Background)(/html-files/archive.html)■Carnegie Mellon Image Database (motion, stereo, face, car, ...) (/idb/)■CAS-PEAL Face Database (/peal/index.html)■CMU Cohn-Kanade AU-Coded Facial Expression Database (/projects/project_421.html■CMU Face Detection Databases (/projects/project_419.html)■CMU Face Expression Database (/projects/FaceAuthentication/download.htm)■CMU Face Pose, Illumination, and Expression (PIE) Database (/projects/project_418.html)■CMU VASC Image Database (motion, road sequences, stereo, CIL’s stereo data with ground truth, JISCT, face, face expressions, car) (/idb/)■Content-based Image Retrieval Database (/research/imagedatabase/groundtruth/) ■Face Video Database of the Max Planck Institute for Biological Cybernetics (http://vdb.kyb.tuebingen.mpg.de/)■FERET Database (/)■FERET Color Database (/iad/humanid/colorferet/home.html/colorferet/ )■Georgia Tech Face Database (/face_reco.htm)■German Fingerspelling Database (/face_reco.htm )■Indian Face Database (http:// /~vidit/IndianFaceDatabase)■MIT-CBCL Car Database (/software-datasets/CarData.html)■MIT-CBCL Face Recognition Database (/software-datasets/heisele/facerecognition-database.html)■MIT-CBCL Face Databases (/software-datasets/FaceData2.html)■MIT-CBCL Pedestrian Database (/software-datasets/PedestrianData.html)■MIT-CBCL Street Scenes Database (/software-datasets/streetscenes/)■NIST/Equinox Visible and Infrared Face Image Database (/products/HID.html)■NIST Fingerprint Data at Columbia (Link)■ORL Database of Faces (/research/dtg/attarchive/facedatabase.html)■Rutgers Skin Texture Database (/rutgers_texture/)■The Japanese Female Facial Expression (JAFFE) Database (/jaffe.html■The Ohio State University SAMPL Image Database (3D, still, motion) (/database.htm)■The University of Oulu Physics-Based Face Database (http://www.ee.oulu.fi/research/imag/color/pbfd.html)■UMIST Face Database (/danny/database.html)■USF Range Image Data (with ground truth) (/range/DataBase.html)■Usenix Face Database (hundreds of images, several formats) (Link)■UCI Machine Learning Repository (/~mlearn/MLSummary.html)■USC-SIPI Image Database (collection of digitized images) (/services/database/Database.html)■UCD VALID Database (multimodal for still face, audio, and video) (http://ee.ucd.ie/validdb/)■UCD Color Face Image (UCFI) Database for Face Detection (http://ee.ucd.ie/~prag/)■UCL M2VTS Multimodal Face Database (http://www.tele.ucl.ac.be/PROJECTS/M2VTS/m2fdb.html)■Vision Image Archive at UMass (sequences, stereo, medical, indoor, outlook, road, underwater, aerial, satellite, space and more) (/database/)■Where can I find Lenna and other images? (/faqs/compression-faq/part1/section-30.html)■Yale Face Database (/projects/yalefaces/yalefaces.html)■Yale Face Database B (/projects/yalefaces/yalefaces.html)目前人脸识别领域常用的人脸数据库主要有:1. FERET人脸数据库[2]由FERET项目创建,包含14,051张多姿态,光照的灰度人脸图像,是人脸识别领域应用最广泛的人脸数据库之一.其中的多数人是西方人,每个人所包含的人脸图像的变化比较单一.2. MIT人脸数据库[4]由麻省理工大学媒体实验室创建,包含16位志愿者的2,592张不同姿态,光照和大小的面部图像.3. Yale人脸数据库[5]由耶鲁大学计算视觉与控制中心创建,包含15位志愿者的165张图片,包含光照,表情和姿态的变化.4. Yale人脸数据库B[6]包含了10个人的5,850幅多姿态,多光照的图像.其中的姿态和光照变化的图像都是在严格控制的条件下采集的,主要用于光照和姿态问题的建模与分析.由于采集人数较少,该数据库的进一步应用受到了比较大的限制.5. PIE人脸数据库[7]由美国卡耐基梅隆大学创建,包含68位志愿者的41,368张多姿态,光照和表情的面部图像.其中的姿态和光照变化图像也是在严格控制的条件下采集的,目前已经逐渐成为人脸识别领域的一个重要的测试集合.6. ORL人脸数据库[8]由剑桥大学AT&T实验室创建,包含40人共400张面部图像,部分志愿者的图像包括了姿态,表情和面部饰物的变化.该人脸库在人脸识别研究的早期经常被人们采用,但由于变化模式较少,多数系统的识别率均可以达到90%以上,因此进一步利用的价值已经不大.7. PF01人脸数据库[9]由韩国浦项科技大学创建,包含103人的1,751张不同光照,姿态,表情的面部图像,志愿者以韩国人为主.8. AR人脸数据库[10]由西班牙巴塞罗那计算机视觉中心建立,包含116人的3,288幅图像.采集环境中的摄像机参数,光照环境,摄像机距离等都是严格控制的.9. BANCA人脸数据库[11]该数据库是欧洲BANCA计划的一部分,包含了208人,每人12幅不同时间段的面部图像.10. KFDB人脸数据库[12]包含了1,000人,共52,000幅多姿态,多光照,多表情的面部图像,其中姿态和光照变化的图像是在严格控制的条件下采集的.志愿者以韩国人为主.11. MPI人脸数据库[13]该人脸数据库包含了200人的头部3维结构数据和1,400幅多姿态的人脸图像.12. XM2VTS人脸数据库[14]包含了295人在4个不同时间段的图像和语音视频片断.在每个时间段,每人被记录了2个头部旋转的视频片断和6个语音视频片断.此外,其中的293人的3维模型也可得到.opencv老是卡在某一层,最近在做人脸检测的Haartraining训练分类器,发现训练到最后误检率很低时分类器总是卡到某一层就不在继续进行,像是进入了死循环,程序代码与参数输入应该是没有任何问题的,所以我从网上找这方面的资料,最后在OpenCV的中文论坛看到一个帖,终于找到原因了。