人脸识别matlab程序

合集下载

基于matlab程序实现人脸识别

基于matlab程序实现人脸识别

基于matlab程序实现人脸识别
人脸识别已经成为一个广泛被应用的技术,例如手机的解锁方式,安全系统等等。

它是一种基于人脸图像进行身份验证或身份识别的技术,也是近年来计算机视觉和模式识别领域研究的热点方向之一。

在这篇文档中,我们将介绍如何使用matlab编写一个简单的人脸识别程序。

人脸识别是什么?
人脸识别可以被定义为一个过程,旨在使用数字算法识别和验证图像或视频中
人脸身份。

在计算机科学的领域中,这项技术可以被描述为一种模式识别技术,
旨在通过在人脸图像上提取可识别特征来确定身份验证。

通俗易懂地理解,就是计算机能够识别人脸的特征,并将其与已知的数据匹配,从而确定人物身份。

人脸识别程序的开发流程
以下是本文介绍的基本程序开发流程:
1.数据集导入和预处理
2.特征提取和脸部对齐
3.模型训练和分类器设计
4.模型评估和测试
数据集导入和预处理
考虑到一个好的项目,我们需要一个良好的数据集。

在这里,我们可以使用来
自orl人脸数据集的数据。

该数据集中包含的有40个人的400幅灰度图像,每个
人有10个不同的示例。

您可以从该网站下载并使用这些数据来测试您的算法。

在这个过程中,我们需要使用matlab中的imread函数将数据读取为数字矩阵,然后将数据分为训练集和测试集。

这个过程旨在将原始的数据转换为我们算法能
够处理的数字矩阵,并将数据划分为训练集和测试集。

``` % 读取数据集 dataFolderPath =。

基于MATLAB的人脸朝向识别

基于MATLAB的人脸朝向识别

clear allclc;%% 人脸特征向量提取% 人数M=10;% 人脸朝向类别数N=5;% 特征向量提取pixel_value=feature_extraction(M,N);%% 训练集/测试集产生% 产生图像序号的随机序列rand_label=randperm(M*N);% 人脸朝向标号direction_label=repmat(1:N,1,M);% 训练集train_label=rand_label(1:30);P_train=pixel_value(train_label,:)';Tc_train=direction_label(train_label);T_train=ind2vec(Tc_train);% 测试集test_label=rand_label(31:end);P_test=pixel_value(test_label,:)';Tc_test=direction_label(test_label);%% K-fold交叉验证确定最佳神经元个数k_fold=10;Indices=crossvalind('Kfold',size(P_train,2),k_fold); error_min=10e10;best_number=1;best_input=[];best_output=[];best_train_set_index=[];best_validation_set_index=[];h=waitbar(0,'正在寻找最佳神经元个数.....');for i=1:k_fold% 验证集标号validation_set_index=(Indices==i);% 训练集标号train_set_index=~validation_set_index;% 验证集validation_set_input=P_train(:,validation_set_index);validation_set_output=T_train(:,validation_set_index);% 训练集train_set_input=P_train(:,train_set_index);train_set_output=T_train(:,train_set_index);for number=10:30for j=1:5rate{j}=length(find(Tc_train(:,train_set_index)==j))/length(find(train_set_index==1)) ;endnet=newlvq(minmax(train_set_input),number,cell2mat(rate));% 设置网络参数net.trainParam.epochs=100;net.trainParam.show=10;net.trainParam.lr=0.1;net.trainParam.goal=0.001;% 训练网络net=train(net,train_set_input,train_set_output);waitbar(((i-1)*21+number)/219,h);%% 仿真测试T_sim=sim(net,validation_set_input);Tc_sim=vec2ind(T_sim);error=length(find(Tc_sim~=Tc_train(:,validation_set_index)));if error<error_minerror_min=error;best_number=number;best_input=train_set_input;best_output=train_set_output;best_train_set_index=train_set_index;best_validation_set_index=validation_set_index;endendenddisp(['经过交叉验证,得到的最佳神经元个数为:' num2str(best_number)]); close(h);%% 创建LVQ网络for i=1:5rate{i}=length(find(Tc_train(:,best_train_set_index)==i))/length(find(best_train_set_i ndex==1));endnet=newlvq(minmax(best_input),best_number,cell2mat(rate),0.01);% 设置训练参数net.trainParam.epochs=100;net.trainParam.goal=0.001;net.trainParam.lr=0.1;%% 训练网络net=train(net,best_input,best_output);%% 人脸识别测试T_sim=sim(net,P_test);Tc_sim=vec2ind(T_sim);result=[Tc_test;Tc_sim]%% 结果显示% 训练集人脸标号strain_label=sort(train_label(best_train_set_index));htrain_label=ceil(strain_label/N);% 训练集人脸朝向标号dtrain_label=strain_label-floor(strain_label/N)*N;dtrain_label(dtrain_label==0)=N;% 显示训练集图像序号disp('训练集图像为:' );for i=1:length(find(best_train_set_index==1))str_train=[num2str(htrain_label(i)) '_'...num2str(dtrain_label(i)) ' '];fprintf('%s',str_train)if mod(i,5)==0fprintf('\n');endend% 验证集人脸标号svalidation_label=sort(train_label(best_validation_set_index)); hvalidation_label=ceil(svalidation_label/N);% 验证集人脸朝向标号dvalidation_label=svalidation_label-floor(svalidation_label/N)*N; dvalidation_label(dvalidation_label==0)=N;% 显示验证集图像序号fprintf('\n');disp('验证集图像为:' );for i=1:length(find(best_validation_set_index==1)) str_validation=[num2str(hvalidation_label(i)) '_'...num2str(dvalidation_label(i)) ' '];fprintf('%s',str_validation)if mod(i,5)==0fprintf('\n');endend% 测试集人脸标号stest_label=sort(test_label);htest_label=ceil(stest_label/N);% 测试集人脸朝向标号dtest_label=stest_label-floor(stest_label/N)*N;dtest_label(dtest_label==0)=N;% 显示测试集图像序号fprintf('\n');disp('测试集图像为:');for i=1:20str_test=[num2str(htest_label(i)) '_'...num2str(dtest_label(i)) ' '];fprintf('%s',str_test)if mod(i,5)==0fprintf('\n');endend% 显示识别出错图像error=Tc_sim-Tc_test;location={'左方' '左前方' '前方' '右前方' '右方'};for i=1:length(error)if error(i)~=0% 识别出错图像人脸标号herror_label=ceil(test_label(i)/N);% 识别出错图像人脸朝向标号derror_label=test_label(i)-floor(test_label(i)/N)*N;derror_label(derror_label==0)=N;% 图像原始朝向standard=location{Tc_test(i)};% 图像识别结果朝向identify=location{Tc_sim(i)};str_err=strcat(['图像' num2str(herror_label) '_'...num2str(derror_label) '识别出错.']);disp([str_err '(正确结果:朝向' standard...';识别结果:朝向' identify ')']);endend% 显示识别率disp(['识别率为:' num2str(length(find(error==0))/20*100) '%']); % 特征提取子函数function pixel_value=feature_extraction(m,n)pixel_value=zeros(50,8);sample_number=0;for i=1:mfor j=1:nstr=strcat('Images\',num2str(i),'_',num2str(j),'.bmp');img= imread(str);[rows cols]= size(img);img_edge=edge(img,'Sobel');sub_rows=floor(rows/6);sub_cols=floor(cols/8);sample_number=sample_number+1;for subblock_i=1:8for ii=sub_rows+1:2*sub_rowsfor jj=(subblock_i-1)*sub_cols+1:subblock_i*sub_colspixel_value(sample_number,subblock_i)=...pixel_value(sample_number,subblock_i)+img_edge(ii,jj);endendendendendfunction [w1,w2]=lvq1_train(P,Tc,Num_Compet,pc,lr,maxiter)%% 初始化权系数矩阵% 输入层与竞争层之间权值bound=minmax(P);w1=repmat(mean(bound,2)',Num_Compet,1);% 竞争层与输出层之间权值Num_Output=length(pc);pc=pc(:);indices=[0;floor(cumsum(pc)*Num_Compet)];w2=zeros(Num_Output,Num_Compet);for i=1:Num_Outputw2(i,(indices(i)+1):indices(i+1)) = 1;end%% 迭代计算n=size(P,2);for k=1:maxiterfor i=1:nd=zeros(Num_Compet,1);for j=1:Num_Competd(j)=sqrt(sse(w1(j,:)'-P(:,i)));end[min_d,index]=min(d);n1=compet(-1*d);n2=purelin(w2*n1);if isequal(Tc(i),vec2ind(n2));w1(index,:)=w1(index,:)+lr*(P(:,i)'-w1(index,:));elsew1(index,:)=w1(index,:)-lr*(P(:,i)'-w1(index,:));endendendfunction [w1,w2]=lvq2_train(P,Tc,Num_Compet,lr,maxiter,w1,w2)%% 迭代计算n=size(P,2);for k=1:maxiterfor i=1:n% 计算各个竞争层神经元与当前输入向量的距离d=zeros(Num_Compet,1);for j=1:Num_Competd(j)=sqrt(sse(w1(j,:)'-P(:,i)));end% 寻找与当前输入向量距离最小的竞争层神经元标号,记为index1[min_d1,index1]=min(d);% 计算与index1相连接的输出神经元对应的类别a1_1=compet(-1*d);n2_1=purelin(w2*a1_1);a2_1=vec2ind(n2_1);% 寻找与当前输入向量距离次小的竞争层神经元标号,记为index2d(index1)=inf;[min_d2,index2]=min(d);% 计算与index2相连接的输出神经元对应的类别a1_2=compet(-1*d);n2_2=purelin(w2*a1_2);a2_2=vec2ind(n2_2);% 判断两个竞争层神经元对应的类别是否相等flag1=isequal(a2_1,a2_2);flag2=min_d1/min_d2>0.6;if ~flag1 && flag2if isequal(Tc(i),a2_1)w1(index1,:)=w1(index1,:)+lr*(P(:,i)'-w1(index1,:));w1(index2,:)=w1(index2,:)-lr*(P(:,i)'-w1(index2,:));elsew1(index1,:)=w1(index1,:)-lr*(P(:,i)'-w1(index1,:));w1(index2,:)=w1(index2,:)+lr*(P(:,i)'-w1(index2,:));endelsew1(index1,:)=w1(index1,:)+lr*(P(:,i)'-w1(index1,:));endendendfunction result=lvq_predict(P,Tc,Num_Compet,w1,w2)n=size(P,2);result=zeros(2,n);result(1,:)=Tc;for i=1:nd=zeros(Num_Compet,1);for j=1:Num_Competd(j)=sqrt(sse(w1(j,:)'-P(:,i)));endn1=compet(-1*d);n2=purelin(w2*n1);result(2,i)=vec2ind(n2);endNum_Correct=length(find(result(2,:)==Tc));accuracy=Num_Correct/n;disp(['accuracy=' num2str(accuracy*100) '%(' num2str(Num_Correct) '/' num2str(n) ')']);%% 清除环境变量clear allclc;%% 人脸特征向量提取% 人数M=10;% 人脸朝向类别数N=5;% 特征向量提取pixel_value=feature_extraction(M,N);%% 训练集/测试集产生% 产生图像序号的随机序列rand_label=randperm(M*N);% 人脸朝向标号direction_label=repmat(1:N,1,M);% 训练集train_label=rand_label(1:30);P_train=pixel_value(train_label,:)';Tc_train=direction_label(train_label);test_label=rand_label(31:end);P_test=pixel_value(test_label,:)';Tc_test=direction_label(test_label);%% 计算PCfor i=1:5rate{i}=length(find(Tc_train==i))/30;end%% LVQ1算法[w1,w2]=lvq1_train(P_train,Tc_train,20,cell2mat(rate),0.01,5); result_1=lvq_predict(P_test,Tc_test,20,w1,w2);%% LVQ2算法[w1,w2]=lvq2_train(P_train,Tc_train,20,0.01,5,w1,w2); result_2=lvq_predict(P_test,Tc_test,20,w1,w2);%% 清除环境变量clear allclc;%% 人脸特征向量提取% 人数M=10;% 人脸朝向类别数N=5;% 特征向量提取pixel_value=feature_extraction(M,N);%% 训练集/测试集产生% 产生图像序号的随机序列rand_label=randperm(M*N);% 人脸朝向标号direction_label=[1 0 0;1 1 0;0 1 0;0 1 1;0 0 1];train_label=rand_label(1:30);P_train=pixel_value(train_label,:)';dtrain_label=train_label-floor(train_label/N)*N;dtrain_label(dtrain_label==0)=N;T_train=direction_label(dtrain_label,:)';% 测试集test_label=rand_label(31:end);P_test=pixel_value(test_label,:)';dtest_label=test_label-floor(test_label/N)*N;dtest_label(dtest_label==0)=N;T_test=direction_label(dtest_label,:)'%% 创建BP网络net=newff(minmax(P_train),[10,3],{'tansig','purelin'},'trainlm'); % 设置训练参数net.trainParam.epochs=1000;net.trainParam.show=10;net.trainParam.goal=1e-3;net.trainParam.lr=0.1;%% 网络训练net=train(net,P_train,T_train);%% 仿真测试T_sim=sim(net,P_test);for i=1:3for j=1:20if T_sim(i,j)<0.5T_sim(i,j)=0;elseT_sim(i,j)=1;endendT_sim T_test。

如何使用Matlab进行人脸检测和人脸识别

如何使用Matlab进行人脸检测和人脸识别

如何使用Matlab进行人脸检测和人脸识别人脸检测和人脸识别是计算机视觉领域中的重要技术应用,可以广泛用于人脸识别系统、人脸支付、安全监控等众多领域。

本文将介绍如何使用Matlab进行人脸检测和人脸识别。

1. 背景介绍人脸检测和人脸识别技术的出现,为计算机系统实现对人脸的自动分析和识别提供了可能。

人脸检测是指从一幅图像或视频序列中确定是否存在人脸,并找出人脸的位置和大小。

而人脸识别则是在检测到的人脸图像上进行特征提取和模式匹配,以实现对人脸的身份识别。

2. 人脸检测在Matlab中,可以使用Viola-Jones算法进行人脸检测。

该算法通过构造Haar特征与Adaboost集成学习算法相结合,能够在较短的时间内实现高效的人脸检测。

具体操作如下:2.1 加载图像首先,在Matlab中加载需要进行人脸检测的图像。

可以使用imread函数进行图像加载,并将其转换为灰度图像进行处理。

例如:```Matlabimage = imread('face.jpg');gray_image = rgb2gray(image);```2.2 构建人脸检测器在Matlab中,可以使用vision.CascadeObjectDetector对象构建人脸检测器。

该对象可以通过Viola-Jones算法进行人脸检测。

具体代码如下:```MatlabfaceDetector = vision.CascadeObjectDetector();bbox = step(faceDetector, gray_image);```2.3 显示检测结果最后,可以使用insertObjectAnnotation函数将检测到的人脸位置在原始图像上标记出来。

代码示例如下:```Matlabdetected_image = insertObjectAnnotation(image, 'rectangle', bbox, 'Face');imshow(detected_image);```3. 人脸识别在Matlab中,可以使用基于人脸特征的Eigenface、Fisherface和LBPH等算法进行人脸识别。

人脸识别核心算法及MATLAB代码

人脸识别核心算法及MATLAB代码

人脸识别核心算法在检测到人脸并定位面部关键特征点之后,主要的人脸区域就可以被裁剪出来,经过预处理之后,馈入后端的识别算法。

识别算法要完成人脸特征的提取,并与库存的已知人脸进行比对,完成最终的分类。

我们在这方面的主要工作包括:∙基于LGBP的人脸识别方法问题:统计学习目前已经成为人脸识别领域的主流方法,但实践表明,基于统计学习的方法往往会存在“推广能力弱”的问题,尤其在待识别图像“属性”未知的情况下,更难以确定采用什么样的训练图像来训练人脸模型。

鉴于此,在对统计学习方法进行研究的同时,我们还考虑了非统计模式识别的一类方法。

思路:对于给定的人脸图像,LGBP方法首先将其与多个不同尺度和方向的Gabor滤波器卷积(卷积结果称为Gabor特征图谱)获得多分辨率的变换图像。

然后将每个Gabor特征图谱划分成若干互不相交的局部空间区域,对每个区域提取局部邻域像素的亮度变化模式,并在每个局部空间区域内提取这些变化模式的空间区域直方图,所有Gabor特征图谱的、所有区域的直方图串接为一高维特征直方图来编码人脸图像。

并通过直方图之间的相似度匹配技术(如直方图交运算)来实现最终的人脸识别。

在FERET四个人脸图像测试集合上与FERET97的结果对比情况见下表。

由此可见,该方法具有良好的识别性能。

而且LGBP方法具有计算速度快、无需大样本学习、推广能力强的优点。

参见ICCV2005表.LGBP方法与FERET'97最佳结果的对比情况∙基于AdaBoost的Gabor特征选择及判别分析方法问题:人脸描述是人脸识别的核心问题之一,人脸识别的研究实践表明:在人脸三维形状信息难以准确获取的条件下,从图像数据中提取多方向、多尺度的Gabor特征是一种合适的选择。

使用Gabor特征进行人脸识别的典型方法包括弹性图匹配方法(EGM)和Gabor特征判别分类法(GFC)。

EGM在实用中需要解决关键特征点的定位问题,而且其速度也很难提高;而GFC则直接对下采样的Gabor特征用PCA降维并进行判别分析,尽管这避免了精确定位关键特征点的难题,但下采样的特征维数仍然偏高,而且简单的下采样策略很可能遗漏了非常多的有用特征。

LDA人脸识别的matlab程序

LDA人脸识别的matlab程序

LDA人 脸 识 别 的 mat l a b 程 序以下是LDA 的m 文件函数: 你稍稍改改就能用了! fun cti on [eigvector, eigvalue, elapse] = LDA(g nd,opti on s,data) % LDA: Lin ear Discrim inant An alysis % % % % % %% % %% % %(a'X'WXa)/(a'X'Xa+ReguAlpha*l) % SVD% % % Valid % 0.1. % % regularizati on % % matrix % % % provided % nFea is % % %[eigvector, eigvalue] = LDA(gnd, options, data) In put: data gnd -Data matrix. Each row vector of fea is a data point. -Colunm vector of the label in formatio n for each data point. options - Struct value in Matlab. The fields in options that can be set: Regu ReguAlpha -ReguTyperegularizerRFisherface1: regularized soluti on, a* = argmax 0: solve the sinu larity problem by Default: 0 The regularizati onparameter.whe n Regu==1. Default value is'Ridge': Tikh onov'Custom': User providedregularizati on Default: 'Ridge'(nFea x nF ea) regularizati on matrix which should be if ReguType is 'Custom'. the feature nu mber of data matrix1: Fisherface approach% n Class % % % prin cipal % PCA % % % % % % step % PCARatio prin ciple % exceed the % comp onen ts). % % %% new %%%%% % % %%%%%%%%% See also LPP, con structW, LGE % % %PCARatio PCARatio = n Smp - Default: 0 The perce ntage of comp onent kept in the step. The perce ntage is calculated based on the eige nv alue. Default is 1 (100%, all the non-zero eige nv alues will be kept. If PCARatio > 1, the PCA will keep exactly comp onents (does not exact nu mber of non-zero Output:eigvector - Each colu mn is an embedd ing function, for a data point (row vector) x, y = x*eigvector willbe the embedd ing result of x.-The sorted eigvalue of LDA eige n-problem.-Time spe nt on differe nt steps eigvalue elapsefea = ran d(50,70);gnd = [on es(10,1);o nes(15,1)*2;o nes(10,1)*3;ones(15,1)*4]; opti ons =[]; opti on s.Fisherface = 1; [eigvector, eigvalue] = LDA(gnd, options, fea); Y = fea*eigvector; Examples:%Refere nee:%% P. N. Belhumeur, J. P. Hespanha, and D. J. Kriegman, 揈igenfaces % vs. fisherfaces: recog niti on using class specific lin ear% projection, ? IEEE Transactions on Pattern Analysis and Machine% Intelligenee, vol. 19, no. 7, pp. 711-720, July 1997.%% Deng Cai, Xiaofei He, Yuxiao Hu, Jiawei Han, and Thomas Hua ng,% "Lear ning a Spatially Smooth Subspace for Face Recog niti on",CVPR'2007%% De ng Cai, Xiaofei He, Jiawei Han, "SRDA: An Efficie nt Algorithm for% Large Scale Discrim inant An alysis", IEEE Tran sact ions on Kno wledge and% Data Engin eeri ng, 2007.%% version 2.1 --Ju ne/2007% version 2.0 --May/2007% version 1.1 --Feb/2006% version 1.0 --April/2004%% Writte n by Deng Cai (de ngcai2 AT )%if ~exist('data','var')global data;endif (~exist('optio ns','var'))optio ns =[];endif ~isfield(options,'Regu') | ~options.RegubPCA = 1;if ~isfield(optio ns,卩CARatio')optio ns.PCARatio = 1;endelsebPCA = 0;if ~isfield(opti on s,'ReguType')opti on s.ReguType = 'Ridge';endif ~isfield(opti on s,'ReguAlpha')opti on s.ReguAlpha = 0.1; endendtmp_T = cputime;% ====== In itializati on[n Smp ,nF ea] = size(data);if len gth(g nd) ~= n Smperror('g nd and data mismatch!');endclassLabel = uniq ue(g nd);n Class = len gth(classLabel);Dim = n Class - 1;if bPCA & isfield(optio ns,'Fisherface') & opti on s.Fisherface opti on s.PCARatio = n Smp - n Class;endif issparse(data)data = full(data);endsampleMea n = mean( data,1);data = (data - repmat(sampleMea n,n Smp,1));bChol = 0;if bPCA & (n Smp > nFea+1) & (optio ns.PCARatio >= 1) DPrime = data'*data;DPrime = max(DPrimeQPrime');[R,p] = chol(DPrime);if p == 0bPCA = 0;bChol = 1;endend%======================================% SVD%======================================if bPCAif n Smp > nFeaddata = data'*data;ddata = max(ddata,ddata');[eigvector_PCA, eigvalue_PCA] = eig(ddata); eigvalue_PCA =diag(eigvalue_PCA);clear ddata;maxEigValue = max(abs(eigvalue_PCA)); eigIdx = find(eigvalue_PCA/maxEigValue < 1e-12); eigvalue_PCA(eigldx)=[]; eigvector_PCA(:,eigIdx)=[];[junk, in dex] = sort(-eigvalue_PCA); eigvalue_PCA =eigvalue_PCA(i ndex); eigvector_PCA = eigvector_PCA(:, i ndex);%=======================================if options.PCARatio > 1idx = optio ns.PCARatio;if idx < le ngth(eigvalue_PCA)eigvalue_PCA = eigvalue_PCA(1:idx);eigvector_PCA = eigvector_PCA(:,1:idx);endelseif optio ns.PCARatio < 1sumEig = sum(eigvalue_PCA); sumEig = sumEig*options.PCARatio; sumNow = 0;for idx = 1:le ngth(eigvalue_PCA) sumNow = sumNow + eigvalue_PCA(idx); if sumNow >= sumEigbreak;endendeigvalue_PCA = eigvalue_PCA(1:idx);eigvector_PCA = eigvector_PCA(:,1:idx);end %=======================================eigvalue_PCA = eigvalue_PCA.A-.5;data = (data*eigvector_PCA).*repmat(eigvalue_PCA', nSmp,1); else ddata = data*data';ddata = max(ddata,ddata');[eigvector, eigvalue_PCA] = eig(ddata); eigvalue_PCA =diag(eigvalue_PCA);clear ddata;maxEigValue = max(eigvalue_PCA);eigIdx = fin d(eigvalue_PCA/maxEigValue < 1e-12);eigvalue_PCA(eigldx)=[];eigvector(:,eigIdx)=[];[junk, in dex] = sort(-eigvalue_PCA); eigvalue_PCA =eigvalue_PCA(i ndex); eigvector = eigvector(:, in dex);%=======================================if optio ns.PCARatio > 1idx = optio ns.PCARatio;if idx < le ngth(eigvalue_PCA)eigvalue_PCA = eigvalue_PCA(1:idx); eigvector =eigvector(:,1:idx);endelseif options.PCARatio < 1sumEig = sum(eigvalue_PCA);sumEig = sumEig*optio ns.PCARatio; sumNow = 0;for idx = 1:le ngth(eigvalue_PCA)sumNow = sumNow + eigvalue_PCA(idx);if sumNow >= sumEigbreak;endendeigvalue_PCA = eigvalue_PCA(1:idx); eigvector =eigvector(:,1:idx);end%=======================================eigvalue_PCA = eigvalue_PCA.A-.5;eigvector_PCA = (data'*eigvector).*repmat(eigvalue_PCA', nF ea,1);data = eigvector;clear eigvector;end elseif ~bCholDPrime = data'*data;% opti on s.ReguAlpha = n Smp*opti on s.ReguAlpha;switch lower(optio ns.ReguType)case {lower('Ridge')}for i=1:size(DPrime,1)DPrime(i,i) = DPrime(i,i) + opti on s.ReguAlpha; end case {lower('Te nsor')}DPrime = DPrime +opti on s.ReguAlpha*opti on s.regularizerR;case {lower('Custom')}DPrime = DPrime +opti on s.ReguAlpha*opti on s.regularizerR;otherwise error('ReguType does not exist!'); endDPrime = max(DPrime,DPrime');endend[n Smp ,nF ea] = size(data);Hb = zeros( nClass, nF ea);for i = 1:n Class,in dex = fin d(g nd==classLabel(i));classMea n = mea n(data(i ndex,:),1);Hb (i,:) = sqrt(le ngth(i ndex))*classMea n;endelapse.timeW = 0;elapse.timePCA = cputime - tmp_T;tmp_T = cputime;if bPCA[dumpVec,eigvalue,eigvector] = svd(Hb,'ec on');eigvalue = diag(eigvalue); eigldx = fin d(eigvalue < 1e-3);eigvalue(eigldx)=[]; eigvector(:,eigldx)=[];eigvalue = eigvalue.A2;eigvector =eigvector_PCA*(repmat(eigvalue_PCA,1,le ngth(eigvalue)).*eigvector); else WPrime = Hb'*Hb;WPrime = max(WPrime,WPrime');dimMatrix = size(WPrime,2);if Dim > dimMatrixDim = dimMatrix;endif isfield(opti on s,'bEigs')if opti on s.bEigsbEigs = 1;elsebEigs = 0;endelseif (dimMatrix > 1000 & Dim < dimMatrix/10) | (dimMatrix > 500 & Dim < dimMatrix/20) | (dimMatrix > 250 & Dim < dimMatrix/30) bEigs = 1;elsebEigs = 0;endendif bEigs%disp('use eigs to speed up!');opti on = struct('disp',0);if bCholopti on. cholB = 1;[eigvector, eigvalue] = eigs(WPrime,R,Dim,'la',optio n); else[eigvector, eigvalue] = eigs(WPrime,DPrime,Dim,'la',optio n);endeigvalue = diag(eigvalue);else[eigvector, eigvalue] = eig(WPrime,DPrime); eigvalue =diag(eigvalue);[junk, in dex] = sort(-eigvalue); eigvalue = eigvalue(i ndex); eigvector= eigvector(:,i ndex);if Dim < size(eigvector,2) eigvector = eigvector(:, 1:Dim); eigvalue =eigvalue(1:Dim);endendend for i = 1:size(eigvector,2) eigvector(:,i) = eigvector(:,i)./norm(eigvector(:,i)); end elapse.timeMethod = cputime - tmp_T;elapse.timeAll = elapse.timePCA + elapse.timeMethod;。

LDA人脸识别的matlab程序

LDA人脸识别的matlab程序

以下是LDA的m文件函数:你稍稍改改就能用了!function[eigvector,eigvalue,elapse]=LDA(gnd,options,data) %LDA:LinearDiscriminantAnalysis%%[eigvector,eigvalue]=LDA(gnd,options,data)%%Input:%data-Datamatrix.Eachrowvectoroffeaisadatapoint.%gnd-Colunmvectorofthelabelinformationforeach%datapoint.%options-StructvalueinMatlab.Thefieldsinoptions%thatcanbeset:%%Regu-1:regularizedsolution,%a*=argmax(a'X'WXa)/(a'X'Xa+ReguAlpha*I)%0:solvethesinularityproblembySVD%Default:0%%ReguAlpha-Theregularizationparameter.Valid%whenRegu==1.Defaultvalueis0.1.%%ReguType-'Ridge':Tikhonovregularization%'Custom':Userprovided%regularizationmatrix%Default:'Ridge'%regularizerR-(nFeaxnFea)regularization%matrixwhichshouldbeprovided%ifReguTypeis'Custom'.nFeais%thefeaturenumberofdata%matrix%Fisherface-1:Fisherfaceapproach%PCARatio=nSmp-nClass%Default:0%%PCARatio-Thepercentageofprincipal%componentkeptinthePCA%step.Thepercentageis%calculatedbasedonthe%eigenvalue.Defaultis1%(100%,allthenon-zero%eigenvalueswillbekept.%IfPCARatio>1,thePCAstep%willkeepexactlyPCARatioprinciple%components(doesnotexceedthe%exactnumberofnon-zerocomponents).%%%Output:%eigvector-Eachcolumnisanembeddingfunction,foranew%datapoint(rowvector)x,y=x*eigvector%willbetheembeddingresultofx.%eigvalue-ThesortedeigvalueofLDAeigen-problem.%elapse-Timespentondifferentsteps%%Examples:%%fea=rand(50,70);%gnd=[ones(10,1);ones(15,1)*2;ones(10,1)*3;ones(15,1)*4];%options=[];%options.Fisherface=1;%[eigvector,eigvalue]=LDA(gnd,options,fea);%Y=fea*eigvector;%%%SeealsoLPP,constructW,LGE%%%%Reference:%%P.N.Belhumeur,J.P.Hespanha,andD.J.Kriegman,揈igenfaces%vs.fisherfaces:recognitionusingclassspecificlinear%projection,?IEEETransactionsonPatternAnalysisandMachine%Intelligence,vol.19,no.7,pp.711-720,July1997.%%DengCai,XiaofeiHe,YuxiaoHu,JiaweiHan,andThomasHuang, %"LearningaSpatiallySmoothSubspaceforFaceRecognition",CVPR'2007 %%DengCai,XiaofeiHe,JiaweiHan,"SRDA:AnEfficientAlgorithmfor%LargeScaleDiscriminantAnalysis",IEEETransactionsonKnowledgeand %DataEngineering,2007.%%version2.1--June/2007%version2.0--May/2007%version1.1--Feb/2006%version1.0--April/2004%%WrittenbyDengCai(dengcai2AT%if~exist('data','var')globaldata;endif(~exist('options','var'))endif~isfield(options,'Regu')|~options.RegubPCA=1;if~isfield(options,'PCARatio')options.PCARatio=1;endelsebPCA=0;if~isfield(options,'ReguType')options.ReguType='Ridge';endif~isfield(options,'ReguAlpha')options.ReguAlpha=0.1;endendtmp_T=cputime;%======Initialization[nSmp,nFea]=size(data);iflength(gnd)~=nSmperror('gndanddatamismatch!');endclassLabel=unique(gnd);nClass=length(classLabel);Dim=nClass-1;ifbPCA&isfield(options,'Fisherface')&options.Fisherface options.PCARatio=nSmp-nClass;endifissparse(data)data=full(data);endsampleMean=mean(data,1);data=(data-repmat(sampleMean,nSmp,1));bChol=0;ifbPCA&(nSmp>nFea+1)&(options.PCARatio>=1) DPrime=data'*data;DPrime=max(DPrime,DPrime');[R,p]=chol(DPrime);ifp==0bPCA=0;bChol=1;endend%====================================== %SVD%====================================== ifbPCAddata=data'*data;ddata=max(ddata,ddata');[eigvector_PCA,eigvalue_PCA]=eig(ddata);eigvalue_PCA=diag(eigvalue_PCA);clearddata;maxEigValue=max(abs(eigvalue_PCA));eigIdx=find(eigvalue_PCA/maxEigValue<1e-12);eigvalue_PCA(eigIdx)=[];eigvector_PCA(:,eigIdx)=[];[junk,index]=sort(-eigvalue_PCA);eigvalue_PCA=eigvalue_PCA(index);eigvector_PCA=eigvector_PCA(:,index);%======================================= ifoptions.PCARatio>1idx=options.PCARatio;ifidx<length(eigvalue_PCA)eigvalue_PCA=eigvalue_PCA(1:idx);eigvector_PCA=eigvector_PCA(:,1:idx);endelseifoptions.PCARatio<1sumEig=sum(eigvalue_PCA);sumEig=sumEig*options.PCARatio;sumNow=0;foridx=1:length(eigvalue_PCA)sumNow=sumNow+eigvalue_PCA(idx);ifsumNow>=sumEigbreak;endendeigvalue_PCA=eigvalue_PCA(1:idx);eigvector_PCA=eigvector_PCA(:,1:idx);end%======================================= eigvalue_PCA=eigvalue_PCA.^-.5;data=(data*eigvector_PCA).*repmat(eigvalue_PCA',nSmp,1); elseddata=data*data';ddata=max(ddata,ddata');[eigvector,eigvalue_PCA]=eig(ddata);eigvalue_PCA=diag(eigvalue_PCA);clearddata;maxEigValue=max(eigvalue_PCA);eigIdx=find(eigvalue_PCA/maxEigValue<1e-12);eigvalue_PCA(eigIdx)=[];eigvector(:,eigIdx)=[];[junk,index]=sort(-eigvalue_PCA);eigvalue_PCA=eigvalue_PCA(index);eigvector=eigvector(:,index);%======================================= ifoptions.PCARatio>1idx=options.PCARatio;ifidx<length(eigvalue_PCA)eigvalue_PCA=eigvalue_PCA(1:idx);eigvector=eigvector(:,1:idx);endelseifoptions.PCARatio<1sumEig=sum(eigvalue_PCA);sumEig=sumEig*options.PCARatio;sumNow=0;foridx=1:length(eigvalue_PCA)sumNow=sumNow+eigvalue_PCA(idx);ifsumNow>=sumEigbreak;endendeigvalue_PCA=eigvalue_PCA(1:idx);eigvector=eigvector(:,1:idx);end%======================================= eigvalue_PCA=eigvalue_PCA.^-.5;eigvector_PCA=(data'*eigvector).*repmat(eigvalue_PCA',nFea,1); data=eigvector;cleareigvector;endelseif~bCholDPrime=data'*data;%options.ReguAlpha=nSmp*options.ReguAlpha;switchlower(options.ReguType)case{lower('Ridge')}fori=1:size(DPrime,1)DPrime(i,i)=DPrime(i,i)+options.ReguAlpha;endcase{lower('Tensor')}DPrime=DPrime+options.ReguAlpha*options.regularizerR;case{lower('Custom')}DPrime=DPrime+options.ReguAlpha*options.regularizerR; otherwiseerror('ReguTypedoesnotexist!');endDPrime=max(DPrime,DPrime');endend[nSmp,nFea]=size(data);Hb=zeros(nClass,nFea);fori=1:nClass,index=find(gnd==classLabel(i));classMean=mean(data(index,:),1);Hb(i,:)=sqrt(length(index))*classMean;endelapse.timeW=0;elapse.timePCA=cputime-tmp_T;tmp_T=cputime;ifbPCA[dumpVec,eigvalue,eigvector]=svd(Hb,'econ');eigvalue=diag(eigvalue);eigIdx=find(eigvalue<1e-3);eigvalue(eigIdx)=[];eigvector(:,eigIdx)=[];eigvalue=eigvalue.^2;eigvector=eigvector_PCA*(repmat(eigvalue_PCA,1,length(eigvalue)).*eigvector);elseWPrime=Hb'*Hb;WPrime=max(WPrime,WPrime');dimMatrix=size(WPrime,2);ifDim>dimMatrixDim=dimMatrix;endifisfield(options,'bEigs')ifoptions.bEigsbEigs=1;elsebEigs=0;endelseif(dimMatrix>1000&Dim<dimMatrix/10)|(dimMatrix>500&Dim<dimMatrix/20)|(dimMatrix>250&Dim<dimMatri x/30)bEigs=1;elsebEigs=0;endendifbEigs%disp('useeigstospeedup!');option=struct('disp',0);ifbCholoption.cholB=1;[eigvector,eigvalue]=eigs(WPrime,R,Dim,'la',option);else[eigvector,eigvalue]=eigs(WPrime,DPrime,Dim,'la',option);endeigvalue=diag(eigvalue);else[eigvector,eigvalue]=eig(WPrime,DPrime); eigvalue=diag(eigvalue);[junk,index]=sort(-eigvalue);eigvalue=eigvalue(index);eigvector=eigvector(:,index);ifDim<size(eigvector,2)eigvector=eigvector(:,1:Dim);eigvalue=eigvalue(1:Dim);endendendfori=1:size(eigvector,2)eigvector(:,i)=eigvector(:,i)./norm(eigvector(:,i)); endelapse.timeMethod=cputime-tmp_T;elapse.timeAll=elapse.timePCA+elapse.timeMethod;。

Matlab在视频人脸检测与人脸识别中的应用技巧

Matlab在视频人脸检测与人脸识别中的应用技巧

Matlab在视频人脸检测与人脸识别中的应用技巧人脸检测和人脸识别是计算机视觉领域中的重要研究方向,近年来得到了广泛的应用。

在视频处理中,人脸的准确检测和识别是实现许多高级应用的基础。

Matlab作为一种功能强大的数学建模与仿真软件,提供了丰富的图像处理工具箱,使得人脸检测与识别算法的实现变得简单与高效。

一、图像预处理在进行人脸检测与识别之前,通常需要对图像进行预处理,以提高算法的准确性。

图像预处理的过程包括灰度化、直方图均衡化、尺寸归一化等。

利用Matlab的图像处理工具箱,可以快速实现这些预处理操作。

1.1 灰度化灰度化是将彩色图像转换为灰度图像的过程,将去除色彩信息,使图像变得更易处理。

在Matlab中,使用rgb2gray函数可以方便地将彩色图像转换为灰度图像。

1.2 直方图均衡化直方图均衡化是一种增强图像对比度的方法,通过对图像的灰度直方图进行变换来实现。

在Matlab中,使用histeq函数可以对图像的灰度直方图进行均衡化操作,提高图像的细节显示能力。

1.3 尺寸归一化不同的人脸图像具有不同的尺寸和角度,这对人脸检测与识别算法会造成影响。

为了提高算法的鲁棒性,通常需要将人脸图像进行尺寸归一化处理。

在Matlab中,可以使用imresize函数将图像进行缩放,使得人脸图像具有相同的尺寸。

二、人脸检测人脸检测是指在一幅图像中自动识别和定位人脸的过程,是人脸识别的首要步骤。

Matlab提供了多种人脸检测算法的实现,其中常用的有Haar特征分类器和基于深度学习的卷积神经网络(CNN)。

2.1 Haar特征分类器Haar特征分类器是一种基于机器学习的人脸检测算法,可以通过训练集的正负样本学习出人脸的特征。

在Matlab中,可以使用vision.CascadeObjectDetector对象和trainCascadeObjectDetector函数来实现Haar特征分类器的训练与检测。

2.2 基于深度学习的卷积神经网络(CNN)近年来,深度学习在图像处理领域取得了巨大的突破,其中卷积神经网络是一种非常有效的人脸检测方法。

人脸识别PCA算法matlab实现和详细步骤讲解

人脸识别PCA算法matlab实现和详细步骤讲解

人脸识别% FaceRec.m% PCA 人脸识别修订版,识别率88%% calc xmean,sigma and its eigen decompositionallsamples=[];%所有训练图像for i=1:40for j=1:5a=imread(strcat('e:\ORL\s',num2str(i),'\',num2str(j),'.jpg'));% imshow(a);b=a(1:112*92); % b 是行矢量1×N,其中N=10304,提取顺序是先列后行,即从上到下,从左到右b=double(b);allsamples=[allsamples; b]; % allsamples 是一个M * N 矩阵,allsamples 中每一行数据代表一张图片,其中M=200endendsamplemean=mean(allsamples); % 平均图片,1 × Nfor i=1:200 xmean(i,:)=allsamples(i,:)-samplemean; % xmean 是一个M × N 矩阵,xmean 每一行保存的数据是“每个图片数据-平均图片”end;% 获取特征值及特征向量sigma=xmean*xmean'; % M * M 阶矩阵[v d]=eig(sigma);d1=diag(d);% 按特征值大小以降序排列dsort = flipud(d1);vsort = fliplr(v);%以下选择90%的能量dsum = sum(dsort);dsum_extract = 0;p = 0;while( dsum_extract/dsum < 0.9)p = p + 1;dsum_extract = sum(dsort(1:p));endi=1;% (训练阶段)计算特征脸形成的坐标系base = xmean' * vsort(:,1:p) * diag(dsort(1:p).^(-1/2));% base 是N×p 阶矩阵,除以dsort(i)^(1/2)是对人脸图像的标准化(使其方差为1)% 详见《基于PCA 的人脸识别算法研究》p31% xmean' * vsort(:,i)是小矩阵的特征向量向大矩阵特征向量转换的过程%while (i<=p && dsort(i)>0)% base(:,i) = dsort(i)^(-1/2) * xmean' * vsort(:,i); % base 是N×p 阶矩阵,除以dsort(i)^(1/2)是对人脸图像的标准化(使其方差为1)% 详见《基于PCA 的人脸识别算法研究》p31% i = i + 1; % xmean' * vsort(:,i)是小矩阵的特征向量向大矩阵特征向量转换的过程%end% 以下两行add by gongxun 将训练样本对坐标系上进行投影,得到一个 M*p 阶矩阵allcoor allcoor = allsamples * base; % allcoor 里面是每张训练人脸图片在M*p 子空间中的一个点,即在子空间中的组合系数,accu = 0; % 下面的人脸识别过程中就是利用这些组合系数来进行识别% 测试过程for i=1:40for j=6:10 %读入40 x 5 副测试图像a=imread(strcat('e:\ORL\s',num2str(i),'\',num2str(j),'.jpg'));b=a(1:10304);b=double(b);tcoor= b * base; %计算坐标,是1×p 阶矩阵for k=1:200mdist(k)=norm(tcoor-allcoor(k,:));end;%三阶近邻[dist,index2]=sort(mdist);class1=floor( (index2(1)-1)/5 )+1;class2=floor((index2(2)-1)/5)+1;class3=floor((index2(3)-1)/5)+1;if class1~=class2 && class2~=class3class=class1;elseif class1==class2class=class1;elseif class2==class3class=class2;end;if class==iaccu=accu+1;end;end;end;accuracy=accu/200 %输出识别率特征人脸% eigface.mfunction [] = eigface()% calc xmean,sigma and its eigen decompositionallsamples=[];%所有训练图像for i=1:40for j=1:5a=imread(strcat('e:\ORL\s',num2str(i),'\',num2str(j),'.jpg'));% imshow(a);b=a(1:112*92); % b 是行矢量1×N,其中N=10304,提取顺序是先列后行,即从上到下,从左到右b=double(b);allsamples=[allsamples; b]; % allsamples 是一个M * N 矩阵,allsamples 中每一行数据代表一张图片,其中M=200endendsamplemean=mean(allsamples); % 平均图片,1 × Nfor i=1:200 xmean(i,:)=allsamples(i,:)-samplemean; % xmean 是一个M × N 矩阵,xmean 每一行保存的数据是“每个图片数据-平均图片”end;% 获取特征值及特征向量sigma=xmean*xmean'; % M * M 阶矩阵[v d]=eig(sigma);d1=diag(d);% 按特征值大小以降序排列dsort = flipud(d1);vsort = fliplr(v);%以下选择90%的能量dsum = sum(dsort);dsum_extract = 0;p = 0;while( dsum_extract/dsum < 0.9)p = p + 1;dsum_extract = sum(dsort(1:p));endp = 199;% (训练阶段)计算特征脸形成的坐标系%while (i<=p && dsort(i)>0)% base(:,i) = dsort(i)^(-1/2) * xmean' * vsort(:,i); % base 是N×p 阶矩阵,除以dsort(i)^(1/2)是对人脸图像的标准化,详见《基于PCA 的人脸识别算法研究》p31% i = i + 1; % xmean' * vsort(:,i)是小矩阵的特征向量向大矩阵特征向量转换的过程%endbase = xmean' * vsort(:,1:p) * diag(dsort(1:p).^(-1/2));% 生成特征脸for (k=1:p),temp = reshape(base(:,k), 112,92);newpath = ['d:\test\' int2str(k) '.jpg'];imwrite(mat2gray(temp), newpath);endavg = reshape(samplemean, 112,92);imwrite(mat2gray(avg), 'd:\test\average.jpg');% 将模型保存save('e:\ORL\model.mat', 'base', 'samplemean');人脸重建% Reconstruct.mfunction [] = reconstruct()load e:\ORL\model.mat;% 计算新图片在特征子空间中的系数img = 'D:\test2\10.jpg'a=imread(img);b=a(1:112*92); % b 是行矢量1×N,其中N=10304,提取顺序是先列后行,即从上到下,从左到右b=double(b);b=b-samplemean;c = b * base; % c 是图片a 在子空间中的系数, 是1*p 行矢量% 根据特征系数及特征脸重建图% 前15 个t = 15;temp = base(:,1:t) * c(1:t)';temp = temp + samplemean';imwrite(mat2gray(reshape(temp, 112,92)),'d:\test2\t1.jpg'); % 前50 个t = 50;temp = base(:,1:t) * c(1:t)';temp = temp + samplemean';imwrite(mat2gray(reshape(temp, 112,92)),'d:\test2\t2.jpg'); % 前100 个t = 100;temp = base(:,1:t) * c(1:t)';temp = temp + samplemean';imwrite(mat2gray(reshape(temp, 112,92)),'d:\test2\t3.jpg'); % 前150 个t = 150;temp = base(:,1:t) * c(1:t)';temp = temp + samplemean';imwrite(mat2gray(reshape(temp, 112,92)),'d:\test2\t4.jpg'); % 前199 个t = 199;temp = base(:,1:t) * c(1:t)';temp = temp + samplemean';imwrite(mat2gray(reshape(temp, 112,92)),'d:\test2\t5.jpg');基于2DPCA与(2D)2PCA的人脸识别(第二版)。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

人脸识别% FaceRec.m% PCA 人脸识别修订版,识别率88%% calc xmean,sigma and its eigen decompositionallsamples=[];%所有训练图像for i=1:40for j=1:5a=imread(strcat('e:\ORL\s',num2str(i),'\',num2str(j),'.jpg'));% imshow(a);b=a(1:112*92); % b 是行矢量1×N,其中N=10304,提取顺序是先列后行,即从上到下,从左到右b=double(b);allsamples=[allsamples; b]; % allsamples 是一个M * N 矩阵,allsamples 中每一行数据代表一张图片,其中M=200endendsamplemean=mean(allsamples); % 平均图片,1 × Nfor i=1:200 xmean(i,:)=allsamples(i,:)-samplemean; % xmean 是一个M ×N 矩阵,xmean每一行保存的数据是“每个图片数据-平均图片”end;% 获取特征值及特征向量sigma=xmean*xmean'; % M * M 阶矩阵[v d]=eig(sigma);d1=diag(d);% 按特征值大小以降序排列dsort = flipud(d1);vsort = fliplr(v);%以下选择90%的能量dsum = sum(dsort);dsum_extract = 0;p = 0;while( dsum_extract/dsum < 0.9)p = p + 1;dsum_extract = sum(dsort(1:p));endi=1;% (训练阶段)计算特征脸形成的坐标系base = xmean' * vsort(:,1:p) * diag(dsort(1:p).^(-1/2));% base 是N×p 阶矩阵,除以dsort(i)^(1/2)是对人脸图像的标准化(使其方差为1)% 详见《基于PCA 的人脸识别算法研究》p31% xmean' * vsort(:,i)是小矩阵的特征向量向大矩阵特征向量转换的过程%while (i<=p && dsort(i)>0)% base(:,i) = dsort(i)^(-1/2) * xmean' * vsort(:,i); % base 是N×p 阶矩阵,除以dsort(i)^(1/2)是对人脸图像的标准化(使其方差为1)% 详见《基于PCA 的人脸识别算法研究》p31% i = i + 1; % xmean' * vsort(:,i)是小矩阵的特征向量向大矩阵特征向量转换的过程%end% 以下两行add by gongxun 将训练样本对坐标系上进行投影,得到一个M*p 阶矩阵allcoorallcoor = allsamples * base; % allcoor 里面是每张训练人脸图片在M*p 子空间中的一个点,即在子空间中的组合系数,accu = 0; % 下面的人脸识别过程中就是利用这些组合系数来进行识别% 测试过程for i=1:40for j=6:10 %读入40 x 5 副测试图像a=imread(strcat('e:\ORL\s',num2str(i),'\',num2str(j),'.jpg'));b=a(1:10304);b=double(b);tcoor= b * base; %计算坐标,是1×p 阶矩阵for k=1:200mdist(k)=norm(tcoor-allcoor(k,:));end;%三阶近邻[dist,index2]=sort(mdist);class1=floor( (index2(1)-1)/5 )+1;class2=floor((index2(2)-1)/5)+1;class3=floor((index2(3)-1)/5)+1;if class1~=class2 && class2~=class3class=class1;elseif class1==class2class=class1;elseif class2==class3class=class2;end;if class==iaccu=accu+1;end;end;end;accuracy=accu/200 %输出识别率特征人脸% eigface.mfunction [] = eigface()% calc xmean,sigma and its eigen decompositionallsamples=[];%所有训练图像for i=1:40for j=1:5a=imread(strcat('e:\ORL\s',num2str(i),'\',num2str(j),'.jpg'));% imshow(a);b=a(1:112*92); % b 是行矢量1×N,其中N=10304,提取顺序是先列后行,即从上到下,从左到右b=double(b);allsamples=[allsamples; b]; % allsamples 是一个M * N 矩阵,allsamples 中每一行数据代表一张图片,其中M=200endendsamplemean=mean(allsamples); % 平均图片,1 × Nfor i=1:200 xmean(i,:)=allsamples(i,:)-samplemean; % xmean 是一个M ×N 矩阵,xmean每一行保存的数据是“每个图片数据-平均图片”end;% 获取特征值及特征向量sigma=xmean*xmean'; % M * M 阶矩阵[v d]=eig(sigma);d1=diag(d);% 按特征值大小以降序排列dsort = flipud(d1);vsort = fliplr(v);%以下选择90%的能量dsum = sum(dsort);dsum_extract = 0;p = 0;while( dsum_extract/dsum < 0.9)p = p + 1;dsum_extract = sum(dsort(1:p));endp = 199;% (训练阶段)计算特征脸形成的坐标系%while (i<=p && dsort(i)>0)% base(:,i) = dsort(i)^(-1/2) * xmean' * vsort(:,i); % base 是N×p 阶矩阵,除以dsort(i)^(1/2)是对人脸图像的标准化,详见《基于PCA 的人脸识别算法研究》p31% i = i + 1; % xmean' * vsort(:,i)是小矩阵的特征向量向大矩阵特征向量转换的过程%endbase = xmean' * vsort(:,1:p) * diag(dsort(1:p).^(-1/2));% 生成特征脸for (k=1:p),temp = reshape(base(:,k), 112,92);newpath = ['d:\test\' int2str(k) '.jpg'];imwrite(mat2gray(temp), newpath);endavg = reshape(samplemean, 112,92);imwrite(mat2gray(avg), 'd:\test\average.jpg');% 将模型保存save('e:\ORL\model.mat', 'base', 'samplemean');人脸重建% Reconstruct.mfunction [] = reconstruct()load e:\ORL\model.mat;% 计算新图片在特征子空间中的系数img = 'D:\test2\10.jpg'a=imread(img);b=a(1:112*92); % b 是行矢量1×N,其中N=10304,提取顺序是先列后行,即从上到下,从左到右b=double(b);b=b-samplemean;c = b * base; % c 是图片a 在子空间中的系数, 是1*p 行矢量% 根据特征系数及特征脸重建图% 前15 个t = 15;temp = base(:,1:t) * c(1:t)';temp = temp + samplemean';imwrite(mat2gray(reshape(temp, 112,92)),'d:\test2\t1.jpg');% 前50 个t = 50;temp = base(:,1:t) * c(1:t)';temp = temp + samplemean';imwrite(mat2gray(reshape(temp, 112,92)),'d:\test2\t2.jpg');% 前100 个t = 100;temp = base(:,1:t) * c(1:t)';temp = temp + samplemean';imwrite(mat2gray(reshape(temp, 112,92)),'d:\test2\t3.jpg');% 前150 个t = 150;temp = base(:,1:t) * c(1:t)';temp = temp + samplemean';imwrite(mat2gray(reshape(temp, 112,92)),'d:\test2\t4.jpg');% 前199 个t = 199;temp = base(:,1:t) * c(1:t)';temp = temp + samplemean';imwrite(mat2gray(reshape(temp, 112,92)),'d:\test2\t5.jpg');。

相关文档
最新文档