图像中角点(特征点)提取与匹配算法
基于光场成像的三维图像特征点提取与匹配

基于光场成像的三维图像特征点提取与匹配光场成像技术是一种新兴的三维图像获取方法,具有非常大的应用潜力。
在这种技术下,相机能够同时获取到目标物体在不同位置的多个角度的图像,从而获得物体的三维信息。
然而,由于光场图像的特殊性质,传统的特征点提取与匹配方法在光场图像上的效果并不理想。
在光场图像中,一个像素点不仅包含了颜色信息,还包含了光线的方向和强度等信息。
因此,在进行特征点提取时,需要综合考虑这些信息来选择合适的特征点。
一种常用的方法是基于梯度的角点检测算法。
通过计算光场图像中像素点的梯度,可以找到具有明显变化的角点。
同时,还可以利用光线的方向信息来进一步筛选特征点,保留那些在光线方向上变化明显的点。
在特征点提取之后,还需要进行特征点的匹配。
由于光场图像具有多个视角的信息,因此可以利用这些信息来进行更准确的匹配。
一种常用的方法是基于多视角的特征描述子匹配。
通过计算特征点在不同视角下的描述子,可以找到相似的特征点,并将它们进行匹配。
同时,还可以利用光线的方向信息来进行更精确的匹配,提高匹配的准确性。
基于光场成像的三维图像特征点提取与匹配在许多领域中具有广泛的应用。
例如,在机器人导航中,可以利用光场图像的三维信息来进行地图构建和路径规划;在增强现实中,可以利用光场图像的特征点提取与匹配来实现虚拟物体的叠加显示;在医学影像中,可以利用光场图像的三维信息来进行病灶的定位和识别等。
总之,基于光场成像的三维图像特征点提取与匹配是一个具有挑战性的问题。
通过综合考虑光场图像的特殊性质,可以设计出更适用于光场图像的特征点提取与匹配方法,进一步推动光场成像技术的发展与应用。
Python技术实现图像特征提取与匹配的方法

Python技术实现图像特征提取与匹配的方法随着科技的不断进步,图像处理技术在各个领域得到了广泛应用。
图像特征提取与匹配是图像处理中的重要环节之一,它能够通过识别图像中的关键特征点,进行图像的检索、识别和对比。
Python作为一门功能强大的编程语言,提供了各种库和工具,可以方便地实现图像特征提取与匹配的方法。
一、图像特征提取图像特征是指在图像中具有独特而稳定的可视化特性,例如边缘、角点、颜色分布等。
图像特征提取的目的就是从图像中找到这些独特的特征点,以便后续的处理和分析。
1. 边缘检测边缘是图像中不同区域之间的分界线,是图像中的显著特征。
Python的OpenCV库提供了Sobel算子、Canny算子等用于边缘检测的函数,可以方便地实现边缘检测的过程。
2. 角点检测角点是图像中具有明显曲率或者弯曲的地方,是图像中的显著特征。
OpenCV 中的Harris角点检测算法和Shi-Tomasi角点检测算法提供了在Python中实现角点检测的函数。
3. SIFT和SURF特征提取SIFT(尺度不变特征变换)和SURF(加速稳健特征)是两种经典的特征提取算法,它们可以提取图像中的局部特征,并具有旋转、尺度不变性。
Python中的OpenCV库提供了SIFT和SURF算法的实现,可以方便地提取图像的特征。
二、图像特征匹配图像特征匹配是将两幅或多幅图像中的特征点进行对齐和匹配。
通过图像特征匹配,可以实现图像的检索、识别和对比,是图像处理中的重要环节。
1. 特征点描述在进行图像特征匹配之前,需要对特征点进行描述。
描述子是一种对特征点进行数学表示的方法,可以用于特征点的匹配和对比。
OpenCV中的SIFT和SURF 算法可以提取特征点的描述子。
2. 特征点匹配特征点匹配是将两个图像中的对应特征点连接起来,实现图像的对齐和匹配。
OpenCV中提供了FLANN(最近邻搜索)库,可以高效地实现特征点的匹配。
同时,还可以使用RANSAC算法进行特征点匹配的筛选和优化。
图像匹配的算法种类和原理

图像匹配的算法种类和原理
图像匹配是一种广泛应用于计算机视觉领域的技术,用于判断两个或多个图像之间的相似性或是否存在某种关联。
以下是几种常见的图像匹配算法和其原理:
1. 直方图匹配:该算法基于图像的颜色分布,通过比较两个图像的直方图来评估它们的相似性。
直方图是一种将图像像素值与其频率关联起来的统计工具。
2. 特征点匹配:该算法通过提取图像中的特征点,如角点、边缘等,然后比较两个图像中的特征点之间的距离或相似性来确定它们之间的匹配关系。
常见的特征点匹配算法包括SIFT、SURF 和ORB。
3. 模板匹配:该算法使用一个预先定义好的模板图像,将其与输入图像进行比较,找出最佳匹配的位置。
模板匹配算法通常使用相关性或差异性度量来评估匹配程度。
4. 形状匹配:该算法旨在比较图像中的形状特征,例如提取图像边界上的轮廓,并计算它们之间的相似性。
形状匹配通常与图像分割和轮廓提取技术结合使用。
5. 神经网络匹配:近年来,深度学习和卷积神经网络(CNN)等技术的发展为图像匹配带来了新的突破。
使用深度神经网络,可以学习到更高级别的特征表示,并通过训练模型来实现图像匹配任务。
这些算法各有优缺点,并且在不同应用场景下具有不同的适用性。
在实际应用中,经常需要结合多种算法来实现更准确的图像匹配结果。
图像识别技术中的特征提取与匹配算法研究

图像识别技术中的特征提取与匹配算法研究随着计算机视觉领域的快速发展,图像识别技术在各个领域得到了广泛应用。
图像识别技术的核心问题之一是如何从大量的图像数据中提取出有效的特征,以便进行图像匹配和识别。
本文将重点讨论图像识别技术中的特征提取与匹配算法的研究。
一、特征提取算法特征提取算法是图像识别技术中最基础、最关键的环节之一,它通过对图像中的有效信息进行提取和表示,以便后续的匹配和识别过程。
常用的特征提取算法包括SIFT(尺度不变特征变换)、SURF(加速稳健特征)、ORB(旋转矩不变特征)等。
SIFT算法是一种基于尺度空间的特征提取算法,它通过检测尺度不变的局部极值点,并在多个尺度下提取出稳定的特征。
SIFT算法对图像的旋转、缩放、平移等变换具有较好的不变性,是目前应用最广泛的特征提取算法之一。
SURF算法是一种基于Hessian矩阵的特征提取算法,它通过检测图像中的兴趣点,并计算其局部特征向量来描述图像信息。
与SIFT算法相比,SURF算法在保留了较好的特征表达能力的同时,大大加快了计算速度,因此在实时图像处理中得到了广泛应用。
ORB算法是一种结合了FAST特征检测和BRIEF特征描述的特征提取算法,它通过检测图像中的FAST角点,并用二进制位串来描述角点周围的灰度信息。
ORB算法既具有较好的特征表达能力,又在计算速度上有很大优势,因此在大规模图像检索等应用中表现出色。
二、特征匹配算法特征提取后,需要进行特征匹配以实现图像的识别和检索。
特征匹配算法的目标是找出两幅图像中相似的特征,并建立它们之间的对应关系。
在特征匹配过程中,常用的算法包括暴力搜索、k-d树算法和近似最近邻搜索算法等。
暴力搜索是一种简单直观的特征匹配算法,它通过遍历所有特征点对之间的距离来实现匹配。
暴力搜索算法的优点是简单易实现,但由于计算量大,在大规模图像匹配中往往不够高效。
k-d树算法是一种基于树结构的特征匹配算法,它通过构建k-d树来实现对特征点的快速搜索。
医学图像配准与配对的基本步骤与算法

医学图像配准与配对的基本步骤与算法随着互联网时代的到来,互联网思维逐渐渗透到各个领域,包括医学图像处理。
作为一位现代互联网思维的老师,我将为大家介绍医学图像配准与配对的基本步骤与算法,并探讨其在医学领域的应用。
医学图像配准是指将不同时间、不同模态或不同患者的医学图像进行对齐,以实现图像的统一和比较。
配准的基本步骤包括:图像预处理、特征提取、特征匹配和变换模型。
首先,图像预处理是为了去除图像中的噪声和不必要的信息,以提高后续处理的准确性和效率。
常用的预处理方法包括平滑滤波、边缘检测和图像增强等。
通过这些方法,可以使图像更加清晰、明确,为后续的特征提取和匹配打下良好的基础。
接下来,特征提取是将图像中的关键信息提取出来,以便进行后续的匹配和变换。
常用的特征包括角点、边缘、纹理等。
特征提取的方法有很多,例如Harris角点检测、SIFT特征提取等。
通过这些方法,可以从图像中提取出具有独特性和稳定性的特征点或特征描述子,为后续的匹配和变换提供可靠的依据。
然后,特征匹配是将两幅图像中的特征进行对应,以找到它们之间的关系。
特征匹配的目标是找到最佳的匹配对,即使得两幅图像中的特征点之间的距离最小。
常用的特征匹配算法包括暴力匹配、K近邻匹配和RANSAC匹配等。
通过这些算法,可以实现特征点的准确匹配,为后续的变换模型提供准确的输入。
最后,变换模型是根据特征匹配的结果,将一个图像变换到另一个图像的空间中。
常用的变换模型包括仿射变换、透视变换和非刚性变换等。
这些变换模型可以将图像进行旋转、平移、缩放等操作,从而实现图像的对齐和配准。
医学图像配准与配对在医学领域有着广泛的应用。
例如,在医学影像诊断中,医生可以通过将多个时间点的同一患者的图像进行配准,来观察病变的演变和治疗效果的评估。
此外,在医学研究中,医学图像配准可以用于分析不同患者之间的结构和功能的差异,从而帮助研究人员更好地理解疾病的发生和发展机制。
总之,医学图像配准与配对是一项重要的技术,它可以将不同时间、不同模态或不同患者的医学图像进行对齐,为医学影像诊断和研究提供可靠的基础。
图像特征点提取及匹配算法研究论文

图像特征点提取及匹配算法研究论文1.SIFT算法:SIFT(Scale-Invariant Feature Transform)算法是一种经典的图像特征点提取算法。
该算法首先使用高斯滤波器对图像进行多尺度的平滑处理,然后使用差分算子来检测图像中的关键点,最后计算关键点的主方向和描述符。
SIFT算法具有尺度不变性和旋转不变性,对于图像中存在较大尺度和角度变化的情况下仍能提取出稳定的特征点。
2.SURF算法:SURF(Speeded Up Robust Features)算法是一种快速的特征点提取算法,它在SIFT算法的基础上进行了优化。
SURF算法使用Haar小波响应来检测图像中的特征点,并使用积分图像来加速计算过程。
此外,SURF算法还使用了一种基于方向直方图的特征描述方法,能够提取出具有旋转不变性和尺度不变性的特征点。
3.ORB算法:ORB(Oriented FAST and Rotated BRIEF)算法是一种快速的特征点提取和匹配算法。
该算法结合了FAST角点检测算法和BRIEF描述符算法,并对其进行了改进。
ORB算法利用灰度值的转折点来检测图像中的角点,并使用二进制字符串来描述关键点,以提高特征点的匹配速度。
ORB算法具有较快的计算速度和较高的匹配精度,适用于实时应用。
4.BRISK算法:BRISK(Binary Robust Invariant Scalable Keypoints)算法是一种基于二进制描述符的特征点提取和匹配算法。
该算法首先使用田字形格点采样方法检测关键点,然后使用直方图来描述关键点的方向和纹理特征。
最后,BRISK算法使用二进制字符串来表示关键点的描述符,并使用汉明距离来进行特征点的匹配。
BRISK算法具有较快的计算速度和较高的鲁棒性,适用于大规模图像匹配任务。
总结起来,图像特征点提取及匹配算法是计算机视觉领域中的重要研究方向。
本文介绍了一些常用的特征点提取及匹配算法,并对其进行了讨论。
特征 图像匹配算法

特征图像匹配算法1. 简介特征图像匹配算法是一种计算机视觉中常用的算法,用于在两幅图像之间找到相对应的特征点,并将它们匹配起来。
这种算法在多个应用领域都有广泛的应用,包括图像检索、三维重建、目标跟踪等。
特征图像匹配算法的核心思想是通过提取图像中的关键特征点,然后计算这些特征点的描述子,在不同图像中进行匹配,找到相对应的特征点。
这些特征点通常是图像中的角点、边缘或者纹理等具有区分性的部分。
2. 特征提取在特征图像匹配算法中,特征点的提取是首要任务。
常用的特征点提取算法包括Harris角点检测、SIFT(Scale-Invariant Feature Transform)、SURF (Speeded-Up Robust Features)等。
•Harris角点检测是一种通过计算图像中像素点周围的灰度变化来检测图像中的角点的算法。
它主要是通过计算图像中每个像素点的窗口内的像素梯度的方差来确定是否为角点。
•SIFT是一种尺度不变特征变换的算法,它可以在不同大小和旋转角度的图像中匹配特征点。
SIFT算法首先通过高斯滤波器进行图像平滑,然后通过DoG(Difference of Gaussians)算子检测图像中的极值点作为特征点。
•SURF是一种类似于SIFT的特征提取算法,但它具有更快的计算速度和更好的旋转不变性。
SURF算法通过检测图像中的极值点,并计算它们的Haar小波特征来提取特征点。
3. 特征描述在特征提取之后,需要对特征点进行描述,以便在不同图像中进行匹配。
常用的特征描述算法包括ORB(Oriented FAST and Rotated BRIEF)、BRISK(Binary Robust Invariant Scalable Keypoints)等。
•ORB是一种具有旋转不变性和尺度不变性的特征描述算法。
它通过计算特征点周围的像素点在不同方向上的灰度变化来生成特征点的描述子。
最后,ORB算法将描述子通过二进制编码,以降低计算复杂度。
图像中角点提取与匹配算法

图像中角点提取与匹配算法角点提取与匹配算法是计算机视觉领域中的一项重要技术,用于在图像中寻找具有明显角度变化的特征点,并将这些特征点进行匹配。
这些算法在很多应用中都起到了关键作用,如图像配准、目标跟踪、三维重建等。
角点是图像中具有明显角度变化的点,它们在不同尺度和旋转下具有稳定性,因此可以用来作为图像的特征点。
在角点提取算法中,常用的方法有Harris角点检测算法、Shi-Tomasi角点检测算法、FAST角点检测算法等。
Harris角点检测算法是最早提出的角点检测算法之一,它通过计算图像中每个像素点周围区域的灰度变化来判断该点是否为角点。
具体来说,该算法计算每个像素点的特征值,通过特征值的大小来确定角点。
如果特征值较大,则该点为角点;反之,则该点为平坦区域或边缘。
Shi-Tomasi角点检测算法是对Harris角点检测算法的改进,它使用特征值中较小的一个来表示角点的稳定性,从而提高了检测的准确性和稳定性。
该算法首先计算每个像素点的特征值,然后选择特征值较小的一部分像素点作为角点。
FAST角点检测算法是一种高效的角点检测算法,它通过比较像素点周围的相邻像素点的灰度值来判断该点是否为角点。
该算法通过快速地检测像素点的灰度值变化来提高检测的速度,同时保持了较高的准确性。
在角点匹配算法中,常用的方法有基于特征描述子的匹配算法,如SIFT(尺度不变特征变换)算法、SURF(加速稳健特征)算法、ORB (Oriented FAST and Rotated BRIEF)算法等。
SIFT算法是一种基于尺度不变特征变换的特征描述子算法,它通过检测图像中的关键点,并计算每个关键点周围区域的特征描述子。
这些特征描述子具有尺度不变性和旋转不变性,因此可以用来进行图像匹配。
SURF算法是一种加速稳健特征算法,它通过使用快速哈尔小波变换来计算图像中的特征点,并使用加速积分图像来加速特征点的计算。
这些特征点具有尺度不变性和旋转不变性,可以用来进行图像匹配。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
角点提取与匹配算法实验报告1 说明本文实验的目标是对于两幅相似的图像,通过角点检测算法,进而找出这两幅图像的共同点,从而可以把这两幅图像合并成一幅图像。
下面描述该实验的基本步骤:1.本文所采用的角点检测算法是Harris 角点检测算法,该算法的基本原理是取以目标像素点为中心的一个小窗口,计算窗口沿任何方向移动后的灰度变化,并用解析形式表达。
设以像素点(x,y)为中心的小窗口在X 方向上移动u ,y 方向上移动v ,Harris 给出了灰度变化度量的解析表达式:2,,|,|,,()(x y x y x u y v x y x y I I E w I I w uv o X Y∂∂=-=++∂∂∑∑ (1) 其中,,x y E 为窗口内的灰度变化度量;,x y w 为窗口函数,一般定义为222()/,x y x y w e σ+=;I 为图像灰度函数,略去无穷小项有:222222,,[()()2]2x y x y x y x y E w u I v I uvI I Au Cuv Bv =++=++∑(2)将,x y E 化为二次型有:,[]x yu E u v M v ⎡⎤=⎢⎥⎣⎦(3)M 为实对称矩阵:2,2x y x x y x y y I I I M w I I I •⎤⎡=⎥⎢•⎢⎥⎣⎦∑ (4)通过对角化处理得到:11,200x y E R R λλ-⎛⎫= ⎪⎝⎭(5)其中,R 为旋转因子,对角化处理后并不改变以u,v 为坐标参数的空间曲面的形状,其特征值反应了两个主轴方向的图像表面曲率。
当两个特征值均较小时,表明目标点附近区域为“平坦区域”;特征值一大一小时,表明特征点位于“边缘”上;只有当两个特征值均比较大时,沿任何方向的移动均将导致灰度的剧烈变化。
Harris 的角点响应函数(CRF)表达式由此而得到:2(,)det()(())CRF x y M k trace M =-(6)其中:det(M)表示矩阵M的行列式,trace(M)表示矩阵的迹。
当目标像素点的CRF值大于给定的阈值时,该像素点即为角点。
下面是图像一用Harris角点检测算法得到的角点坐标位置x 212 301 309 353 58 201 178 58 202 186 329 161 202 58 57 201 306 y 2 65 68 77 94 94 142 143 144 150 150 170 177 178 228 228 228 在图像一上画出该角点的坐标位置如下图所示:其中蓝色小方块代表的是检测出来的角点坐标位置。
2.匹配。
将两幅图像进行Harris角点检测后,分别得到角点对应与该图像的坐标位置,以该坐标位置为中心,分别取其附近的8个像素值,然后进行与另一幅图像进行匹配,找出距离最小的点作为匹配点。
例如下面是图像一角点坐标位置x 212 301 309 353 58 201 178 58 202 186 329 161 202 58 57 201 306 y 2 65 68 77 94 94 142 143 144 150 150 170 177 178 228 228 228 与该位置对应的8个像素值分别为角点1 角点2 角点3 。
角点17(x-1,y-1)30 7 35 。
142(x-1,y)48 59 17 。
9(x-1,y+1)37 108 128 。
63(x,y+1)31 114 15 。
101(x+1,y+1)143 183 32 。
95(x+1,y)101 177 25 。
20(x+1,y-1) 2 92 24 。
49(x,y-1) 3 22 30 。
198接着,将图像一中的角点1与图像二中的所有角点进行相减,得到一个最小误差值,并记录下该位置,这样依次将图像一中的角点2,角点3一直到角点17都进行相减,即可得到两幅图像之间的最佳匹配点。
下面是两幅图像角点匹配的最佳坐标位置匹配点0 10 13 14 15 16 17 0 0 0 4 0 5 12 0 0 0误差值0 336 105 64 53 34 104 0 0 0 389 0 204 400 0 0 0 其中匹配点的值为0代表没有找到匹配点3.显示匹配点。
对已经找出的匹配点,在图像上进行显示,这样有利于人眼判断该算法是否匹配正确。
下面是第一次显示找到的匹配点(两幅图像中共有9个匹配点)下面是第二次显示找到的匹配点(比上一次少一个,判断依据是将误差值最大的点去除)从上面可以看出,14号点已经被删除,原因是该点的误差值最大下面是最后一次显示找到的匹配点只留下最后三个匹配点,如果少于三个匹配点,则很难进行两幅图像的合并,所以当只有留下三个匹配点的时候,程序退出。
2 实验结果实验一原始图像第一次匹配的结果实验二原始图像最后一次匹配的结果原始图像第一次匹配的结果最后一次匹配的结果原始图像第一次匹配的结果最后一次匹配的结果可以看出,利用该算法进行两幅图像匹配结果还算正确。
算法代码(用matlab语言写的)function test()% The test function gives an example of keypoint extraction using the % methods :% - Harris%% Example% =======% test();% Harris% import the first picture%img11 = imread('door1.jpg');%img11 = imread('gx21.jpg');%img11 = imread('woman1.jpg');%img1 = double(img11(:,:,1));img11 = imread('91.jpg');img1 = rgb2gray(img11);img1 = double(img1(:,:));pt1 = kp_harris(img1);%draw(img11,pt1,'Harris');% import the second picture%img21 = imread('door2.jpg');%img21 = imread('gx22.jpg');%img21 = imread('woman2.jpg');%img2 = double(img21(:,:,1));img21 = imread('92.jpg');img2 = rgb2gray(img21);img2 = double(img2(:,:));pt2 = kp_harris(img2);%draw(img21,pt2,'Harris');% match key points within two pictures.result = match(img1,pt1,img2,pt2);result(1,intersect(find(result(1,:) > 0),find(result(2,:) == 0))) = 0;%result%pause;while(length(find(result(1,:)>0)) > 3)resultdraw2(img11,img21,pt1,pt2,result);%find(result(1,:)>0)pause;[index index] = max(result(2,:));result(2,index(1)) = 0;%result(1,I(1)) = result(2,I(1)) = 0enddraw2(img11,img21,pt1,pt2,result);endfunction draw2(img1,img2,pt1,pt2,result)h = figure;%set(gcf,'outerposition',get(0,'screensize'));subplot(1,2,1);%hold on;imshow(img1);subplot(1,2,2);%hold on;imshow(img2);s = size(pt1,2);subplot(1,2,1);for i=1:size(pt1,1)rectangle('Position',[pt1(i,2)-s,pt1(i,1)-s,2*s,2*s],'Curvature',[00],'EdgeColor','b','LineWidth',2);%text(pt1(i,2)+3,pt1(i,1)+3,num2str(i),'BackgroundColor',[1 1 1]);%text(pt2(i,2),pt2(i,1),num2str(i));%plot(pt2(i,2),pt2(i,1));endsubplot(1,2,2);for i=1:size(pt2,1)rectangle('Position',[pt2(i,2)-s,pt2(i,1)-s,2*s,2*s],'Curvature',[00],'EdgeColor','b','LineWidth',2);end%result%size(pt1)%size(pt2)for i=1:size(result,2)if(result(1,i)~=0)subplot(1,2,1);text(pt1(result(1,i),2)+3,pt1(result(1,i),1)+3,num2str(i),'BackgroundColor',[1 1 1]);%result(1,i)%pt1(result(1,i),2)subplot(1,2,2);text(pt2(i,2)+3,pt2(i,1)+3,num2str(i),'BackgroundColor',[1 1 1]);endendendfunction result = match(img1,pt1,img2,pt2)%得到标定点周围的像素值regionValue1 = getRegionValue(img1,pt1);len1 = size(regionValue1,2);regionValue2 = getRegionValue(img2,pt2);len2 = size(regionValue2,2);%找出最佳匹配点result = zeros(2,len2);for i=1:len1B = regionValue1(:,i);%abs(regionValue2-B(:,ones(1,size(regionValue2,2))))%sum(abs(regionValue2-B(:,ones(1,size(regionValue2,2)))))[value,index] =sort(sum(abs(regionValue2-B(:,ones(1,size(regionValue2,2))))));%value(1)%index(1)%save index and valueif((result(1,index(1))==0)||(result(2,index(1))>value(1)))result(1,index(1))=i;result(2,index(1))=value(1);endendendfunction regionValue = getRegionValue(img,pt)len = size(pt,1);regionValue = zeros(8,len);maxX = size(img,1);maxY = size(img,2);for i=1:lenx = pt(i,1);y = pt(i,2);%1if(x-1<1||y-1<1)regionValue(1,i)=100;elseregionValue(1,i)=img(x,y)-img(x-1,y-1);end%2if(x-1<1)regionValue(2,i)=200;elseregionValue(2,i)=img(x,y)-img(x-1,y);end%3if(x-1<1||y+1>maxY)regionValue(3,i)=300;elseregionValue(3,i)=img(x,y)-img(x-1,y+1);end%4if(y+1>maxY)regionValue(4,i)=400;elseregionValue(4,i)=img(x,y)-img(x,y+1);end%5if(x+1>maxX||y+1>maxY)regionValue(5,i)=500;elseregionValue(5,i)=img(x,y)-img(x+1,y+1);end%6if(x+1>maxX)regionValue(6,i)=600;elseregionValue(6,i)=img(x,y)-img(x+1,y);end%7if(x+1>maxX||y-1<1)regionValue(7,i)=700;elseregionValue(7,i)=img(x,y)-img(x+1,y-1);end%8if(y-1<1)regionValue(8,i)=800;elseregionValue(8,i)=img(x,y)-img(x,y-1);endendendfunction points = kp_harris(im)% Extract keypoints using Harris algorithm (with an improvement% version)% INPUT% =====% im : the graylevel image%% OUTPUT% ======% points : the interest points extracted%% REFERENCES% ==========% C.G. Harris and M.J. Stephens. "A combined corner and edge detector", % Proceedings Fourth Alvey Vision Conference, Manchester.% pp 147-151, 1988.%% Alison Noble, "Descriptions of Image Surfaces", PhD thesis, Department % of Engineering Science, Oxford University 1989, p45.%% C. Schmid, R. Mohrand and C. Bauckhage, "d",% Int. Journal of Computer Vision, 37(2), 151-172, 2000.%% EXAMPLE% =======% points = kp_harris(im)% only luminance value%size(im)im = double(im(:,:,1));sigma = 1.5;% derivative maskss_D = 0.7*sigma;x = -round(3*s_D):round(3*s_D);dx = x .* exp(-x.*x/(2*s_D*s_D)) ./ (s_D*s_D*s_D*sqrt(2*pi));dy = dx';% image derivativesIx = conv2(im, dx, 'same');Iy = conv2(im, dy, 'same');% sum of the Auto-correlation matrixs_I = sigma;g = fspecial('gaussian',max(1,fix(6*s_I+1)), s_I);Ix2 = conv2(Ix.^2, g, 'same'); % Smoothed squared image derivativesIy2 = conv2(Iy.^2, g, 'same');Ixy = conv2(Ix.*Iy, g, 'same');% interest point responsecim = (Ix2.*Iy2 - Ixy.^2)./(Ix2 + Iy2 + eps);% find local maxima on 3x3 neighborgood[r,c,max_local] = findLocalMaximum(cim,3*s_I);% set threshold 1% of the maximum value%t = 0.01*max(max_local(:));t = 0.6*max(max_local(:)); %door.jpg%t = 0.48*max(max_local(:)); %sunflower.jpg% find local maxima greater than threshold[r,c] = find(max_local>=t);% build interest pointspoints = [r,c];endfunction [row,col,max_local] = findLocalMaximum(val,radius)% Determine the local maximum of a given value%%% INPUT% =====% val : the NxM matrix containing values% radius : the radius of the neighborhood%% OUTPUT% ======% row : the row position of the local maxima% col : the column position of the local maxima% max_local : the NxM matrix containing values of val on unique local maximum%% EXAMPLE% =======% [l,c,m] = findLocalMaximum(img,radius);% FIND UNIQUE LOCAL MAXIMA USING FILTERING (FAST)mask = fspecial('disk',radius)>0;nb = sum(mask(:));highest = ordfilt2(val, nb, mask);second_highest = ordfilt2(val, nb-1, mask);index = highest==val & highest~=second_highest; max_local = zeros(size(val));max_local(index) = val(index);[row,col] = find(index==1);end。