KTH-TIPS2 image dataset(KTH-TIPS2图像数据集)_图像处理_科研数据集

KTH-TIPS2 image dataset(KTH-TIPS2图像数据集)_图像处理_科研数据集
KTH-TIPS2 image dataset(KTH-TIPS2图像数据集)_图像处理_科研数据集

KTH-TIPS2 image dataset(KTH-TIPS2图像数据集)

英文关键词:

imaging 4 different samples,11 materials,varying pose, illumination and scale,

中文关键词:

成像4 不同样本、11 材料、不同姿势、照明和规模,

数据格式:

IMAGE

数据介绍:

The KTH-TIPS2 databases took this a step further by imaging 4 different samples of 11 materials, each under varying pose, illumination and scale.

[以下内容来由机器自动翻译]

第k 个TIPS2 数据库了这一步进一步成像11 材料,每个不同的姿势、照明和规模下4 不同样本。

[自动翻译由Microsoft Translator完成]

点此下载完整数据集

遥感图像融合方法比较

1 绪论 1.1研究目的及意义 20世纪90年代中后期以后,搭载许多新型传感器的卫星相继升空,使得同一地区的遥感数据影像数目不断增多。如何有效地利用这些不同时相、不同传感器、不同分辨率的遥感数据便成为了遥感工作者研究的瓶颈问题,然而解决这一问题的关键技术就是遥感影像数据融合。 遥感数据融合就是对多个遥感器的图像数据和其他信息的处理过程,它着重于把那些在空间或时间上冗余或互补的多源数据,按一定法则(算法)进行处理,获得比单一数据更精确、更丰富的信息,生成一幅具有新的空间、波谱和时间特征的合成图像。 遥感是不同空间、时间、波谱、辐射分辨率提供电磁波谱不同谱段的数据。由于成像原理不同和技术条件的限制,任何一个单一遥感器的遥感数据都不能全面的反映目标对象的特征,也就是有一定的应用范围和局限性。各类非遥感数据也有它自身的特点和局限性。影像数据融合技术能够实现数据之间的优势互补,也能实现遥感数据与地理数据的有机结合。数据融合技术是一门新兴的技术,具有十分广阔的应用前景。所以,研究遥感影像数据融合方法是非常必要的。 1.2研究现状及发展的趋势 1.2.1研究现状 20世纪美国学者提出“多传感器信息融合”的概念认为在多源遥感影像数据中能够提取出比单一遥感影像更丰富、更有效、更可靠的信息。之后由于军事方面的要求,使得遥感影像数据融合技术得到了很大的发展,美、英,德等国家已经研制出了实用的遥感数据融合处理的系统和软件,同时进行了商业应用。 1)、融合结构 融合的结构可分为两类:集中式和分布式。集中式融合结构:各传感器的观测数据直接被送到中心,进行融合处理,用于关联、跟踪、识别等。分布式融合结构:每个传感器独立完成关联、识别、跟踪,然后由融合中心完成配准、多源关联的融合。 2)、融合的层次 图像融合可分为:像元级融合、特征级融合和决策级融合。 像元级融合是最低级的信息融合,可以在像素或分辨单位上进行,又叫做数据级融合。它是对空间配准的遥感影像数据直接融合,然后对融合的数据进行特征提取和属性说明。 特征级融合是由各个数据源中提取特征信息进行综合分析和处理的过程,是中间层次的融合。特征级融合分为目标状态信息融合和目标特征融合。 决策级融合是在信息表示的最高层次上进行融合处理。首先将不同传感器观测同一目标获得的数据进行预处理、特征提取、识别,以建立对所观测目标的初步理论,然后通过相关处理、决策级融合判别,最终获得联合推断结果,从而为决策提供依据。

3D Photography Dataset-Action Figure (Warrior) (3D摄影数据集图(战士))_图像处理_科研数据集

3D Photography Dataset-Action Figure (Warrior) (3D摄影数据集图(战士)) 英文关键词: multiview stereo data,images,camera parameters,contours, 中文关键词: 多视图的立体数据、图像、摄像机参数、轮廓, 数据格式: IMAGE 数据介绍: The following are multiview stereo data sets captured in our lab: a set of images, camera parameters and extracted apparent contours of a single rigid object. Each data set consists of 24 images. Image resolutions range from 1400x1300 pixels^2 to 2000x1800 pixels^2 depending on the data set. For calibration, we have used "Camera Calibration Toolbox for Matlab" by Jean-Yves Bouguet to estimate both the intrinsic and the extrinsic camera parameters. All the images have been corrected to remove radial and tangential distortions. For contour extraction, first, Photoshop has been used to segment the foreground from each

第六章 对话框控件

学习目标: ?掌握CommonDialog。 ?掌握文件操作相关的对话框。 ?理解打印对话框。 6.1对话框: 对话框是一种用户界面接口,用于同用户进行交互,完成一些特定的任务,简单的对话框有对用户操作进行提示的对话框,对重要操作要求用户进行决定的交互对话框等。 这类任务能被独立出来,作为通用的交互处理过程。这些能被独立出来作为通用交互过程的任务常见如下一些: (1)文件选取。 (2)保存设置。 (3)路径选取。 (4)字体选取。 (5)颜色选取。 (6)打印设置。 (7)打印预览框。 在.NET中这些组件是在https://www.360docs.net/doc/6e3493737.html,monDialog的基础上发展而来。

6.1.1Common pialog: CommonDialog是.NET中对话框组件的基础,它是System.Windows.Forms命名空间下的一个抽象类,在程序中不能直接使用。 CommonDialog公开了2个方法和一个属性,即:ShowDialog()/ShowDialog(IWin32Window)方法和Reset()方法以及Tag属性。 ShowDialog是用于显示对话框。ShowDialog()有一个重载形式:ShowDialog(IWin32Window),IWin32Window在这里指一个窗口句柄,在调用中,这个参数应该被赋值成要显示的对话框的父窗体。 注意:句柄是Window中的一个常用词语,可以把它理解为一个标识符号,只是这个标识符号是一个数字。相应的窗口句柄就是窗口的标标识符。 Reset方法: 使用过程中可能改变初始值,当需要让所有的初值回到原来的状态时,调用Reset能达到目的。 Tag属性: Tag没有具体含义,它可以让用户在对话框控件中存储、维护自己的数据。这个数据由用户自己的代码解释。 对话框的返回值(ShowDialog的返回值): 对话框通过调用ShowDialog()调用后,返回一个类型为DialogResult 值,其中DialogResult.OK指出用户成功完成了操作,成功选取了文

遥感影像融合处理方法

遥感影像融合处理方法 摘要:本文介绍了遥感影像数据融合技术,并给出了融合的一些基本理论、融合处理一般步骤以及常用融合处理方法,最后简要描述了融合评价的方式方法等。 关键词:遥感影像融合融合评价 1、前言 将高分辨率的全色遥感影像和低分辨率的多光谱遥感影像进行融合,获得色彩信息丰富且分辨率高的遥感融合影像的过程,成为遥感影像融合。全色影像一般具有较高空间分辨率,多光谱影像光谱信息较丰富,为提高多光谱影像的空间分辨率,可以将全色影像融合进多光谱影像。通过影像融合既可以提高多光谱影像空间分辨率,又能保留其多光谱特性。 2、遥感影像融合一般步骤 遥感影像信息融合一般流程主要分为两个阶段:图像预处理,图像融合变换。 图像预处理主要包括:几何校正及影像配准。几何校正主要在于去除透视收缩、阴影等地形因素以及卫星扰动、天气变化、大气散射等随机因素对成像结果一致性的影响;影像配准的目的在于消除由不同传感器得到的影像在拍摄角度、时相及分辨率等方面的差异。 3 常用融合方式 3.1 IHS融合 IHS(亮度I、色度H、饱和度S)变换就是将影像从RGB彩色空间变换到IHS空间来实现影像融合的一种方法。由光学、热红外和雷达(微波)等方式得到的不同波段遥感数据,合成的RGB颜色空间是一个对物体颜色属性描述系统,而IHS色度空间提取出物体的亮度、色度、饱和度,它们分别对应每个波段的平均辐射强度、数据向量和的方向及其等量数据的大小。RGB颜色空间和IHS 色度空间有着精确的转换关系。IHS变换法只能用三个波段的多光谱影像融合和全色影像融合。 3.2 小波融合 小波变换,基于遥感影像的频域分析进行的,由于同一地区不同类型的影像,低频部分差别不大,而高频部分相差很大,通过小波变换对变换区实现分频,在分频基础上进行遥感影像的融合,常用于雷达影像SAR与TM影像的融合。

高分辨率遥感图像融合方法的比较正式

包头师范学院 本科学年论文 论文题目:高分辨率遥融图像融合方法比较院系:资源与环境学院 专业:地理信息系统 学号:0912430022 姓名:郭殿繁 指导教师:同丽嘎 撰写学年:2010 至2011 学年 二零一零年十二月

摘要:目前,遥感中高分辨率全色遥感影像和低空间分辨率的多光谱遥感影像融合是影像融合技术应用的主流。本文通过对遥感影像四种融合方法的研究,并且用呼和浩特市快鸟影像图像融合举例,加深对四种融合方法的理解和理论应用,最后通过截取呼和浩特市快鸟影像的原始多波段彩色影像和原始高分辨率全色波段影像的一部分进行四种融合方法来进行精度的比较,以ENVI4.7软件作为平台,最终得出,Gram-Schmidt变换效果最好,HSV变换融合效果最差。 关键词:图像融合;PCA变换;Gram-Schmidt变换;Brovey变换;HSV变换;精度比较 Abstract: At present, the remote sensing high resolution full-color remote sensing image and low spatial resolution multi-spectral remote sensing image fusion is image fusion technology application of mainstream. This article through to four kinds of remote sensing image fusion method with the principle and analysis, and in Hohhot, fast image image fusion for example, the bird to deepen the understanding of four fusion method and theory, and finally by intercepting the original image Hohhot fast bird multichannel color image and primitive high-resolution full-color band image on the part of four fusion method for precision compared to ENVI4.7 software as a platform to finally arrive, the best effect, Schmidt transform - the worst. Fusion result transformation HSV. Key words: image fusion, PCA transform; Schmidt transform; the - Brovey transform; HSV transform; Precision;

图像处理_Holidays Photos Dataset(假日风景图片数据集)

Holidays Photos Dataset(假日风景图片数据集) 数据摘要: The dataset is a set of images which mainly contains the holidays photos. These were taken on purpose to test the robustness to various attacks: rotations, viewpoint and illumination changes, blurring, etc.. 中文关键词: 图像,假日图片,稳健性,视角,照明度,分辨率,校正, 英文关键词: image,holidays photos,robustness,viewpoint,illumination,resolution,correction, 数据格式: IMAGE 数据用途: 图像变换,图像矫正 数据详细介绍: INRIA Holidays dataset

The Holidays dataset is a set of images which mainly contains some of our personal holidays photos. The remaining ones were taken on purpose to test the robustness to various attacks: rotations, viewpoint and illumination changes, blurring, etc. The dataset includes a very large variety of scene types (natural, man-made, water and fire effects, etc) and images are in high resolution. The dataset contains 500 image groups, each of which represents a distinct scene or object. The first image of each group is the query image and the correct retrieval results are the other images of the group. Notes About Files in Dataset Descriptors in the dataset are stored in raw together with the region information provided by the software of Krystian Mikolajczyk. There is no header (use the file length to find the number of descriptors). A descriptor takes 168 bytes (floats and ints take 4 bytes, and are stored in little endian): A matlab file to read .siftgeo files. .fvecs format This one is used to store centroids. As for the .siftgeo format, there is no header. Centroids are stored in raw. Each centroid takes 516 bytes, as shown below.

MFC对话框程序中的各组件常用方法

MFC对话框程序中的各组件常用方法: Static Text: 将ID号改成唯一的一个,如:IDC_XX,然后进一次类向导点确定产生这个ID,之后更改Caption属性: GetDlgItem(IDC_XX)->SetWindowText(L"dsgdhfgdffd"); 设置字体: CFont *pFont = new CFont; pFont->CreatePointFont(120,_T("华文行楷")); GetDlgItem(IDC_XX)->SetFont(pFont); Edit Control: 设置文本: SetDlgItemText(IDC_XX,L"iuewurebfdjf"); 获取所有输入: 建立类向导创建一个成员变量(假设是shuru1,shuru2……)类型选value,变量类型任选。 UpdateData(true); GetDlgItem(IDC_XX)->SetWindowText(shuru1); 第一句更新所有建立了变量的对话框组件,获取输入的值。第二句将前面的IDC_XX的静态文本内容改为shuru1输入的内容。 若类型选用control: 1.设置只读属性: shuru1.SetReadOnly(true); 2.判断edit中光标状态并得到选中内容(richedit同样适用) int nStart, nEnd; CString strTemp; shuru1.GetSel(nStart, nEnd); if(nStart == nEnd) { strTemp.Format(_T(" 光标在%d" ), nStart); AfxMessageBox(strTemp); } else { //得到edit选中的内容 shuru1.GetWindowText(strTemp); strTemp = strTemp.Mid(nStart,nEnd-nStart); AfxMessageBox(strTemp); } 其中nStart和nEnd分别表示光标的起始和终止位置,从0开始。strTemp.Format 方法用于格式化字符串。AfxMessageBox(strTemp)显示一个提示对话框,其内容是字符串strTemp。 strTemp = strTemp.Mid(nStart,nEnd-nStart)返回一个被截取的字符串,从nStart开始,长度为nEnd-nStart。如果nStart == nEnd说明没有选择文本。 注:SetSel(0,-1)表示全选;SetSel(-1,i)表示删除所选。

利用ENVI软件进行遥感图像的融合和增强实习报告

遥感图像处理实习报告 实验内容:影像融合与增强 班级:测绘1102班 学号:13 姓名: 指导老师:陈晓宁、黄远程、竞霞、史晓亮 西安科技大学 测绘科学与技术学院 二零一三年一月 实习三影像融合与增强

一、实习内容: 1.掌握ENVI中各种影像融合方法,并比较各方法的优缺点; 2.熟悉ENVI图像增强操作; 3.本实习的数据源为上节已经过校正的资源三号多光谱和全色影像。 二、实习目的: 1.了解和认识各种图像融合方法的原理、内容及要点; 2.熟悉、熟练操作ENVI软件中各种图像融合的方法、步骤并学会加以比较; 3.学习利用ENVI软件进行各种图像增强处理操作; 4.学会定性、定量分析比较图像融合的差异。 三、实习步骤: 1.图像融合: 三波段融合: HSV和Color Normalized (Brovey)变换: 1)从ENVI主菜单中,选择File → Open Image File,分别加载校正后的资源三号多光谱与全色影像到可用波段列表Available Bands List中; 2)选择多光谱3,2,1波段(可以根据需要选择)对应R,G,B,点击Load RGB将多光谱影像加载到显示窗口display#1; 3)在ENVI的主菜单选择Transform → Image Sharpening → HSV; 4)在Select Input RGB Input Bands对话框中,选择Display #1,然后点击OK。 5)从High Resolution Input File对话框中选择全色影像,点击OK。 6)从HSV Sharpening Parameters对话框中,选择重采样方法,并输入输出路径和文件名,点击OK。即可完成HSV变换融合;

ImageNet图像数据集处理及说明_20160920

1 ImageNet 图像数据集分类标签及对应的名称 这份数据是ILSVRC2012年比赛所有的数据,下载解压后如下: 请确认的确是你想要的数据,千万不要出现下载了一个礼拜,解压缩一个礼拜结果发现不是你想要的。 2.下载前请保证硬盘至少要有141G 空间,多多益善。 3.必须使用百度云客户端下载,支持断点续传,不然出了点问题一切白费了。上传时速度1.4M/s 用了大约30个小时完成。 4. 所有图片共分为1000个类别,这1000个类别的分类标签及对应的名称如下所述。例如第1类的标签为n01440764,第1类的名称为'tench, Tinca tinca'; Define a cell of matlab: Label1(1)={'daffff'} Label2{1}=('dddfff') Label2{1}={'dddfff'} >> https://www.360docs.net/doc/6e3493737.html, Columns 1 through 9 'n01440764' 'n01443537' 'n01484850' 'n01491361' 'n01494475' 'n01496331' 'n01498041' 'n01514668' 'n01514859' Columns 10 through 18 'n01518878' 'n01530575' 'n01531178' 'n01532829' 'n01534433' 'n01537544' 'n01558993' 'n01560419' 'n01580077'

Columns 19 through 27 'n01582220' 'n01592084' 'n01601694' 'n01608432' 'n01614925' 'n01616318' 'n01622779' 'n01629819' 'n01630670' Columns 28 through 36 'n01631663' 'n01632458' 'n01632777' 'n01641577' 'n01644373' 'n01644900' 'n01664065' 'n01665541' 'n01667114' Columns 37 through 45 'n01667778' 'n01669191' 'n01675722' 'n01677366' 'n01682714' 'n01685808' 'n01687978' 'n01688243' 'n01689811' Columns 46 through 54 'n01692333' 'n01693334' 'n01694178' 'n01695060' 'n01697457' 'n01698640' 'n01704323' 'n01728572' 'n01728920' Columns 55 through 63 'n01729322' 'n01729977' 'n01734418' 'n01735189' 'n01737021' 'n01739381' 'n01740131' 'n01742172' 'n01744401' Columns 64 through 72 'n01748264' 'n01749939' 'n01751748' 'n01753488' 'n01755581' 'n01756291' 'n01768244' 'n01770081' 'n01770393' Columns 73 through 81 'n01773157' 'n01773549' 'n01773797' 'n01774384' 'n01774750' 'n01775062' 'n01776313' 'n01784675' 'n01795545' Columns 82 through 90 'n01796340' 'n01797886' 'n01798484' 'n01806143' 'n01806567' 'n01807496' 'n01817953' 'n01818515' 'n01819313' Columns 91 through 99 'n01820546' 'n01824575' 'n01828970' 'n01829413' 'n01833805' 'n01843065' 'n01843383' 'n01847000' 'n01855032' Columns 100 through 108 'n01855672' 'n01860187' 'n01871265' 'n01872401' 'n01873310' 'n01877812' 'n01882714' 'n01883070' 'n01910747' 2

2014名师联1800G设计师资料集图片案例方案软装作品

https://www.360docs.net/doc/6e3493737.html,D郑中专题(120G) https://www.360docs.net/doc/6e3493737.html,/cjY34rTaABEAX 访问密码5760 https://www.360docs.net/doc/6e3493737.html,/cjY3iULpqMSjQ 访问密码3bbf https://www.360docs.net/doc/6e3493737.html,/cjY3hbD2Dbudd 访问密码c4b3 https://www.360docs.net/doc/6e3493737.html,/cjY37HsnjTcGv 访问密码4e99 https://www.360docs.net/doc/6e3493737.html,/cjYuALCmunNxp 访问密码cb9b https://www.360docs.net/doc/6e3493737.html,/cjYuKrIzMgvKz 访问密码93df https://www.360docs.net/doc/6e3493737.html,/cjYuZU7rybZXi 访问密码1bba https://www.360docs.net/doc/6e3493737.html,/cjYuQvpM5T96b 访问密码3d9d https://www.360docs.net/doc/6e3493737.html,/cjYumnIeEtGKC 访问密码88b6 https://www.360docs.net/doc/6e3493737.html,/cjYuFh9AE2JW A 访问密码19a9 01CCD--丽江伯尔曼酒店独家资料 https://www.360docs.net/doc/6e3493737.html,/cjYBxqe2sEShK 访问密码908d 2.HBA专题(38G) https://www.360docs.net/doc/6e3493737.html,/cjYuqLhiubMTI 访问密码1a0b https://www.360docs.net/doc/6e3493737.html,/cjYu6nIP3V yuA 访问密码30de https://www.360docs.net/doc/6e3493737.html,/cjYu9f36dXcJy 访问密码8209 https://www.360docs.net/doc/6e3493737.html,/cjYrgnZF2pPba 访问密码e3ad https://www.360docs.net/doc/6e3493737.html,/cjYrj2vmGwZKj 访问密码ec1b HBA-北京某豪宅样板房 https://www.360docs.net/doc/6e3493737.html,/cjYBRjUfYeGh6 访问密码79ea HBA财富公馆施工图 https://www.360docs.net/doc/6e3493737.html,/cjYB6ngjUNsKH 访问密码d024 HBA-东莞[希尔顿酒店]概念设计方案 https://www.360docs.net/doc/6e3493737.html,/cjYBkTNvUKWKu 访问密码3474 3-YABU专题【32G】 https://www.360docs.net/doc/6e3493737.html,/cjYrM96G2wK2b 访问密码eb85 https://www.360docs.net/doc/6e3493737.html,/cjYri2kvIc7FS 访问密码be0a https://www.360docs.net/doc/6e3493737.html,/cjYrTpVW A2hfC 访问密码a636 https://www.360docs.net/doc/6e3493737.html,/cjYraaw9gDNER 访问密码44ce YABU作品集 https://www.360docs.net/doc/6e3493737.html,/cjYBTg7UW7h4v 访问密码0d19 https://www.360docs.net/doc/6e3493737.html,/cjYBhHEpzGBU6 访问密码c617 yabu雅布室内设计作品集及设计元素分

遥感图像融合质量评价方法

遥感图像融合质量评价方法 武坚李崇伟王积武李相全 (68011部队甘肃兰州 730020) 摘要:图像融合可为摄影测量与遥感提供高质量的遥感融合图像。遥感融合图像质量如何是图像使用者关心的一个重要问题。本文运用主观评价、客观评价、几何质量等三种评价方法对融合后的遥感图像的质量展开讨论。实践表明这些评价方法能够保证融合后图像高质量地应用于摄影测量与遥感生产。 关键词:主观评价客观评价几何质量质量评价 1.前言 摄影测量与遥感[1]是以数字影像为基础,来确定被摄物体的形状、大小、空间位置及其性质。遥感图像是摄影测量与遥感最原始、最基本的资料。高质量的遥感图像是完成摄影测量与遥感的基础。遥感影像融合[2]是将多传感器、多时相、多光谱和多分辨率影像的各自局部优势信息整合处理,以提供高分辨率、多光谱的单一图像,解决遥感影像解译过程中信息不足的问题。由此看出,图像融合可以为摄影测量与遥感提供高质量的遥感影像。 2.图像融合的评价方法 当前对融合后图像的质量评价主要是主观目视与统计相关信息参数相结合的办法,即:利用目视效果和信息熵、清晰度、平均梯度、偏差指数、均方根误差等参数统计分析,而对融合后图像的几何量测性则关注较少。对于摄影测量与遥感应用,几何精度是一个很重要的因素。本文结合摄影测量与遥感应用角度,来对分析融合后图像的质量做出评价。 站在通用图像处理角度,目前大多数对影像质量评价分为主观评价和客观评价,并结合起来使用。主观评价是通过目视观察进行分析,客观评价是利用图像的统计参数进行判定。严格意义上讲,融合图像的主客观评价应该是一致的,即图像的统计参数特征应该符合人眼的目视感觉。但由于遥感图像融合具有特殊性,它不仅仅要求提高融合图像的空间分辨率,而且要尽可能制约[2]。因此,对遥感融合图像的质量评价,应综合考虑空间细节的增强和光谱保持原始图像的光谱特征。此外,这两个要求在很大程度上是不太相容,相互信息的保持两个方面,利用图像的统计参数结合目视观察来分析与评价。 对于摄影测量与遥感而言,影像的几何质量(影像的可量测性)是很重要的一个因素,它将决定融合图像能否达到数字地形图生产的精度限差[4]。因此,从主观、客观、几何质量等三个方面对做出质量评价可以保证融合后图像高质量地应用于摄影测量与遥感生产。

CVC虚拟行人数据集(CVC Virtual Pedestrian Dataset)_计算机图形_科研数据集

CVC虚拟行人数据集(CVC Virtual Pedestrian Dataset) 数据介绍: This is the virtual pedestrian dataset, generated using Half-Life 2 graphics engine. The dataset consists of 1678 virtual pedestrians (with their corresponding horizontal mirrors) and 2048 pedestrian-free background images to extract negatives for training. 关键词: CVC,虚拟,行人,Half-Life 2图形引擎, CVC,Virtual,Pedestrian,Half-Life 2 graphics engine, 数据格式: IMAGE 数据详细介绍: CVC Virtual Pedestrian Dataset This is the virtual pedestrian dataset, generated using Half-Life 2 graphics engine. The dataset consists of 1678 virtual pedestrians (with their corresponding horizontal mirrors) and 2048 pedestrian-free background images to extract negatives for training. Here are some examples of the database:

图像处理_Semeion Handwritten Digit Data Set(Semeion手写体数字数据集)

Semeion Handwritten Digit Data Set(Semeion手写体 数字数据集) 数据摘要: 1593 handwritten digits from around 80 persons were scanned, stretched in a rectangular box 16x16 in a gray scale of 256 values.Then each pixel of each image was scaled into a bolean (1/0) value using a fixed threshold. Each person wrote on a paper all the digits from 0 to 9, twice. The commitment was to write the digit the first time in the normal way (trying to write each digit accurately) and the second time in a fast way (with no accuracy). The best validation protocol for this dataset seems to be a 5x2CV, 50% Tune (Train +Test) and completly blind 50% Validation 中文关键词: Semeion,手写数字,数据集,0到9,

英文关键词: Semeion,Handwritten Digit,Data Set,0 to 9, 数据格式: TEXT 数据用途: Classification 数据详细介绍: Semeion Handwritten Digit Data Set Abstract: 1593 handwritten digits from around 80 persons were scanned, stretched in a rectangular box 16x16 in a gray scale of 256 values. Source: The dataset was created by Tactile Srl, Brescia, Italy (http://www.tattile.it) and donated in 1994 to Semeion Research Center of Sciences of Communication, Rome, Italy (http://www.semeion.it), for machine learning research.

遥感图像的假彩色合成

北京化工大学 学士学位论文 遥感图像的假彩色合成 姓名:刘晓璐 班级:信息与计算科学0304班 学号:200362102

遥感图像的假彩色合成 摘要:遥感,作为采集地球数据及其变化信息的重要技术手段,在世界范围内及其我国的许多政府部门,科研单位和公司得到了广泛的应用。在遥感数据源向着更高光谱分辨率和更高空间分辨率发展的同时,处理技术也更加成熟;在应用上,结合了地理信息系统(GIS)和全球定位系统(GPS),向着更系统化,更定量化方向发展,使遥感数据的应用更加广泛和深入。 假彩色增强是将一幅彩色图像映射为另一幅彩色图像,从而达到增强彩色对比,使某些图像达到更加醒目的目的。 本文的主要目的就是大遥感的多光谱图像用自然彩色显示。在遥感的多光谱图像中,有些是不可见光波段的图像,如近红外,红外,甚至是远红外波段。因为这些波段不仅具有夜视能力,而且通过与其他波段的配合,易于区分地物。 用假彩色技术处理多光谱图像,目的不在于使景物恢复自然的彩色,而是从中获得更多的信息。为了实现这样的目的,本文采用了MATLAB数学软件编程的方法以及运用Envi4.2 软件直接编辑图像这两种方法,并对其进行对比,得出最优的合成图像。 关键词:图像融合,假彩色合成,彩色增强,灰度级,RGB图像,

False color mapping for image fusion Abstract: A pixel-based color-mapping algorithm is presented that produces a fused false color rendering of two gray-level images representing different sensor modalities. The resulting images have a higher information content than each of the original images and retain sensor specific image information. The unique component of each image modality is enhanced in the resulting fused color image representation. First, the component of two original input images is determined. Second, the common component of each image. Third, the unique component of each image modality is subtracted from the image of the other modality. This step serves to enhance the representation of sensor-specific details in the final fused result. Finally, a fused color image is produced by displaying the images resulting from the last step through, respectively, the red and green channels of a color display. The method is applied to fuse thermal and visual images. The results show that the color mapping enhances the visibility of certain details and preserves the specificity of the sensor information. The fused images also have a fairly natural appearance. The fusion scheme involves only operations on corresponding pixels. The resolution of the input images. Before fusing, the contrast of the images can be enhanced and their noise can be reduced by standard image processing techniques. The color mapping algorithm is computationally simple. This implies that the investigated approaches can eventually be applied in real time and that the hardware needed is not too complicated or too voluminous(an important consideration when it has to fit in an airplane, for instance). Key words: image fusion, false color mapping, color enhances, gray-level, RGB images

(完整版)遥感图像融合技术的发展现状

遥感图像融合技术的发展现状及趋势 1 引言 多源图像融合属于多传感器信息融合的范畴, 是指将不同传感器获得的同一景物的图像或同一传感器在不同时刻获得的同一景物的图像, 经过相应处理后, 再运用某种融合技术得到一幅合成图像的过程。多幅图像融合可克服单一传感器图像在几何、光谱和空间分辨率等方面存在的局限性和差异性, 提高图像的质量, 从而有利于对物理现象和事件进行定位、识别和解释。与单源遥感图像相比, 多源遥感图像所提供的信息具有冗余性、互补性和合作性。因此,将多源遥感图像各自的优势结合应用, 获得对环境正确的解译是极为重要的。多源遥感图像融合则是富集这些多种传感器遥感信息的最有效途径之一,是现代多源数据处理和分析中非常重要的一步。本文基于遥感图像融合的研究现状、分析了图像融合研究的困境和不足, 最后提出了未来的发展趋势和热点, 以期达到抛砖引玉的作用。 2 遥感图像融合研究现状 随着信息科学技术的发展, 在20 世纪七八十年代诞生了一个称为数据融合的全新概念。这一概念不断扩展, 处理的对象由一般的数据发展到数字图像。1979 年, Daliy 等人首先将雷达图像和LandsatMSS 图像的复合图像应用于地质解译, 被认为是最早的图像

融合。20 世纪80 年代, 图像融合技术逐渐应用到遥感图像的分析和处理中。90年代以后, 图像融合技术成为研究的热点, 并成为很多遥感图像应用的一个重要预处理环节。目前, 遥感图像融合已经发展为像素级、特征级和决策级3个层次, 如表1。需要指出的是, 融合层次并没有划分融合算法严格的界限, 因为本质上各个融合层次都是信息融合的范畴。像素级图像融合技术已被广泛研究和应用, 并取得了一定的成果。特征级融合是一种中等层次的信息融合, 利用从各个传感器图像的原始信息中提取的特征信息,进行综合分析及融合处理, 不仅增加从图像中提取特征信息的可能性, 还可能获取一些有用的复合特征, 尤其是边缘、角、纹理、相似亮度区域、相似景深区等。在特征级融合中, 对图像配准的要求不如像素级图像融合对配准要求那么严格。决策级图像融合是一种更高层次的信息融合, 其结果将为各种控制或决策提供依据。在进行融合处理前, 先对图像进行预处理、特征提取、识别或判决, 建立对同一目标的初步判决和结论, 然后对各个图像的决策进行相关处理, 最后进行决策级的融合。从特点来看,不同层次的融合各有优缺点, 难以在信息量和算法效率方面都同时满足需求。 表一:遥感图像融合三个层次的对比 融合层次融合算法特点

机器学习_Statlog (Image Segmentation) Data Set(Statlog(图像分割)数据集)

Statlog (Image Segmentation) Data Set(Statlog(图像 分割)数据集) 数据摘要: This dataset is an image segmentation database similar to a database already present in the repository (Image segmentation database) but in a slightly different form. 中文关键词: Statlog,图像分割,多变量,分类,UCI, 英文关键词: Statlog,Image Segmentation,Multivariate,Classification,UCI, 数据格式: TEXT 数据用途: This data is used for classifacation. 数据详细介绍: Statlog (Image Segmentation) Data Set

Abstract: This dataset is an image segmentation database similar to a database already Source: Creators: Vision Group, University of Massachusetts Donor: Vision Group (Carla Brodley, brodley '@' https://www.360docs.net/doc/6e3493737.html,) Data Set Information: The instances were drawn randomly from a database of 7 outdoor images. The images were handsegmented to create a classification for every pixel. Each instance is a 3x3 region. Attribute Information: 1. region-centroid-col: the column of the center pixel of the region. 2. region-centroid-row: the row of the center pixel of the region. 3. region-pixel-count: the number of pixels in a region = 9. 4. short-line-density-5: the results of a line extractoin algorithm that counts how many lines of length 5 (any orientation) with low contrast, less than or equal to 5, go through the region. 5. short-line-density-2: same as short-line-density-5 but counts lines of high contrast, greater than 5. 6. vedge-mean: measure the contrast of horizontally adjacent pixels in the region. There are 6, the mean and standard deviation are given. This attribute is used as a vertical edge detector. 7. vegde-sd: (see 6) 8. hedge-mean: measures the contrast of vertically adjacent pixels. Used for horizontal line detection. 9. hedge-sd: (see 8). 10. intensity-mean: the average over the region of (R + G + B)/3 11. rawred-mean: the average over the region of the R value.

相关文档
最新文档