当前位置:首页 » 操作系统 » 改进图像匹配算法

改进图像匹配算法

发布时间: 2022-05-10 17:00:12

1. 一种基于图像灰度的快速匹配算法 怎么实现

1.框架搭建
1.1 将struts2中的jar文件导入到项目中
commons-fileupload-1.2.1.jar,commons-io-1.3.2.jar,freemarker-2.3.15.jar,ognl-2.7.3.jar
struts2-core-2.1.8.1.jar,xwork-core-2.1.6.jar
1.2 将struts.xml文件拷贝到项目的src目录下
1.3 修改web.xml文件
添加:
<filter>
<filter-name>struts2</filter-name>
<filter-class>org.apache.struts2.dispatcher.ng.filter.StrutsPrepareAndExecuteFilter</filter-class>
</filter>

<filter-mapping>
<filter-name>struts2</filter-name>
<url-pattern>/*</url-pattern>
</filter-mapping>
2.action中方法的调用方式
2.1 自动方法调用(只能调用execute)
2.2 指定方法调用(通过设置action标签中的method属性)
2.3 动态方法调用(在调用时,在action后加!方法名称,如:login!deletUser)
注意:<constant name="struts.enable.DynamicMethodInvocation" value="true" />
2.4 通配符调用
3. action接收客户端参数的方式
3.1 直接在action中定义参数变量,并生成set和get方法
3.2 定义接收参数的类
注意:都要为action的成员变量提供get和set方法
3.3 让action实现ModelDriven接口,并实现里面的getModel方法
4.获取request,session,application的方式
4.1 用ActionContext获取,实际上获取到的都是Map对象
4.2 用ServletActionContext获取,获取到的是基于Servlet API的对象
4.3 让action实现RequestAware,SessionAware,ApplicationAware接口,并实现里面的方法
5.四种转向
5.1 action转发到页面(默认)
5.2 action重定向到页面 <result type="redirect">
5.3 action转发到action <result type="chain">
<param name="actionName">login</param>
<param name="nameSpace">/login</param>
<param name="method">login</param>
</result>
5.4 action重定向到action <result type="redirectAction">login</result>

2. 求教:怎样实现图像匹配啊,最好有MATLAB源程序,急用啊

您好!

实验平台

X86 PC,Windows XP sp2, Matlab 7.1

资源的获取

图片资源来自http://vision.ece.ucsb.e/registration/satellite/testimag.html,其中每个压缩包里存有两副图片,每副图片以矩阵形式保存。

matlab工具的使用方法:查看帮助mage Processing Toolbox User's Guide——Image registration。

涉及配准方法简介

该工具箱提供的配准方法均需手工选择图像间的匹配点对(control points pair),均属于交互配准方法。其基本过程为:读入图像数据->在两副图像上选择足够匹配点->选择配准算法,计算变换参数->变换图像。

假设input image(输入图像)为欲进行配准的图像,base image为配准是的参考图像。以下是我参考matlab帮助给出了简介。

1.线性正投影(linear conformal):最简单。平面映射成平面。

当输入输入图像与参考图像对比,只是存在全局的平移、旋转、缩放或其三者组合的差别时(正方形仍对应正方形),选择此配准方法。此方法至少需要2对匹配点。

2.仿射(affine):将平行线转换成平行线。

当输入图像形状存在切变现象(正方形对应平行四边形),选此法。至少需3对匹配点。

3.投影(projective):将直线映射成直线。

如果输入图像呈现倾斜,翘起现象,选此法。至少需4对匹配点。

4.多项式(polynomial):将直线映射成曲线。

如果输入图像出现不规则曲变,采用此法。Matlab中提供有2、3、4次幂的实现,分别至少需要6,10,10对匹配点。

5.分段线性(piecewise linear)

如果输入图像的各个局部之间的退化模式明显不一样,选此法。至少需要4对匹配点。

6.局部加权平均(local weighted mean)

与分段线性一致,但效果较之好。至少需要6对(推荐12对)匹配点。

实验步骤

1.读取图像数据。

因为源图像以矩阵形式存在一个二进制的文件里,用fread可将其读取到变量矩阵中。将读取文件编制成一个子函数(RTIread.m),源代码如下:

function imMatrix=RTIread(FILENAME,SIZE)
%RTIread Read the image matrix from binary "Registration Test Image" file.
% imMatrix=RTIread(FILENAME,SIZE) opens the file FILENAME, and reads the
% number of elements specified by SIZE.
%
% FILENAME is a string containing the name of the file to be opened.
% Valid entries for SIZE are:
% N read N elements into a column vector.
% inf read to the end of the file.
% [M,N] read elements to fill an M-by-N matrix, in column order.
% N can be inf, but M can't.
%
% It returns the image matrix.
fid=fopen(FILENAME,'r');
imMatrix=fread(fid,SIZE,'uint8=>uint8');
fclose(fid);
%image(imMatrix);

这里我们选取了两张600×600的图片,文件名为“casitas84”和“casitas86”。运行以下代码读取图像矩阵:

% 1. Read the images into the MATLAB workspace.

base=RTIread('casitas84',[600,600]);

input=RTIread('casitas86',[600,600]);

2.选取匹配点(control points)。

根据预定的配准方法,选定足够的匹配点对。运行下列代码:

% 2.Specify control point pairs n the images and save.

cpselect(input,base); %please select 15 points for test.

出现GUI界面。

http://walkfarer.blog.e.cn/UploadFiles/2006-3/327845185.jpg

操作很简单,只需注意选点要均匀布开,以增加其代表性。选定完毕,File-> Save Points to Workspace将数据保存到工作区中。Workspace立刻多出两个N×2的数组(其中N为选定的匹配点对数),分别为input_points和base_points,如:

input_points =

119.5185 193.5926

168.9012 242.9753

105.9383 140.5062

459.0247 131.8642

313.3457 257.7901

292.3580 165.1975

276.3086 33.0988

283.7160 380.0123

76.3086 297.2963

135.5679 83.7160

360.2593 313.3457

94.8272 446.6790

70.1358 354.0864

181.2469 361.4938

381.2469 460.2593

252.8519 433.0988

3.利用十字相关法调整选定了的匹配点。

这步可选。运行代码:

% 3.Fine-tune the control points using cross-correlation.

input_points_corr = cpcorr(input_points,base_points,input,base); %optimism the points

input_points_corr为优化后在输入图片的对应匹配点。

4.计算变换公式的参数。

利用cp2tform,选定变换类型(即配准方法),计算变换参数。以下只需选定一种即可。

% 4.Specify the type of transformation to be used and infer its parameters

% (1) not Fine-tune points

Tlinear = cp2tform(input_points,base_points,'linear conformal');

Taffine = cp2tform(input_points,base_points,'affine');

Tprojective = cp2tform(input_points,base_points,'projective');

Tpolynomial2 = cp2tform(input_points,base_points,'polynomial',2);

Tpolynomial3 = cp2tform(input_points,base_points,'polynomial',3);

Tpolynomial4 = cp2tform(input_points,base_points,'polynomial',4);

Tpiecewise = cp2tform(input_points,base_points,'piecewise linear');

Tlwm = cp2tform(input_points,base_points,'lwm');

% (2)Fine-tune points

fTlinear = cp2tform(input_points_corr,base_points,'linear conformal');

fTaffine = cp2tform(input_points_corr,base_points,'affine');

fTprojective = cp2tform(input_points_corr,base_points,'projective');

fTpolynomial2 = cp2tform(input_points_corr,base_points,'polynomial',2);

fTpolynomial3 = cp2tform(input_points_corr,base_points,'polynomial',3);

fTpolynomial4 = cp2tform(input_points_corr,base_points,'polynomial',4);

fTpiecewise = cp2tform(input_points_corr,base_points,'piecewise linear');

fTlwm = cp2tform(input_points_corr,base_points,'lwm');

诸如Tlinear的变量为一个称为TFORM的数据结构,尚没做仔细研究:

Tlinear =

ndims_in: 2

ndims_out: 2

forward_fcn: @fwd_affine

inverse_fcn: @inv_affine

tdata: [1x1 struct]

5.变换图像。

% 5.Transform the unregistered image to bring it into alignment.

title('image registration polynomial method');

subplot(2,2,1);

imshow(base);

title('Base image');

subplot(2,2,2);

imshow(input);

title('Input image');

subplot(2,2,3);

imshow(imtransform(input,Tpolynomial2));

title('registered image');

subplot(2,2,4);

imshow(imtransform(input,fTpolynomial2));

title('registered image(fine-tune points)');

结果如下:

http://walkfarer.blog.e.cn/UploadFiles/2006-3/327783689.jpg

总结

1.image和imshow区别。前者视base,input此类二维图片矩阵为索引图像,在系统的index库中选取颜色。

2.选择适当的方法来建立转换参数,并非算法越复杂越好,应参考成像因素(退化因素)。

3.尚没有看出十字相关法的好处。

4. 利用cpselect选择匹配点,cpselect可以返回一个GUI句柄。欲实现如下功能:当打开cpselect GUI 时,m文件程序暂停运行,关闭之后继续执行。因为对GUI编程不懂, 使用了waitfor,pause函数都没法实现。尝试中……

3. 双目视觉的匹配算法是不是有好几种具体是哪几种

与普通的图像模板匹配不同的是,立体匹配是通过在两幅或多幅存在视点差异、几何畸变、灰度畸变、噪声干扰的图像对之间进行的,不存在任何标准模板进行匹配。立体匹配方法一般包含以下三个问题:(1)基元的选择,即选择适当的图像特征如点、直线、相位等作为匹配基元;(2)匹配的准则,将关于物理世界的某些固有特征表示为匹配所必须遵循的若干规则,使匹配结果能真实反映景物的本来面目;(3)算法结构,通过利用适当的数学方法设计能正确匹配所选择基元的稳定算法。

根据匹配基元的不同,立体视觉匹配算法目前主要分为三大类,即区域匹配、相位匹配和特征匹配:

基于区域灰度的匹配算法是把一幅图像(基准图)中某一点的灰度邻域作为模板,在另一幅图像(待匹配图)中搜索具有相同(或相似)灰度值分布的对应点邻域,从而实现两幅图像的匹配。这类算法的性能取决于度量算法及搜索策略的选择。另外,也必须考虑匹配窗口大小、形式的选择,大窗口对于景物中存在的遮挡或图像不光滑的情况会更多的出现误匹配,小窗口则不具有足够的灰度变化信息,不同的窗口形式对匹配信息也会有不同的影响。因此应该合理选取匹配区域的大小和形式来达到较好的匹配结果。

相位匹配是近二十年发展起来的一种匹配算法,相位作为匹配基元,即认为图像对中的对应点局部相位是一致的。最常用的相位匹配算法有相位相关法和相位差——频率法,虽然该方法是一种性能稳定、具有较强的抗辐射抗透视畸变能力、简单高效、能得到稠密视差图的特征匹配方法。但是,当局部结构存在的假设不成立时,相位匹配算法因带通输出信号的幅度太低而失去有效性,也就是通常提到的相位奇点问题,在相位奇点附近,相位信息对位置和频率的变化极为敏感,因此用这些像素所确定的相位差异来衡量匹配误差将导致极不可靠的结果。此外,相位匹配算法的收敛范围与带通滤波器的波长有关,通常要考虑相位卷绕,在用相位差进行视差计算时,由于所采用的相位只是原信号某一带通条件下的相位,故视差估计只能限制在某一限定范围之内,随视差范围的增大,其精确性会有所下降。

基于特征的图像匹配方法是目前最常用的方法之一,由于它能够将对整个图像进行的各种分析转化为对图像特征(特征点、特征曲线等)的分析的优点,从而大大减小了图像处理过程的计算量,对灰度变化、图像变形、噪音污染以及景物遮挡等都有较好的适应能力。

基于特征的匹配方法是为使匹配过程满足一定的抗噪能力且减少歧义性问题而提出来的。与基于区域的匹配方法不同,基于特征的匹配方法是有选择地匹配能表示景物自身特性的特征,通过更多地强调空间景物的结构信息来解决匹配歧义性问题。这类方法将匹配的搜索范围限制在一系列稀疏的特征上。利用特征间的距离作为度量手段,具有最小距离的特征对就是最相近的特征对,也就是匹配对。特征间的距离度量有最大最小距离、欧氏距离等。

特征点匹配算法严格意义上可以分成特征提取、特征匹配和消除不良匹配点三步。特征匹配不直接依赖于灰度,具有较强的抗干扰性。该类方法首先从待匹配的图像中提取特征,用相似性度量和一些约束条件确定几何变换,最后将该变换作用于待匹配图像。匹配中常用的特征基元有角点、边缘、轮廓、直线、颜色、纹理等。同时,特征匹配算法也同样地存在着一些不足,主要表现为:

(l)特征在图像中的稀疏性决定了特征匹配只能得到稀疏的视差场,要获得密集的视差场必须通过使用插值的过程,插值过程通常较为复杂。

(2)特征的提取和定位的准确与否直接影响特征匹配结果的精确度。

(3)由于其应用场合的局限性,特征匹配往往适用于具有特征信息显着的环境中,在缺少显着主导特征环境中该方法有很大困难。

总之,特征匹配基元包含了算法编程上的灵活性以及令人满意的统计特性。算法的许多约束条件均能清楚地应用于数据结构,而数据结构的规则性使得特征匹配非常适用于硬件设计。例如,基于线段的特征匹配算法将场景模型描绘成相互联结的边缘线段,而不是区域匹配中的平面模型,因此能很好地处理一些几何畸变问题,对对比度和明显的光照变化等相对稳定。特征匹配由于不直接依赖于灰度,计算量小,比基于区域的匹配算法速度快的多。且由于边缘特征往往出现在视差不连续的区域,特征匹配较易处理立体视觉匹配中的视差不连续问题。

4. 如何使用opencv实现图像匹配

OpenCV中有一些已经实现的匹配库。一般是先寻找特征点,然后匹配特征点。
寻找特征点一般有Harris(opencv中函数:cornerHarris),FAST(opencv中函数:FastFeatureDetector)等,匹配主要有SURF,SIFT等。可查阅OpenCV使用手册学习调用,同时Opencv也有一些例子,可参考一下。

5. 图像匹配方法有哪些

图像匹配的方法很多,一般分为两大类,一类是基于灰度匹配的方法,另一类是基于特征匹配的方法。

(1)基于灰度匹配的方法。也称作相关匹配算法,用空间二维滑动模板进行图像匹配,不同算法的区别主要体现在模板及相关准则的选择方面。

(2)基于特征匹配的方法。首先在原始图像中提取特征,然后再建立两幅图像之间特征的匹配对应关系。常用的特征匹配基元包括点、线、区域等显着特征。图像特征相比像素点数量杀过少很多,特征间的匹配度量随位置变化尖锐,容易找出准确的匹配位置,特征提取能大大减少噪声影响,对灰度变化、形变和遮挡有较强的适应力。

6. 图像匹配的匹配关键要素

同一场景在不同条件下投影所得到的二维图像会有很大的差异,这主要是由如下原因引起的:传感器噪声、成像过程中视角改变引起的图像变化、目标移动和变形、光照或者环境的改变带来的图像变化以及多种传感器的使用等。为解决上述图像畸变带来的匹配困难,人们提出了许多匹配算法,而它们都是由如下四个要素组合而成:
(1)特征空间
特征空间是由参与匹配的图像特征构成的,选择好的特征可以提高匹配性能、降低搜索空间、减小噪声等不确定性因素对匹配算法的影响。匹配过程可以使用全局特征或者局部特征以及两者的结合。
(2)相似性度量
相似性度量指用什么度量来确定待匹配特征之间的相似性,它通常定义为某种代价函数或者是距离函数的形式。经典的相似性度量包括相关函数和 Minkowski 距离,近年来人们提出了 Hausdorff 距离、互信息作为匹配度量。Hausdorff 距离对于噪声非常敏感,分数 Hausdorff 距离能处理当目标存在遮挡和出格点的情况,但计算费时;基于互信息的方法因其对于照明的改变不敏感已在医学等图像的匹配中得到了广泛应用,它也存在计算量大的问题,而且要求图像之间有较大的重叠区域。
(3)图像匹配变换类型
图像几何变换用来解决两幅图像之间的几何位置差别,它包括刚体变换、仿射变换、投影变换、多项式变换等。
(4)变换参数的搜索
搜索策略是用合适的搜索方法在搜索空间中找出平移、旋转等变换参数的最优估计,使得图像之间经过变换后的相似性最大。搜索策略有穷尽搜索、分层搜索、模拟退火算法、Powell方向加速法、动态规划法、遗传算法和神经网络等。遗传算法采用非遍历寻优搜索策略,可以保证寻优搜索的结果具有全局最优性,所需的计算量较之遍历式搜索小得很多;神经网络具有分布式存储和并行处理方式、自组织和自学习的功能以及很强的容错性和鲁棒性,因此这两种方法在图像匹配中得到了更为广泛的使用。
在成像过程中,由于噪声及遮挡等原因,导致一幅图像中的特征基元在另一幅图像中有几个候选特征基元或者无对应基元,这些都是初级视觉中的“不适定问题”,通常在正则化框架下用各种约束条件来解决。常用的约束有唯一性约束、连续性约束、相容性约束和顺序一致性约束。首先提取左右图像对中的线段,用对应线段满足的全局约束、相容性约束、邻域约束等表示 HopfieIk 神经网络的能量函数,通过最小化能量函数得到两幅图像中的对应线段,提高了匹配的可靠性。同时人们还采用最小平方中值法和投票算法等后处理来有效地消除假配点和误配点。

7. opencv关于像素点的图像匹配算法

首先,建议你将图像中感兴趣区域(比如上图中的字母)取出来进行归一化,然后在进行匹配率计算。这是因为周围环境会对匹配率产生影响。
其次,建议你将匹配率算法改成Hausdorff距离https://en.wikipedia.org/wiki/Hausdorff,这样对图像有些平移什么的都不怎么敏感了。

8. 图象匹配比值算法

自相关比值模板匹配算法

9. 图像匹配的算法

迄今为止,人们已经提出了各种各样的图像匹配算法,但从总体上讲,这些匹配算法可以分成关系结构匹配方法、结合特定理论工具的匹配方法、基于灰度信息的匹配方法、基于亚像元匹配方法、基于内容特征的匹配方法五大类型 基于内容特征的匹配首先提取反映图像重要信息的特征,而后以这些特征为模型进行匹配。局部特征有点、边缘、线条和小的区域,全局特征包括多边形和称为结构的复杂的图像内容描述。特征提取的结果是一个含有特征的表和对图像的描述,每一个特征由一组属性表示,对属性的进一步描述包括边缘的定向和弧度,边与线的长度和曲率,区域的大小等。除了局部特征的属性外,还用这些局部特征之间的关系描述全局特征,这些关系可以是几何关系,例如两个相邻的三角形之间的边,或两个边之间的距离可以是辐射度量关系,例如灰度值差别,或两个相邻区域之间的灰度值方差或拓扑关系,例如一个特征受限于另一个特征。人们一般提到的基于特征的匹配绝大多数都是指基于点、线和边缘的局部特征匹配,而具有全局特征的匹配实质上是我们上面提到的关系结构匹配方法。特征是图像内容最抽象的描述,与基于灰度的匹配方法比,特相对于几何图像和辐射影响来说更不易变化,但特征提取方法的计算代价通常较,并且需要一些自由参数和事先按照经验选取的闭值,因而不便于实时应用同时,在纹理较少的图像区域提取的特征的密度通常比较稀少,使局部特征的提 取比较困难。另外,基于特征的匹配方法的相似性度量也比较复杂,往往要以特征属性、启发式方法及闭方法的结合来确定度量方法。基于图像特征的匹配方法可以克服利用图像灰度信息进行匹配的缺点,由于图像的特征点比象素点要少很多,因而可以大大减少匹配过程的计算量同时,特征点的匹配度量值对位置的变化比较敏感,可以大大提高匹配的精确程度而且,特征点的提取过程可以减少噪声的影响,对灰度变化,图像形变以及遮挡等都有较好的适应能力。所以基于图像特征的匹配在实际中的应用越来越广-泛。所使用的特征基元有点特征明显点、角点、边缘点等、边缘线段等。

热点内容
如何设置超高难度密码 发布:2024-10-09 01:19:05 浏览:176
linux只读文件修改 发布:2024-10-09 01:13:08 浏览:82
安卓机电脑用什么检测 发布:2024-10-09 01:10:20 浏览:670
有关数据库的工作 发布:2024-10-09 00:52:12 浏览:732
代码分析算法 发布:2024-10-09 00:47:11 浏览:160
芯片写程序需要配置哪些文件 发布:2024-10-09 00:38:39 浏览:934
存储储存搬运 发布:2024-10-09 00:28:42 浏览:717
吃鸡电脑适合什么配置 发布:2024-10-09 00:18:24 浏览:229
java线程实例 发布:2024-10-09 00:05:34 浏览:193
文档放在安卓手机哪里 发布:2024-10-08 23:35:00 浏览:439