遥感科学与应用技术

基于动态极坐标参数化的遥感影像匹配方法

  • 孙嘉玉 1 ,
  • 左正康 1 ,
  • 孙逸渊 1 ,
  • SanaUllah 1 ,
  • 张瑞华 1 ,
  • 赵海盟 , 1, 2, *
展开
  • 1. 空间信息集成与3S工程应用北京市重点实验室(北京大学),北京 100871
  • 2. 桂林航天工业学院 广西高校无人机遥测重点实验室,桂林 541004;
*赵海盟(1980-),男,陕西咸阳人,高级工程师/副教授,主要从事航空航天遥感与智能化仪器研究。E-mail:

孙嘉玉(1993-),男,吉林白山人,硕士生,主要从事遥感数字图像处理、三维重建等研究。E-mail: sunjiayu@pku.edu.cn

收稿日期: 2019-02-27

  要求修回日期: 2019-05-23

  网络出版日期: 2019-10-29

基金资助

国家重点研发计划项目(2017YFB0503000)

国家自然科学基金项目(61841101)

版权

版权所有,未经授权,不得转载、摘编本刊文章,不得使用本刊的版式设计。

A Remote Sensing Image Matching Method based on Dynamic Polar Coordinate Parame-terization

  • SUN Jiayu 1 ,
  • ZUO Zhengkang 1 ,
  • SUN Yiyuan 1 ,
  • ULLAH Sana 1 ,
  • ZHANG Ruihua 1 ,
  • ZHAO Haimeng , 1, 2, *
Expand
  • 1. Space Information Integration and 3S Engineering Application Key Laboratory of Beijing, Peking University, Beijing 100871, China
  • 2. Guangxi Colleges and Universities Key Laboratory of Unmanned Aerial Vehicle (uav) Remote Sensing, Guilin University of Aerospace Technology, Guilin 541004, China
*ZHAO Haimeng, E-mail:

Received date: 2019-02-27

  Request revised date: 2019-05-23

  Online published: 2019-10-29

Supported by

National Key Research and Development Program of China(2017YFB0503000)

National Natural Science Foundation of China(61841101)

Copyright

Copyright reserved © 2019

摘要

图像匹配作为三维重建至关重要的环节,其精度直接影响了平差优化、正射校正等模块的精度。对于城镇、农场等特征密集型区域,特征距离小,相似性强,易于匹配图像;而针对草地、沙漠等特征不明显区域,特征距离大,如果使用特征点匹配的方法,严格阈值下难以获得足够数量的匹配对,放宽阈值又将引入较多误匹配对,这也是导致稀疏点云不够均匀的原因之一。在此场景下,本文提出了基于动态极坐标参数化的无人机正视影像匹配算法,首先对图像做极坐标参数变化,采用动态策略解决极轴方向采样不均匀的问题,使用最小二乘法对得到的极坐标影像对做位移方向上的匹配,匹配后得到的旋转量和平移量,将该结果和SIFT算法的结果做比较。本文设计了2组实验,即参数已知的解算实验和参数未知的解算实验,且每组实验进行3次。在同等配置的计算机上,对两张7360像素×5400像素,32位的影像,本文方法的位姿解算时间相比SIFT的时间减少约57%,二者求得的位姿差通常小于1%。结论表明二者的结果在精度上表现相当,在时间上明显优于SIFT算法,具有实际的应用价值。

本文引用格式

孙嘉玉 , 左正康 , 孙逸渊 , SanaUllah , 张瑞华 , 赵海盟 . 基于动态极坐标参数化的遥感影像匹配方法[J]. 地球信息科学学报, 2019 , 21(10) : 1586 -1593 . DOI: 10.12082/dqxxkx.2019.190081

Abstract

With the promotion of 3D reconstruction technology in various scenarios, especially in 3D reconstruction from remote sensing images, the demand for accurate 3D point clouds are becoming more and more intense. Image matching is an important procedure in 3D reconstruction, and its result directly affects the accuracy of subsequent procedures such as bundle adjustment and orthore.pngication. In feature-intensive areas such as towns and farms, the feature distance is small enough to match well. Based on high confidence, the precision of image matching is high. However, in featureless areas such as grassland and desert, the large feature distance may cause mismatch between images. If the feature point matching method is used, it is difficult to obtain correct pose under high thresholds. If a sufficient number of matching pairs is promoted, the matching pairs will contain many mismatching ones, which will cause failure to image matching, and the sparse point cloud will not be evenly distributed. In this scenario, a forward-looking image matching algorithm based on dynamic polar coordinate parameterization was presented. First, a polar transform was designed to a pair of normal images, a dynamic strategy was designed to solve the problem of uneven sampling in the polar axis direction. The obtained polar coordinate image pair was matched with the least squares method in the rotation and translation directions. After the rotation and translation parameters were calculated, we used the result to compared with the result of the SIFT algorithm. In this paper, two sets of experiments were designed to obtain poses between images: one is to use simulation datasets with known rotation and translation parameters; the other is to use true scene datasets with unknown rotation and translation parameters. In each set of the experiments, we used 3 different pair of images, and 3 different known rotation and translation parameters in the first set. With the same computer hardware, and with two images with a resolution of 7360 pixels * 5400 pixels and depth of 32 bit, the proposed method took about 57% less than the time took by the SIFT algorithm, and the rotation and translation error in the two methods was usually less than 1%. Our findings suggest that the proposed algorithm gets image poses with an accuracy similar to that of the SIFT algorithm, but its time consumption is significantly less. Our algorithm shows good practical application value.

1 引言

近年来,随着无人机的流行,测绘遥感行业逐渐进入了无人机时代[1],基于无人机影像的三维重建技术发展迅速,而其中的影像匹配环节在三维重建中起至关重要的作用。影像匹配是指在两幅图像或者多幅图像中,通过对其中一幅图像或多幅图像施加某些矩阵变换,使之找到可以“重合”的区域的过程[2]。本文将对弱特征条件下的影像匹配进行深入研究,提出一种新的影像匹配方法。
影像匹配依据的信息来源主要包括灰度直方图统计量和特征点的描述子。基于灰度相关的匹配也称为统计匹配,采用小的二维滑窗,按照一定的规则对图像扫描,对获得的结果进行匹配,算法的差异体现在滑窗的选择和匹配策略等。Yitzhaki[3]提出的基尼平均差(Gini Mean Difference)是模式识别中常用方法,该算法的思想简单,具有较高的匹配精度,广泛用于影像匹配;Barnea等[4]提出序贯相似性检测法(Sequential Similarity Detection Algorithms,SSDA),这种算法主要特点是处理速度快,但是精度低,易受噪声影响。陈宁江等[5]提出归一化灰度组合相关法(Normalized Intensity Combination, NIC),山海涛等[6]提出基于灰度区域相关的归一化灰度匹配法(Nprod)等。
基于特征点匹配的原理是,强特征点(如角点、灰度异常点等)在不同影像中具有近乎等同的空间特征,因特征点的数量占整幅图像像素点数量的极少部分,因此也称为稀疏匹配。并且特征匹配算法的时间通常比基于灰度的算法更快,通常用于实时计算特征点的场景,如人工智能(A.pngicial Intelligence, AI)、SLAM(Simultaneous Localization and Mapping)等。Smith等[7]提出SUSAN角点检测算法。Harris等[8]提出Harris角点检测算法,经验证,Harris角点能够具有旋转不变性,对噪声、亮度变换具有一定的鲁棒性。Lowe等[9]提出SIFT(Scale Invariant Feature Transform)特征点检测法,并于2004年对该算法进行了完善[10],由于SIFT算法具有很高的鲁棒性,同时对放缩、旋转等变换具有一定的不变性,因此一直是研究的热点。鉴于算法对颜色信息的缺失,Bosch等[11,12]提出HSV-SIFT算法,即在HSV颜色空间中的每一通道内进行特征点提取,再将特征点在三通道内首尾相连形成128×3维的描述子。Yan等[13]针对SIFT维数过高、匹配时间较长的问题提出通过使用主成分分析法对SIFT算法进行降维,形成了低维度的PCA-SIFT。Morel等[14]针对SIFT算法对仿射变换的敏感性,提出了具有全仿射不变性的A-SIFT(Affine SIFT)算法,提高了算法对多视角图像的匹配精度。Wang等[15]针对密集场景提出Dense-SIFT算法,杨佳宾等[16]将Dense-SIFT算法应用在无人机影像上,虽然取得了较为精确的结果,但也带来了巨大的计算量。宫阿都等[17]将小波变换和SIFT结合,实现了无控制点的无人机影像快速处理,解决了自由网平差的问题。以往研究采用的实验数据大多采用计算机视觉的公共数据集,一般为近景拍摄得到,当应用到城镇和森林等场景中尚可使用,但在草地、荒漠等场景,即使调整阈值也得不到很好的匹配效果。
本文针对遥感影像的灰度特征,设计了一种基于动态极坐标参数化的遥感影像匹配方法。在对数极坐标变换(Log-Polar Transform, LPT)的基础上,改善了极轴方向的采样密度,使极轴灰度分布均匀化,将普通影像的旋转和平移转换到极坐标影像中的极角轴和极径轴方向的差值,从而恢复出2张影像之间的位姿。实验结果表明,该方法在仿真数据和真实遥感数据恢复出相对精确的位姿,且相对SIFT具有更快的时间。

2 极坐标参数变换影像匹配流程

对遥感影像进行去畸变校正后,相邻的2张正视影像之间仅存在平移、旋转和放缩。对于平移变换,一般的特征点提取匹配算法即可处理(如ORB[18]、FAST[19]),这些算法通常有更快的速度;而对于旋转和放缩则相对复杂,特征点选择、匹配策略都需要考虑到特征点自身的旋转不变性、放缩不变性。目前较优秀的算法(如SIFT)可以做到放缩和旋转不变,但SIFT算法设计初衷是对尽可能多地应用于各种场景,因此SIFT算法模型极其复杂,而且计算资源、时间消耗也较高。
本文算法流程如图1所示。首先在把相机搭载到无人机之前,需要先使用高精度棋盘格计算相机的内参和畸变系数等,尽管相机出场时带有内参、畸变系数等参数,但其误差较大。航拍任务后,使用精确的畸变系数对遥感影像去畸变,为获取正视影像做基础。获取正视影像以后,先对图像做自适应极坐标变换(Dynamic Polar Transform, DPT),然后计算图像在极轴和极角上的方向投影,根据投影结果计算图像之间的极轴和极角变化,进而得到图像之间的旋转、平移和放缩,根据旋转、平移和放缩结果可以进行图像的拼接、稀疏点云的建立等。
图1 极坐标参数化的三维稀疏点云生成系统

Fig. 1 3D sparse point cloud generation system by polar coordinate parameterization

2.1 极坐标参数变换

在图像内建立极坐标系的方法为:在图像内选择中心像素点O作为“顶点”,从该点向右侧引出一条射线OX作为“极轴”,以右为极轴正方向,逆时针为角度正方向。对于图像内任一点A,极轴 r 表示OA的长度,极角 θ 表示OA到OX之间的夹角。用 r , θ 表示点A在该极坐标内的坐标。显然同一个点在2个坐标系中的坐标之间存在如下对应关系:
x , y r × e r × cos θ + i sin θ
对一幅图像做极坐标变换后,图像的旋转和放缩放缩在极坐标中分别表现为为沿角度方向的平移和沿极轴方向上的平移。对数极坐标变换(Log-Polar Transform,LPT)就是在极坐标变换的基础上对极轴增加对数运算,因此2个坐标系之间的对应关系转换为[20]
x , y log r × e
极坐标变换分离了图像的角度和极轴信息,但由于距离中心点越远,极轴方向相应的采样点越少,所以对极轴的对数变换使得极轴方向采样密度在一定程度上更加“均匀”。但即使对极轴方向做了简单对数变换,在圆周方向的像素点采样依然不均匀。在相同极轴长度下,距离中心点越近,采样密度越大;距离中心点越远,采样密度越小,使图像边缘区域欠采样,增加影像匹配的误差,并且匹配结果的好坏严重依赖于中心点的选取。
在固定角度分辨率下采样,随着距离中心越远,采样数越来越少,不利于匹配,因此动态极坐标变换(Dynamic Polar Transform, DPT)[15]在上述变换的基础上动态设置圆周方向的采样数,使该采样数随着极轴的增大而增多,可以让DPT在极轴方向上的不同位置得到同样数量的点。与LPT相比,DPT放大了边缘区域的信息权重而因此相对缩小了中心区域的信息权重,因此图像的边缘区域的信息也能得到有效利用[18]
对于大小为 2 R × 2 R 的图像 oldI ,经极坐标参数变换后得到新图像 newI ,二者有如下变换关系:
newI i , j = oldI R m + R i sin 2 π j n θi , R m + R i cos 2 π j n θi ( i = 1,2 , , n r ; j = 1,2 , , n θi )
式中: R m 为极坐标原点坐标; n r 为图像在极轴方向上采点数量; n θi 为图像在圆周方向上的采点数量。在极轴方向上逐像元采点,即 n r = R ,假设 R i 为极轴方向i处的坐标。令圆周方向上取点数量始终为极轴方向上坐标值的8倍,即 n θi = 8 R i

2.2 投影变换

DPT前后的图像,其旋转和放缩不变性体现在投影变换中,旋转量和平移量在投影变换前后有其不变的特性。对于大小为 2 R m × 2 R m 的直角坐标图像 oldI i , j ,进行DPT变换后的极坐标图像为 newI i , j 。任取一点,设R和 θ 分别为该点在极轴和角度轴的坐标值,有:
R i = Ω i j = 1 n θi newI i , j
θ j = i = 1 n r n ij 1 newI i , ceil j - 1 Ω i + n ij 2 newI i , ceil j Ω i
式中: i 1,2 , , n r ; j 1,2 , , n ˆ θ ; Ω i = n ˆ θ / n θi ; η ij 1 = Ω i j - 1 - floor Ω i j - 1 ; η ij 2 = 1 - η ij 1 ; n ˆ θ 表示在 R i = R max 处圆周方向的采样数;ceilx)表示大于或者等于x的最小整数;floorx)表示小于后者等于x的最大整数。
图2为将图像分别进行纯旋转、纯放缩、旋转和放缩结合变换后在极角和极轴的投影结果。折线图中不同颜色代表彩色图像的3个颜色分量,实线表示原图在不同轴上的投影,虚线表示变换后极坐标图像在不同轴上的投影。可以看出,在仅旋转的情形下,二者在极轴上的投影一致,在角度方向上的投影有一个稳定的差值;在仅放缩的情形下,二者在角度方向的投影一致,在极轴方向的投影有一个稳定的差值;对于旋转和放缩变换结合的情况,二者分别在角度、极轴方向上分别有稳定的差值。由此也可以说明图像在极坐标系下的角度因子和极轴因子是正交的,二者互不影响。
图2 图像DPT投影变换结果

Fig. 2 DPT image projection results

2.3 基于DPT的影像匹配

R M θ M 分别为图像在极坐标系下极轴和角度方向的投影。 R T = { R 1 T , , R n r T } θ T = { θ 1 T , , θ n r T } 分别为目标图像集合转换成极坐标后在极轴和角度方向的投影集合,其中 n r 为极坐标图像中特征点的数量。从目标图像特征点集中任取一元素 p Z T 1 z n r ,下同),定义 I M 为参考图像, I Z T 为目标图像, R Z T θ Z T 分别为在极轴方向和角度方向的投影。在直角坐标系有如下关系:
I Z T x , y = I M ( a Z x cos θ Z + a Z y sin θ Z , - a Z x sin θ Z + a Z y cos θ Z )
式中: a Z 表示放缩尺度; θ Z 表示角度变换量; I M 为参考图像; I Z T 为目标图像。
在极坐标系,式(6)可以简化为:
I Z T ( r , θ ) = I M ( a Z r , θ - θ Z )
式中: r θ 为极坐标下的一对正交基。
先计算放缩参数。由于放缩参数在极轴方向上表现为稳定的差值,因此根据式(5)可计算出待匹配的2张图像 I M I Z T 在极轴方向上的投影:
R M ( i ) = Ω i j = 1 n r I P M ( i , j )
R Z T ( i ) = Ω i j = 1 n θ i I P Z T ( i , j )
式中: Ω i 为归一化放缩因子; I P M ( i , j ) I P Z T ( i , j ) 分别表示参考图像和目标图像在 ( i , j ) 处的值。
由于对数函数是一个单调函数,因此对投影R取对数不影响其放缩的相对大小,但更易于计算。
L R Z T ( k ) = R n r log k log n r , k = 1,2 , · · · , n r
LR表示将投影R参数化为log形式返回的结果,两张图像的放缩变化是乘法关系,取对数后乘法关系变为加法,也即平移:
L R Z T ( ρ ) = L R M ( ρ ) + log a Z
d = log a Z ,可以得到 L R Z T ( ρ ) = L R M ( ρ - d ) 。因此,求出 L R M L R Z T 之间的平移量就可以得到放缩参数。
计算出放缩参数后,对图像做相应的放缩变换,此时2张图像之间显示为纯旋转。根据式(5)可得到两张图像在角度方向的投影,如下:
θ ˆ M = θ M a z 1 i = 1 a z η ij 1 I P M i , ceil j - 1 Ω i + η ij 2 I P M i , ceil j Ω i a z > 1
θ ˆ Z T = θ Z T a Z 1 i = 1 a z η ij 1 I P Z T i , ceil j - 1 Ω i + η ij 2 I P Z T i , ceil j Ω i a z < 1
式中: η ij 1 η ij 2 表示在 ( i , j - 1 ) ( i , j ) 处二者对角度影响的权重;ceil(x)表示大于或者等于x的最小整数。
图2可看出,在图像纯旋转时,其投影曲线在角度方向上为平移而在极轴方向上不变,因此根据2张图像之间角度方向的投影,可以求得平移量,进而求得图像的旋转参数。将投影曲线归一化[20],找其曲线之间若干极值点之间的平移量 d ˆ ,根据式(14)得到旋转量 θ Z
θ Z = 2 π d ˆ n ˆ θ
得到待拼接的2张图像的放缩和旋转参数后可以恢复位姿,拼接。2张影像 I M I Z T 的投影 θ M θ Z T 之间的相似度用欧式距离表达,可得
ϵ r = i = 1 n r [ θ ˆ Z T ( i ) - θ ˆ M ( i - d ˆ ) ] 2
找到 ϵ r 的最小值,其最小值对应的以特征点 p Z T 为中心的目标图像 I Z T 与参考图像 I M 具有相同的中心点,可以将图像位姿正确恢复。
本文使用差异率量度动态极坐标变换与SIFT算法实验结果相比的精度。假设差异度为 ϵ ,则
ϵ = | D i - S i |
式中: D i S i 分别表示第i次实验中动态极坐标变换方法得到的参数和SIFT算法得到的参数,为放缩因子、旋转角度的集合。得到的 ϵ 越小,表明动态极坐标变换得到的参数越精确[20]

3 实验及结果分析

为了验证本文方法的有效性,分别采用3组仿真数据和三组陕西榆林无人机影像数据进行实验,并与SIFT算法进行比较。其中仿真数据指选择随机角度和位移,对一张影像施加变换,将得到的另一张影像和原始影像做匹配,通过上述2种方法得到位姿信息并比较;真实影像数据指选取2张具有一定重叠度的影像,在位姿未知的条件下进行匹配,使用VC++2015 64位OS开发环境实现算法,使用配置了单核Intel I7-6700的CPU和16 G内存,存储系统为M.2 Msata接口的256G SSD进行实验分析。

3.1 仿真数据

仿真数据如图3所示,分别对原图做纯旋转和放缩变换,然后使用本文计算方法计算二者相对于原图的旋转和放缩结果。其中旋转角度和放缩因子见表1表2
图3 原图及施加变换结果图

Fig. 3 Original image and the transformed images

表1 只存在旋转时的匹配结果

Tab. 1 Matching results with rotation

操作 旋转角度/° 差异度
实际变换值 本文实验结果 SIFT实验结果
1 40 41.25 41.05 0.20
2 60 59.50 58.00 1.50
3 120 121.12 120.45 0.67
表2 只存在放缩变换的匹配结果

Tab. 2 Matching results with scaling

操作 放缩因子/倍 差异度
实际变换值 本文实验结果 SIFT实验结果
1 1.1 1.082 1.079 <0.01
2 1.2 1.124 1.163 0.04
3 0.9 0.937 0.945 <0.01
每一种变换分别做3组实验,不同实验之间的变换值不同。使用本文方法直接求得图像之间的平移、放缩和旋转,使用SIFT算法求得两张影像之间的位姿变换,再根据位姿变换恢复出平移、放缩和旋转信息。表1表2为3组实验应用本文方法和SIFT得到的旋转角度和放缩因子,可以看出本文方法得到的结果在精度方面和SIFT相当。

3.2 真实航拍数据

图4为陕西榆林无人机航拍影像数据,原始影像信息如表3所示,共有56张影像。在对图像进行畸变校正后,采用本文方法对其进行匹配实验,并与SIFT算法结果进行比较。
图4 无人机影像数据

Fig. 4 UAV image dataset

表3 无人机影像详细参数

Tab. 3 Detailed parameters of the UAV images

项目
宽度 7364像元
高度 5400像元
水平分辨率/dpi 3734
垂直分辨率/dpi 3734
位深度 24
图4所示影像中分别选择3组连续帧影像进行匹配实验。本文方法和SIFT方法的匹配结果如表4所示。本文方法通过匹配直接求得图像之间的平移、放缩和旋转参数,SIFT算法计算影像之间的位姿变换,最后根据位姿变换恢复出平移、放缩和旋转信息,再根据差异率式(16)计算放缩因子和旋转角度的精度。通过对表4进行对比分析可以看出,本文方法对同时存在旋转、放缩变换的图像能够准确匹配。
表4 3次实验的匹配结果

Tab. 4 Image matching results in the three experiments

实验记录 本文实验结果 SIFT实验结果 差异度
放缩因子/倍 旋转角度/° 放缩因子/倍 旋转角度/° 放缩因子 旋转角度
1 1.026 5.44 1.002 4.38 0.024 0.242
2 0.958 8.02 0.978 9.15 0.020 0.123
3 1.034 4.69 1.056 4.92 0.021 0.146
在前文配置条件下,本文方法和SIFT方法的时间比较如表5所示,可以看出本文方法耗时比SIFT算法耗时快57%以上。
表5 3次实验的耗时情况

Tab. 5 Time consumption in the three experiments

实验记录 本文实验耗时/s SIFT耗时/s 节约率/%
1 0.832 2.235 62.8
2 0.904 2.127 57.5
3 0.866 2.165 60.3
根据本文的方法求得的放缩因子和旋转角度,推导出影像之间的位姿信息,根据位姿信息使用开源库OpenCV对2张图像分别进行重投影,拼接结果如图5所示。从结果可看出,图像的匹配结构较好,说明获取到的放缩因子和旋转角度较准确。
图5 影像匹配结果

Fig. 5 Image matching result

4 结论

本文研究了无人机正视图像间存在旋转、放缩和平移改变情况下的影像匹配。首先,对图像进行动态极坐标变换,根据极轴和极角的正交性,图像的旋转和放缩直接体现为在极轴和极角方向上的平移;然后,计算2幅图像在极角和极轴2个方向的投影变换,得出图像之间的旋转和放缩变换参数;其次,用SIFT算法直接提取特征点并匹配,将二者的计算结果对比,并对图像进行匹配;最后,通过仿真实验和真实数据,结果表明,本文算法解算图像间旋转、放缩参数的耗时比SIFT算法节约57%,二者求得的位姿差异小于1%,具有实际的应用价值。
本方法在无人机影像的匹配方面十分有效,在草地、沙漠等弱特征场景相对SIFT的优势较大,可以弥补SIFT算法,同时本文方法对城镇影像的匹配优势并不明显。基于此,下一步研究可以将二者有机结合,在特征点稀疏的场景下使用本文方法,使用更少的时间得到准确位姿,使接下来的平差更准确,在大工程作业中有效节省时间。
[1]
廖小罕, 周成虎, 苏奋振 , 等. 无人机遥感众创时代[J]. 地球信息科学学报, 2016,18(11):1439-1447.

[ Liao X H, Zhou C H, Su F Z , et al. The mass innovation era of UAV remote sensing[J]. Journal of Geo-information Science, 2019,18(11):1439-1447. ]

[2]
郭倩茜 . 图像匹配的主要方法分析[J]. 科技创新与应用, 2016(20):81-81.

[ Guo Q Q . Analysis of main methods of image matching[J]. Technological innovation and application, 2016(20):81-81. ]

[3]
Yitzhaki, Shlomo. "Gini's mean difference: A superior measure of variability for non-normal distributions"[J]. Metron International Journal of Statistics. Springer Verlag, 2003,61(2):285-316.

[4]
Barnea D I, Silverman H F . A class of algorithms for fast digital image registration[J]. IEEE transactions on Computers, 1972,100(2):179-186.

[5]
陈宁江, 李介谷 . 用归一化灰度组合法进行图像匹配[J]. 红外与激光工程, 2000(5):1-1.

[ Chen N J, Li J G . Image matching using normalized intensity combination 2000(5):1-1. ]

[6]
山海涛, 郭建星, 耿则勋 . 影像匹配中几种相似性测度的分析[J]. 测绘信息与工程, 2003,28(4):11-13.

[ Shan H T, Guo J X, Geng Z X , et al. Analysis of several similarity measures in image matching[J]. Journal of Surveying and Mapping Information and Engineering, 2003,28(4):11-13. ]

[7]
Smith S M, Brady J M . SUSAN: A new approach to low level image processing[J]. International Journal of computer vision, 1997,23(1):45-78.

[8]
Harris, Christopher G, Stephens M. "A combined corner and edge detector."[C]. Alvey vision conference, 1988.

[9]
Lowe D G. Object recognition from local scale-invariant features[C]. ICCV. 1999,99(2):1150-1157.

[10]
Lowe D G . Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004,60(2):91-110.

[11]
Bosch A, Zisserman A, Muñoz X. Scene classification via pLSA[C]. European conference on computer vision. Springer, Berlin, Heidelberg, 2006: 517-530.

[12]
Bosch A, Zisserman A, Muñoz X . Scene classification using a hybrid generative/discriminative approach[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2008,30(4):712-727.

[13]
Yan K, Sukthankar R . PCA-SIFT: A more distinctive repre- sentation for local image descriptors[J]. IEEE Conference on Computer Vision and Pattern Recognition(2), 2004,4:506-513.

[14]
Morel, Jean-Michel, and Guoshen Yu. ASIFT: A new framework for fully affine invariant image comparison[J]. SIAM journal on imaging sciences 2. 2(2009):438-469.

[15]
Wang J G, Li J, Yau W Y, et al. Boosting dense SIFT descriptors and shape contexts of face images for gender recognition[C]. IEEE Computer Society Conference on Computer Vision and Pattern Recognition-Workshops.IEEE, 2010: 96-102.

[16]
杨佳宾, 姜永涛, 杨幸彬 , 等. 基于Dense SIFT特征的无人机影像快速拼接方法[J]. 地球信息科学学报, 2019,21(4):588-599.

[ Yang J B, Jiang Y T, Yang X B , et al. UAV image fast matching method based on Dense SIFT feature[J]. Journal of Geo-information Science, 2019,21(4):588-599. ]

[17]
宫阿都, 何孝莹, 雷添杰 , 等. 无控制点数据的无人机影像快速处理[J]. 地球信息科学学报, 2011,12(2):254-260.

[ Gong A D, He X Y, Lei T J , et al. Rapid processing of UAV images without control point data[J]. Journal of Geo-information Science, 2011,12(2):254-260. ]

[18]
Rublee E, Rabaud V, Konolige K, et al. ORB: An efficient alternative to SIFT or SURF[C]. IEEE International Conference on Computer Vision, 2011,11(1):2.

[19]
Rosten E, Drummond T. Machine learning for high-speed corner detection[C]. European conference on computer vision. Springer, Berlin, Heidelberg, 2006: 430-443.

[20]
Wolberg G, Zokai S. Robust image registration using log-polar transform[C]. Proceedings 2000 International Conference on Image Processing. IEEE, 2000,1:493-496.

文章导航

/