专栏:“遥感地理空间图谱建模与复杂场景智能解译”

制图级矢量要素遥感智能解译的研究进展与展望

  • 刘帝佑 , 1 ,
  • 孔赟珑 1 ,
  • 陈静波 , 1, * ,
  • 王晨昊 1, 2 ,
  • 孟瑜 1 ,
  • 邓利高 1, 2 ,
  • 邓毓弸 1 ,
  • 张正 1 ,
  • 宋柯 1 ,
  • 王志华 3 ,
  • 初启凤 4
展开
  • 1.中国科学院空天信息创新研究院 国家遥感应用工程技术研究中心,北京 100094
  • 2.中国科学院大学 电子电气与通信工 程学院,北京 101408
  • 3.中国科学院地理科学与资源研究所 地理信息科学与技术全国重点实验室,北京 100101
  • 4.黑龙江地理信息工程院,哈尔滨 150086
*陈静波(1984— ),男,宁夏吴忠人,副研究员,主要从事遥感图像智能解译方面的研究。E-mail:

刘帝佑(1989— ),男,广西玉林人,助理研究员,主要从事制图级遥感智能解译方面的研究。E-mail:

Copy editor: 黄光玉 , 蒋树芳

收稿日期: 2024-08-07

  修回日期: 2024-10-08

  网络出版日期: 2025-01-24

基金资助

国家重点研发计划项目(2021YFB3900503)

中国科学院空天信息创新研究院科学与颠覆性技术项目(E3Z21102)

Recent Progress and Prospects in Remote Sensing Image Intelligent Extraction of Cartographic-level Vector Elements

  • LIU Diyou , 1 ,
  • KONG Yunlong 1 ,
  • CHEN Jingbo , 1 ,
  • WANG Chenhao 1, 2 ,
  • MENG Yu 1 ,
  • DENG Ligao 1, 2 ,
  • DENG Yupeng 1 ,
  • ZHANG Zheng 1 ,
  • SONG Ke 1 ,
  • WANG Zhihua 3 ,
  • CHU Qifeng 4
Expand
  • 1. National Engineering Research Center for Geomatics, Aerospace Information Research Institute, Chinese Academy of Sciences, Beijing 100094, China
  • 2. School of Electronic, Electrical and Communication Engineering, University of Chinese Academy of Sciences, Beijing 101408, China
  • 3. State Key Laboratory of Resources and Environment Information System, Institute of Geographic Science and Natural Resources Research, Chinese Academy of Sciences, Beijing 100101, China
  • 4. Heilongjiang Geographic Information Engineering Institute, Harbin 150086, China
*CHEN Jingbo, E-mail:

Received date: 2024-08-07

  Revised date: 2024-10-08

  Online published: 2025-01-24

Supported by

National Key Research and Development Program of China(2021YFB3900503)

Science and Disruptive Technology Program, Aerospace Information Research Institute, Chinese Academy of Sciences(E3Z21102)

摘要

【意义】 制图级矢量要素提取是遥感智能解译可直接应用于真实场景的关键前提。【分析】 尽管遥感观测技术和深度学习在遥感影像解译中取得了显著进步,但生产满足业务需求的矢量要素仍依赖大量人工目视解译和人机交互后处理。【进展】 本文基于公众测绘产品生产等业务场景的实际数据需求,深入分析了大量业务场景中遥感影像解译的不同地物矢量要素的规则约束,初步定义了能够直接满足行业需求的“制图级矢量要素”。围绕该定义,从矢量类型,地物形状,边界定位,面积、长度、宽度和角度大小,拓扑约束以及邻接约束这9个维度对制图级矢量要素规则集内容进行了归纳和分析,并从类别属性、位置准确性、拓扑准确性以及综合取舍合理性4个方面梳理了制图级矢量要素的评价方法。随后,重点回顾了基于深度学习提取矢量要素的分割后处理、迭代式和并行式3类方法,分析它们的基本思路、提取矢量的特点与精度、灵活性以及计算效率等方面的优劣与异同,概括了当前面向制图级矢量要素遥感智能解译方法在制图级解译能力、制图级规则耦合以及遥感可解译性方面的不足。【展望】 最后,从构建广泛且开放的制图规则集、构建并共享制图级矢量要素样本集、发展面向多要素的制图级矢量要素提取框架、探索多模态耦合语义规则潜力等方面对制图级矢量要素智能解译的未来研究方向进行了展望。

本文引用格式

刘帝佑 , 孔赟珑 , 陈静波 , 王晨昊 , 孟瑜 , 邓利高 , 邓毓弸 , 张正 , 宋柯 , 王志华 , 初启凤 . 制图级矢量要素遥感智能解译的研究进展与展望[J]. 地球信息科学学报, 2025 , 27(2) : 285 -304 . DOI: 10.12082/dqxxkx.2024.240436

Abstract

[Significance] The extraction of Cartographic-Level Vector Elements (CLVE) is a critical prerequisite for the direct application of remote sensing image intelligent interpretation in real-world scenarios. [Analysis] In recent years, the continuous rapid advancement of remote sensing observation technology has provided a rich data foundation for fields such as natural resource surveying, monitoring, and public surveying and mapping data production. However, due to the limitations of intelligent interpretation algorithms, obtaining the necessary vector elements data for operational scenarios still heavily relies on manual visual interpretation and human-computer interactive post-processing. Although significant progress has been made in remote sensing image interpretation using deep learning techniques, producing vector data that are directly usable in operational scenarios remains a major challenge. [Progress] This paper, based on the actual data needs of operational scenarios such as public surveying and mapping data production, conducts an in-depth analysis of the rule constraints for different vector elements in remote sensing image interpretation across a wide range of operational contexts. It preliminarily defines "cartographic-level vector elements" as vector element data that complies with certain cartographic standard constraints at a specific scale. Centered on this definition, the content of the rule set for CLVE is summarized and analyzed from nine dimensions, including vector types, object shapes, boundary positioning, area, length, width, angle size, topological constraints, and adjacency constraints. Evaluation methods for CLVE are then outlined in four aspects: class attributes, positional accuracy, topological accuracy, and rationality of generalization and compromise. Subsequently, through literature collection and statistical analysis, it was observed that research on deep learning-based vector extraction, while still in its early stages, has shown a rapid upward trend year by year, indicating increasing attention in the field. The paper then systematically reviews three major methodological frameworks for deep learning-based vector extraction: semantic segmentation & post-processing, iterative methods, and parallel methods. A detailed analysis is provided on their basic principles, characteristics and accuracy of vector extraction, flexibility, and computational efficiency, highlighting their respective strengths, weaknesses, and differences. The paper also summarizes the current limitations of remote sensing intelligent interpretation methods aimed at CLVE in terms of cartographic-level interpretation capabilities, rule coupling, and remote sensing interpretability. [Prospect]Finally, future research directions for intelligent interpretation of CLVE are explored from several perspectives, including the construction of broad and open cartographic-level rule sets, the development and sharing of CLVE datasets, the advancement of multi-element CLVE extraction frameworks, and the exploration of the potential of multimodal coupled semantic rules.

1 引言

以不规则多边形或线条等矢量要素表征的地理矢量数据是地理信息存储、地学统计与分析以及GIS应用服务等领域的核心数据形式。由于矢量数据在空间实体及属性信息表达上的高准确性,以及其存储方式的简洁性和易用性,使得不管是服务于信息统计的自然资源调查监测图斑,还是服务于规划建设等公共领域的公众测绘数字线划图,大多都是矢量格式。此外,自然资源部在2023年发布的《加快测绘地理信息事业转型升级更好支撑高质量发展的意见》[1]中明确提出了“‘十四五’95%的用户使用公众测绘成果”的建设目标。因此,如何快速、准确地获取高质量矢量数据,已成为地理信息科学和相关行业发展中的关键任务,而遥感观测技术的持续快速进步,为高质量矢量数据的高效获取提供了坚实数据基础。
当前,自然资源调查监测和公众测绘数据生产等行业的矢量要素大多通过遥感影像的解译生成,解译方法主要分为2种:人工目视解译和遥感智能解译。前者由专业解译人员依据相关规则和操作经验,从超高分辨率遥感影像中手动勾绘地物的矢量要素。这种方式生产的结果具有高质量的地物类别属性、边界以及拓扑特性,并能满足相关规范要求,但其生产过程需耗费大量人力物力[2-3]。因此,借助遥感智能解译自动生成矢量要素数据成为相关领域和行业部门的研究热点[4-6]。当前主流的遥感智能解译方法依赖深度学习模型,从超高分辨率遥感图像中提取像素级地物要素[7-9],随后通过矢量化简化[10-12]以及人工干预的后处理,最终生成满足规范要求的矢量要素数据。相比于人工目视解译,这种方法在一定程度上提高了矢量要素获取的效率,但模型解译转化的矢量要素尚无法完全满足规范要求。如图1所示,图1(b)图1(c)分别展示了利用阿里云AI Earth[13]遥感AI解译通用分割模型(AIE-SEG)提取的建筑物类别结果和单独建筑物提取模型+矢量后处理的结果。图1(b)通用分割结果存在边界圆滑且不规则、实体间粘连的问题,如图1(b)红框部分。而图1(c)建筑物提取模型+矢量后处理的结果虽然能够生成较为简化的多边形,但在复杂形状建筑提取中表现不佳,如图1(c)红框部分,且尚未考虑建筑物的综合取舍优化。尽管地理信息领域已经开发了大量后处理自动算法,如多边形化简[14-15]、折线简化[16]和建筑物直角化[17]等,但这些算法主要针对矢量要素本身进行处理,无法同时对影像和矢量要素进行协同优化,从而导致后处理结果在边界吻合度上有所下降。
图1 人工目视解译与深度学习模型解译的建筑物矢量要素差异示例

Fig. 1 Examples of building interpretation through manual visual interpretation and deep learning models

图2所示,本文以遥感智能解译结果尽可能直接服务实际场景为目标,在分析大量不同业务场景对矢量要素的规则约束基础上,结合遥感智能可解译性,初步定义能够直接满足行业需求的“制图级矢量要素”,从9个维度归纳和具象化制图级矢量要素的规则集,梳理包含类别属性、位置准确性、拓扑准确性以及综合取舍合理性4个方面的制图级矢量要素评价方法。紧接着,重点回顾制图级矢量要素遥感智能解译的研究进展,概括当前方法的不足之处。最后,从制图规则集、样本集、模型方法等方面探讨未来制图级矢量要素智能解译研究的发展趋势。
图2 制图级矢量遥感智能解译的全文结构框架

Fig. 2 Structural framework of intelligent remote sensing interpretation for cartographic-level vector elements

2 制图级矢量要素的定义与质量评价方法

2.1 制图级矢量要素数据的定义

在公众测绘产品生产和自然资源调查监测等实际应用场景中,地表要素的成果数据通常以矢量数据形式呈现,是资源普查、业务统计分析以及各类地图制作的基础。尽管面向不同行业部门生产基础地物矢量要素数据的应用目的有所不同(如自然资源调查监测数据更多服务于信息统计,而测绘的数字线划数据则更多用于公共领域的规划建设),其数据要求和规范约束也存在差异,但这些数据有一些共同的特点,如:属性一致(同一类地物的矢量要素具有相同属性)、定位准确(要素矢量边界与地物真实边界吻合)、拓扑正确(不同地物实体无重叠,道路线要素保持完整性)、综合表达(最小上图单元面积和独立房屋间隔的合并约束)等。因此,针对公众测绘产品生产和自然资源调查监测等实际场景,本文将“特定比例尺下符合某种制图标准约束的矢量要素数据”统一定义为“制图级矢量要素数据”。
需要强调的是,本文所定义的制图级矢量数据并非公众测绘的最终制图成果。正如图3所示, 根据测绘行业标准《基础地理信息数字成果1:500 1:1 000 1:2 000生产技术规程第1部分:数字线划图》[18],数字线划图的生产流程主要包括内业立体测图、外业调绘与野外补测、内业入库及出版编辑等环节。本文所定义的“制图级矢量要素”主要指符合图中内业立体测图地物要素采集和内业入库编辑部分规则约束的矢量要素。
图3 数字线划图生产流程示意图

Fig. 3 Flowchart of Digital Line Graph (DLG) production process

2.2 制图级矢量要素规则约束涵盖的维度

前文提到,制图级矢量数据在属性一致性、定位准确性、拓扑正确性等方面具有一些共性特征。然而,针对特定的业务场景(如全国土地利用调查)或应用场景(如数字线划图生产),不同地物要素的规则约束往往更加复杂,既包括定性规范,也涉及定量阈值限制。为了简化庞大复杂的规则约束,强化对本文所提“制图级矢量要素”的概念理解,如表1所示,本文将制图级矢量要素的规则约束划分为九个维度,并对每个维度的内涵进行了概括。
表1 制图级矢量要素规则约束的维度划分

Tab. 1 Dimensional classification of cartographic-level rule constraints for vector elements

序号 规则约束类型 规则内涵
1 矢量类型 相应的地物要素在某种规范要求下的矢量表达类型,如点、线、面
2 地物形状 相应地物要素的形状特点,如长条形,形状自然平滑,形状规则、角度大多是直角等
3 边界定位 地物的边界是内边界还是范围线,高水位线还是低水位线等
4 面积大小 面状矢量要素的最小上图面积大小
5 长度大小 地物要素的长度约束,如林地在面积可上图条件下,当长度小于阈值时,用中心线而不用面表示
6 宽度大小 地物要素的宽度约束,如单体房屋的宽度小于阈值时,用中心线而不用面表示
7 角/弯度 地物要素的角度约束。如河流的弯度小于阈值时拉直
8 拓扑约束 地物要素的拓扑约束,如道路网没有独立线和中断线
9 邻接约束 地物要素个体与相邻要素的关系约束,如相邻要素共边要求、间距要求等
根据上述9个维度的概括,本文初步梳理了 1:10 000地形图测绘产品生产场景的制图级规则集。在梳理过程中,参考了国家标准《国家基本比例尺地图图式第2部分1:5 000、1:10 000地形图图式》[19]和《基础地理信息 1:10 000地形要素数据规范》[20]等相关标准。在国家1:10 000的地形要素约束规范中,地物要素涵盖了水系、居民地及设施、交通、管线、地貌、植被与土质等500余类。其中,部分地物要素可以通过内业遥感影像解译获取,而部分地物则需依赖外业调查加以确认,如地面支渠和高于地面支渠。本文重点探讨遥感智能解译方法中的制图级矢量要素提取,其涵盖的地物类别必须考虑遥感影像的可解译性。参考国家土地管理行业标准《第三次全国国土调查技术规程》[21]中地物要素的分类框架,本文将将1:10 000地形图的500余类地物要素分为3个层级。一级类包括耕地、园地、草地、林地、水体、建设用地、未利用地和湿地。类别从一级到三级逐步细化,具备包含关系,但不完备。其不完备性在于当前遥感影像智能解译技术无法涵盖所有地物类别;而具备包含关系则表明,随着技术的进步和规则集的不断完善,地物要素类别可以进一步扩展。因此,本文对1:10 000地形图制图标准规范中的500余类地物要素进行筛选与归并,形成了如表2所示的相关地物制图规则集。此外,考虑到人类视觉的生理分辨极限(人类视觉分辨率:0.1~0.2 mm)[22],在实际测绘数据生产场景中,确定比例尺后,遥感数据的空间分辨率将依据理论计算限定在特定区间。表2中所示的1:10 000制图规则集的示例数据来自实际场景1 m空间分辨率的遥感影像及其对应的人工目视解译结果。
表2 地形图相关地物1:10 000制图规则集

Tab. 2 Topographic map features: 1:10 000 cartographic ruleset

地物要素
名称
编号 类型 形状 边界 面积/m2 长度/m 宽度/m 角弯度 拓扑 邻接 示例
耕地 1-1 无绝对规则,大多偏向某个方向 田块内
边界
>2 500 - - - 闭合 与周边地物共
边,若是中心线路,则外延与中
心线路共边
园地 2-1 - - >2 500 - - - 闭合 -
2-2 - - <2 500 - - -
2-3 中心线 长条形 - >2 500 >50 <20 -
草地 3-1 - 范围线
边界
5 000 - - - 闭合 -
林地 乔木林
灌木林
4-1 平滑 - >2 500 - - - 闭合 -
4-2 定位点 - - <2 500 - - - -
4-3 中心线 长条形 - - - - - -
水体 河流 5-1 面、有向线 长条形
光滑
范围线
边界
- >100 >5 >50 m的
弯度拉直
闭合 密集河渠间距
不小于30 m
湖泊 5-2 光滑 高水位
外边界
400 - - - 闭合 -
水库 5-3 光滑 范围线
边界
400 - - - 闭合 -
坑塘 5-4 光滑 范围线
边界
200~400 - - - 闭合 -
建设用地 建筑物 单体房屋 6-1-1 轮廓线构面 大多直角,弧线光滑 - - >10 >7 通常无
锐角
闭合 -
6-1-2 中心线 - - - >10 <7 - - -
高层房屋 6-2 轮廓线构面 大多直角,简单点构面 - - - - - 闭合 -
建设用地 建筑物 街区 6-3 范围线构面 毗邻成片,按街道分割排列 - - - - 凹凸小于10 m可拉直 闭合 城镇街区内部可进行较大综合,房屋间距小于15 m可综合
交通运输用地 铁路 6-4 范围线构面、中心线 - 构面范围线
为铁路路基
底边线
- - - - 路网完备性 -
高速铁路 6-5 中心线 - 轨道中间 - - - - -
道路 6-6 范围线构面、中心线 - 路面几何
中心线
- - - - 与道路相邻图斑应与道路保持平行
工矿用地 露天采掘场 6-7 范围线构面 - - >1 000 - - - 闭合 -
其他 体育场 6-8 外轮廓线构面 - 有看台的,沿看台内边线和跑道内边线画轮廓线 >400 - - - 闭合 -
未利用地 盐碱地 7-1 范围线构面 平滑、自然 自然边界 >5 000 - - - 闭合 -
裸土地 7-2 范围线构面 平滑、自然 自然边界 - - - - 闭合 -
石砾地 7-3 范围线构面 平滑、自然 自然边界 >5 000 - - - 闭合 -
湿地 沼泽 8-1 范围线构面 平滑、自然 - >10 000 - - - 闭合 -
滩地 8-2 范围线构面 平滑、自然 高水界线
构面
- - - - 闭合 -

2.3 制图级矢量要素质量评价

为了评估智能解译生成的矢量要素是否满足制图级标准,需要进行质量评价。根据国家标准《测绘成果质量检查与验收》[23],测绘成果的质量控制通过两级检查(过程检查和最终检查)及一级验收实现。过程检查和内业最终检查均需进行全数检查,而最终检查中的野外检查项目则采用抽样检查的方式。传统的检查方法通常依赖人工对比矢量数据与遥感影像,通过评定各项检查指标以确定数据质量并划分质量等级。
然而,理想情况下,智能解译模型生成的结果应该能够通过自动化的方式进行质量评价,从而实现从模型训练、推理到质量评价的全流程自动化闭环。在此背景下,本文将适用于智能解译结果的质量要素与检查项归纳为4个方面:类别准确性、位置准确性、拓扑准确性及综合取舍合理性。2.2节中的每个规则约束类型都可对应质量评价中的一个方面,如图4所示。接下来将分别介绍每个方面常用的自动化评价指标与方法。需要注意的是,类别准确性、位置准确性和拓扑准确性的评估通常需要具备真实标注的矢量数据作为参考;而综合取舍合理性则可以直接基于解译结果数据进行评估。
图4 规则约束类型与质量评价的对应

Fig. 4 The correspondence between rule constraints and quality evaluation

2.3.1 类别准确性

类别准确性用于衡量智能解译模型在要素类别提取中的准确性,主要体现在提取要素的类别错误和遗漏情况上。针对面状矢量实例,常用的评价指标包括平均精度(AP)和平均精度均值(mAP)。AP用于评估单一类别的提取精度,而mAP则是在多个类别上的AP均值,是衡量模型整体分类性能的关键指标。当预测实例与真实实例的交并比(IoU)大于设定阈值且类别一致时,视为该预测实例正确。AP通过计算在不同置信度阈值下的平均精度来评估模型的表现,通常取交并比阈值从50%到95%,以5%的间隔进行计算,如式(1)所示,其中AP0.50代表交并比阈值为50%下的平均精度,其他以此类推。
A P = 1 10 A P 0.50 + A P 0.55 + + A P 0.95
由于AP依赖于IoU阈值,因此它并不能准确反映实例的位置准确性,而更侧重于类别识别的精度。
对于道路类线状矢量的类别准确性评估,通常采用像素级指标F1分数来衡量。具体方法是先将线状矢量转换为栅格图像,然后通过对比预测结果和真实标注的栅格图像,计算精确率(Precision)和召回率(Recall),并据此计算F1分数,这一分数综合考虑了提取结果的准确性和完整性。精确率、召回率、F1分数的计算如式(2)—式(4)所示。
= T P T P + F P
= T P T P + F N
F 1 = 2 × × +
式中:TP(True Positives)表示正确识别的正样本(像素)数;FP(False Positives)表示错误识别为正样本的负样本(像素)数;FN(False Negatives)表示错误识别为负样本的正样本数。精确率计算的是预测为正类的所有样本中,真正为正类的样本所占的比例。召回率计算实际为正类的样本中,被模型正确预测为正类的样本所占的比例。

2.3.2 位置准确性

位置准确性评估预测矢量结果与真实值之间的位置偏差。依据测绘行业标准《基础地理信息数字成果1:5 000、1:10 000、1:25 000、1:50 000、1:100 000第一部分:数字线划图》[24],不同比例尺的数字线划图对地物的位置误差阈值如表3所示。不同地形类型的误差容忍度存在差异,平地丘陵地的精度要求高于山地高山地。在实际应用中,可以依据影像的分辨率,将米转换为像素数,以评估模型提取结果是否符合制图精度要求。
表3 不同比例尺下位置精度误差阈值

Tab. 3 Positional accuracy error thresholds at different scales (m)

比例尺 地形类别
平地、丘陵地 山地、高山地
1:5 000 2.5 3.75
1:10 000 5.0 7.50
1:25 000 12.5 18.75
1:50 000 25.0 37.50
1:100 000 50.0 75.00
线矢量的位置差异通常通过豪斯多夫(Hausdorff)距离和平均距离来衡量。豪斯多夫距离用于测量两条折线之间的最大偏差,如图5(a)所示。
图5 2条折线之间的2种距离示意图[25]

注:L1和L2代表2条折线,d1表示从L1到L2的最短距离的最大值,d2表示从L2到L1的最短距离的最大值,S表示2条折线之间的分隔面积。

Fig. 5 Diagram of two types of distances between two polyline segments

具体来说,折线L1和L2之间的豪斯多夫距离dH定义如式(5)所示。
d H = m a x ( d 1 ,   d 2 )
式中:d1表示从L1到L2的最短距离的最大值;d2表示从L2到L1的最短距离的最大值。
平均距离是一种由McMaster[26]提出的度量方法,用于计算2条折线之间的平均偏离程度。其定义为两条折线L1和L2之间的分隔面积S与它们 平均长度之比,如图5(b)所示。平均距离dM如 式(6)所示。
d M = 2 S L 1 + L 2
闫浩文等[27]提出了一种计算曲线形状相似度的方法,通过位移、旋转和比例变换,对不同子区域内的形状相似度进行加权计算。
面矢量的位置差异通常采用PoLiS[28](Polygons and Line Segments)指标来衡量。PoLiS距离考虑了一个多边形的每个顶点到另一个多边形边界的最短距离,然后对这些距离进行平均。多边形A与B的PoLiS距离可表示为式(7)。
p ( A ,   B ) = 1 2 q a j A m i n b B a j - b + 1 2 r b k B m i n a A b k - a
式中:qr分别是多边形A和B的顶点数量;A和B分别表示多边形A和B的边界; a j为多边形A的顶点; b为多边形B边界上的点; b k为多边形B的顶点; a为多边形A边界上的点。第一项计算了多边形A的每个顶点到多边形B边界的最短距离的平均值;第二个项计算了多边形B的每个顶点到多边形A边界的最短距离的平均值。

2.3.3 拓扑准确性

拓扑准确性要求矢量要素在空间上无重叠,并且路网矢量线应保持完整性和拓扑正确性。为了评估道路线矢量中预测结果与真实值之间的拓扑相似性,常用的指标之一是平均路径长度相似性(Average Path Length Similarity, APLS)[29]。该指标通过比较预测图 G ^与真实图 G *中多个顶点对之间的最短路径差异,来衡量拓扑一致性。APLS的计算如式(8)所示。
A P L S = 1 - 1 N s i = 1 N s m i n 1 , | L ( a i , b i ) - L ( a i ' , b i ' ) | L ( a i , b i )
式中: ( a i , b i )是真实图 G *中的顶点对; ( a i ' , b i ' )是预测图 G ^中对应的顶点对;   L ( , )是计算2个顶点之间的最短路径长度; N s是顶点对数量。较高的APLS值表明预测图的拓扑结构与真实图更为相似。
此外,TOPO指标[30]也常用于评估拓扑一致性。通过随机选取实际道路中的初始节点和预测道路的最临近节点,沿道路方向和距离进行节点采样,并根据阈值计算节点匹配情况,从而综合考虑节点的缺失率与多余率。

2.3.4 综合取舍合理性

综合取舍合理性主要指在制图级别规则约束下,多个地物要素合并的合理性,以及要素的面积、长度、宽度是否符合规定的阈值。在实际应用中,综合取舍合理性评估可分为2个方面。
(1)取舍合理性:依据制图级矢量要素的规则约束,通过空间几何计算来判断要素的几何尺度是否满足面积、长度和宽度的阈值要求。
(2)综合合理性:基于邻接约束,评估要素之间的间隙是否符合规定的阈值。若间距小于阈值,则需要进行综合。依据国家标准《国家基本比例尺地图图式》第2部分[19]和第3部分[31],不同比例尺下街区的地图综合阈值如表4所示。当2个或多个房屋间距小于阈值时,应综合表示为一个街区。当街区的凹凸部分尺寸小于阈值时,采用一根直线段来简化表示凹凸部分。
表4 不同比例尺下街区的综合阈值

Tab. 4 Thresholds for generalization at different scales

比例尺 综合阈值
房屋间距阈值/m 街区凹凸部分阈值/m
1:5 000 7.5 5
1:10 000 15 10
1:25 000 5 12.5~25
1:50 000 10 25~50
1:100 000 20 50~100

3 深度学习遥感影像的矢量提取方法

深度学习矢量提取方法包括:通过深度学习模型直接生成矢量要素结果,或在深度学习模型获取的中间结果基础上进行进一步的算法设计,最终生成矢量要素结果。制图级指的是矢量提取结果需达到的标准,这是本文中提出的概念。然而,现有的矢量提取研究通常并未明确提出制图级的要求,因此这些研究的结果不一定符合制图级标准。尽管如此,这些研究方向与制图级矢量提取的目标是一致的,都致力于生成矢量结果,并为制图级标准的实现奠定了基础。因此,下文将从深度学习遥感影像矢量提取角度梳理和分析研究的趋势和现状。

3.1 深度学习遥感矢量提取研究趋势与方法框架

在文献检索过程中,主要通过以下学术资源渠道获取相关文献:Web of Science、Google Scholar、IEEE Xplore以及中国知网。检索时使用的中文关键词包括:遥感矢量提取、建筑物矢量轮廓提取、多边形化简、道路网矢量提取、拓扑、农业地块矢量化等;英文关键词包括:remote sensing vector extraction, polygonal building vector contour extraction, vectorized building outline, road network vector extraction, road network graph detection, topology, agricultural parcel vectorization。通过这些关键词及其组合进行全面检索,并筛选出与深度学习矢量提取相关的文献。截至2023年,共获取了104篇相关文献。
图6(a)展示了矢量提取方法的主题分类分布情况。其中,“建筑物”、“道路”和“耕地”分别代表在遥感领域中针对这3类地物专门设计的矢量提取方法;“其他”类则涵盖了遥感中其他类型地物及计算机视觉领域中用于通用物体轮廓提取的矢量化方法。由于建筑物和道路是遥感解译中的关键要素[32-34],且经典分割模型的结果往往难以满足制图级别的矢量要求,因此,这两类地物成为了深度学习矢量提取方法的主要研究对象。对于耕地类地物,某些场景下可以使用简单多边形描绘地块特点,类似于建筑物的方式,近年来也有部分学者开始探索其直接矢量提取方法。图6(b)则展示了相关文献的年度分布趋势。可以看出,深度学习矢量提取方法的研究仍处于起步阶段,但呈现出逐年上升的趋势,表明该领域正受到越来越多的关注。
图6 深度学习矢量提取方法文献分布

注:图(a)中数值代表文献数量/篇。

Fig. 6 Distribution of literature on deep learning vector extraction methods

分析相关论文的方法发现,深度学习在遥感影像中的矢量提取方法主要可以分为3大类:分割后处理、迭代式方法和并行式方法,如图7所示。
图7 深度学习遥感影像矢量要素提取方法的梳理框架

Fig. 7 Overview of deep learning methods for extracting vector elements from remote sensing images

由于深度学习语义分割技术在遥感地物提取中的显著效果[35-37],最为直接的方法是分割后处理,即通过后处算法将分割结果转换为矢量数据。然而,由于遥感影像的复杂性,这种方法常常会面临拓扑错误、几何失真以及矢量数据与影像不对齐等问题,限制了其在高精度矢量提取中的应用。
为了解决上述问题,研究人员进一步提出模型直接学习并提取矢量的方法。矢量提取的对象通常包括面矢量(如建筑物、耕地)和线矢量(如道路),这些矢量对象由点和边构成的。一般而言,面矢量多边形中的点被称为顶点,而线矢量中的点则称为节点[38]。基于对矢量点和边的预测,直接矢量提取方法可以进一步细分为迭代式和并行式两类。迭代式方法的核心思想是通过多步迭代过程逐步预测每个矢量点的位置,每一步仅预测下一个点,进而构建完整的矢量形态。相较之下,并行式方法则在单次预测中同时生成所有矢量点和边,从而显著提升了计算效率。

3.2 分割后处理的矢量要素提取方法

基于分割后处理的方法,首先通过深度学习模型对遥感影像进行像素级分割,得到目标地物的二值或多类分割结果。随后,对分割结果进行后处理,以提取矢量化的地物边界或形状。
对于面矢量提取,处理流程通常包括以下步骤:首先从分割掩膜中提取各连通区域的轮廓,作为初始面矢量,接着,使用多边形简化和规则化算法进行处理。Zhao等[39]采用Mask R-CNN[40]对建筑物实例进行分割,得到初始建筑轮廓。然后,使用Douglas-Peucker算法[41]简化初始复杂多边形,以减少顶点数量。最后,通过最小描述长度优化[42]进一步细化简化后的多边形,提升其几何精度。Wei等[43]采用一种多尺度的全卷积网络(FCN)[44]进行建筑物分割,设计了一种包含粗略和精细调整的多边形优化策略。ASIP[45]方法则通过语义分割生成类别概率图,并结合图像的过度分割操作,将凸多边形单元进行拆分和合并,兼顾输入数据保真度和输出矢量复杂度,从而提高了矢量提取结果的精度。
对于道路线矢量提取,一般步骤为:先通过形态学细化技术对道路分割结果进行处理,生成单像素宽的路网骨架,进而提取道路中心线。然后,采用后处理连接算法,将骨架转化为连续的道路网络。在此过程中,需解决道路断点和分支,确保路网的连通性和完整性。Batra等[46]提出了一种基于方向学习的连接性任务,设计了堆叠多分支卷积模块,有效利用方向学习与分割任务之间的互信息,并提出连接性细化方法进一步增强道路网络连接性。Cheng等[47]提出了一种级联卷积神经网络,同时提取道路及其中心线的概率图,并通过细化处理生成准确的道路中心线。而Máttyus等[48]提出的DeepRoadMapper方法,在后处理连接阶段采用了最短路径连接策略,以弥合破碎的路网。
尽管基于分割后处理的方法在矢量提取中较为常用,但其结果很大程度上依赖于分割模型的性能,当分割掩码的边界精度不足时,难以生成准确的矢量结果。对于面矢量提取,由于缺乏多边形顶点信息的监督,后处理生成的多边形与实际地物的贴合度较差,容易出现顶点冗余或缺失。对于道路线矢量提取,此类方法较少考虑路网结构的拓扑信息,因而其拓扑准确性往往较低。

3.3 迭代式矢量要素直接提取方法

迭代式方法将矢量图形的生成过程分解为多个步骤,每次仅生成一个新的矢量点位置,并通过将前后生成的点连接形成边(图8)。例如,RoadTracer[49]采用基于卷积神经网络(CNN)的决策函数,引导迭代搜索过程,从网络输出推导出道路网络结构。RNGDet[50]和RNGDet++[5]使用 transformer 网络预测道路线上下一个节点的位置,逐次输入分割图及图结构信息的局部区域。PolygonRNN[51]通过输入物体实例影像,利用循环神经网络(RNN)[52]迭代预测物体轮廓的多边形顶点图。Li等[53]进一步引入目标检测模块,使用ConvLSTM[54]在固定大小的检测框内迭代预测顶点,实现了自动从完整影像中提取所有建筑物的多边形。
图8 迭代式道路中心线提取示意图

Fig. 8 Schematic diagram of iterative road centerline extraction

迭代式方法的优势在于其灵活性,能够提取任意形状和复杂拓扑结构,不受矢量点数量的限制,特别适用于拓扑结构复杂的场景。然而,该类方法也面临一些局限,如计算效率低,以及随着迭代次数增加可能产生误差累积过大等问题。

3.4 并行式矢量要素直接提取方法

并行式方法通过在单次预测中同时生成所有矢量点或边,大幅度提升了矢量提取的计算效率。这类方法能够在较短的时间内完成复杂地物的矢量化过程,利用并行处理减少逐步生成所导致的延迟。
对于面矢量的提取,常用的顶点或边预测方式主要有2种:基于像素和基于轮廓的方式。基于像素的方式将多边形的顶点或边表征为栅格图,并通过监督学习来训练模型。通过预测顶点置信图,提取局部极大值点作为候选顶点,并将这些顶点连接形成边(图9基于像素的流程)。例如,PolyWorld[55]利用注意力图神经网络预测顶点间的邻接矩阵,并通过 Sinkhorn[56]算法确定顶点间的边连接关系。HiSup[57]则结合顶点置信图、区域吸引场[58]和分割掩膜三层信息对神经网络进行监督训练,随后设计算法根据预测的掩膜轮廓引导顶点连接。SAMPolyBuild[59]将分割一切模型(SAM[60])应用于建筑物矢量提取,展现了较好的泛化性能,在SAM解码器中引入额外的顶点与边界学习任务,提升了提取结果的边缘精度。针对耕地地块提取,Pan等[61]通过联合预测区域、边界和地块对象,增强了地块的对象可分离性和边界连通性,并设计了基于边界图和分割图的边界-对象交互矢量化方法来完成矢量提取。
图9 并行式建筑物矢量提取流程示意图

Fig. 9 Schematic diagram of parallel building vector extraction process

基于轮廓的方式直接预测或迭代更新矢量轮廓上的所有顶点坐标序列(图9基于轮廓的流程)。由于这些顶点默认按顺序排列,因此无需再进行额外的顶点连接操作。早期的基于轮廓方法多半为半自动化,即需要先确定实例的范围,然后将单实例区域的图像输入网络,预测出该实例的轮廓矢量。Ling等[62]利用图卷积网络(GCN)[63],从椭圆初始轮廓开始,预测每个顶点坐标的局部偏移量,经过三次迭代后生成最终的矢量多边形。此外,一些研究将深度学习模型与主动轮廓模型[64](ACM)相结合进行矢量提取[65-66]。如陈换新等利用GVF Snake模型进行了面状水域的矢量化提取[67]。然而,以上方法由于固定了预测的轮廓顶点数,难以适应实际多边形顶点数灵活多变的特性。为了解决这一问题,BuildMapper[4]实现了建筑物多边形的全自动提取,通过检测建筑物的中心点并回归初始轮廓,然后通过设计轮廓演化模块筛选多余顶点并优化顶点位置。为了克服前文提及轮廓方法中结果过于平滑的缺点,该方法采用了一种动态匹配损失,使预测点与角点匹配,从而优化轮廓点的坐标精度。E2EVAP[6]则将类似的思路应用于耕地地块(smallholder agricultural parcel)的提取,增加入了语义-轮廓交互模块和拓扑损失,减少了地块之间相互遮盖带来的拓扑错误。
线矢量的提取相比面矢量更加注重节点之间边连接的准确性,而对节点具体位置的要求没有面状地物那么敏感。面状地物的多边形顶点通常位于影像中的明显角点,位置明确;而道路中心线上的节点在径向和垂向上可能存在一定的不确定性。因此,线矢量的提取方法更加关注道路的连通性。Sat2graph[68]提出了一种图张量编码方法,针对每个像元点进行编码,以表示其是否为节点及其边的方向信息,然后通过解码得到道路网络的矢量图。然而,该方法存在2个不足: ① 相似情况的图张量编码可能不一致; ② 该方法不适用于处理弧形道路。为改进上述不足,TD-Road[69]提出了一种不依赖边方向信息的道路网络图提取方法,包含2个子任务:关键点预测与节点对连通性预测。对于每个关键点,该方法在其周围一定距离内考虑其他点,并将其与关键点构成节点对,随后将节点对的特征输入关系判别网络,以预测是否存在边连接。RelationFormer[70]采用了与TD-Road类似的思路,通过改进DETR[71]模型,实现了节点及节点对之间关系的同时检测。然而,由于RelationFormer只能在小尺寸切片图像中提取节点关系,导致在大尺寸图像拼接时,路网的拓扑结构较差,提取效果不理想。TERNformer[72]则提出了并行深度可分离膨胀卷积模块(DSDBs)和最小生成树的局部结构探索模块(LSEB),以增强道路网络的拓扑结构。同时,还采用了一种基于最短路径的简易优化方法,进一步提升局部连通性。
此外,还有一些研究工作尝试将线矢量与面矢量进行统一处理。PrimitiveGraph[73]提出了将道路和建筑物矢量化任务统一处理框架,能够应对不同类型的几何图元,其中道路的图元为节点,建筑物图元则被表示为线段。其提取过程分为三个阶段:首先提取图元,其次优化图元的位置和方向,最后构建图元间的关系矩阵。该方法通过强制网络预测的角度矩阵和线段成对关系矩阵之间的一致性,从而实现对图形形状的规则化学习。TopDiG[74]则进一步将面矢量和线矢量统一建模为有向图,支持建筑物、水体(面矢量)以及道路(线矢量)的同时提取。该方法还在PolyWorld[55]的基础上进行了改进,采用了一种拓扑集中的节点检测模块,提出了动态图监督策略,从无序节点中动态生成邻接图标签,用以增强拓扑结构的准确性。
综上所述,线矢量提取方法侧重于节点间边连接的精确预测,而面矢量提取方法则在顶点预测上表现出多样化的策略。随着技术的不断进度,统一处理线与面矢量提取的研究逐渐成为趋势,这不仅提高了方法的通用性,也提升了矢量提取的效率。

4 制图级矢量要素遥感智能解译技术的不足

深度学习为代表的人工智能技术已成为实现制图级矢量要素提取的关键手段,同时也是遥感智能解译结果直接服务于行业应用的突破方向。然而,尽管深度学习技术在该领域展现出巨大潜力,其在制图级矢量要素提取的应用中仍面临诸多理论和技术层面的挑战。

4.1 深度学习模型提取制图级矢量要素的能力不足

前述可见,遥感影像矢量要素的提取并非近期才开始的研究方向,但近年来逐渐成为研究热点,这与矢量格式地物要素更能满足大多数场景的数据需求密切相关。然而,当前主流的深度学习模型其制图级矢量要素提取能力不足,具体而言:① 缺乏明确的制图级定义是导致模型提取能力不足的潜在原因。制图级这一概念与应用场景紧密相关,然而在定义上较为模糊。例如,在全国土地利用调查场景中,道路要素通常为面类型[21],而在地形图制图中,道路要素则表现为中心线[20]。由于地物要素缺乏清晰简明的制图级标准,导致在样本制作和模型设计过程中难以进行针对性设计,提取出的要素往往只是普通的矢量数据[39],甚至可能仅为语义分割模型输出的栅格结果[75]; ② 算法设计未充分考虑制图级规则。尽管清晰简明的制图级规范尚未形成统一标准,但某些地类的共性基础规范已相对明确。例如,不论是面类型或线类型的道路网,其在不同场景的制图标准规范中均应满足拓扑完整性约束。然而,由于影像质量或者季节变化等因素的影响,提取的道路要素常因被周边地物遮挡而出现不完整的现象[46],这在模型解译的道路要素结果中普遍存在。尽管诸如TD-Road[69]等模型通过增加连通性预测来改进道路提取,但对遮挡问题的解决仍然有限。同样地,对于建筑物要素,不同场景的制图标准规范对建筑物的细分要求存在差异,如对不同建筑物提取的精细程度有差异,对不同比例尺下建筑物的综合要求各不相同,但在建筑物的具体矢量化表示上,仍有有一些基本共性要求,如建筑物应表达为简单多边形,多边形的角度多为直角,高层建筑物应表征其座落。此外,第三次全国国土调查技术规程中也对要素图斑提出了明确要求,例如图斑的平均顶点密度应控制在1~70 m之间,且满足“面积/周长>0.2”的约束[21]。然而,现有基于像素的预测方法虽能生成顶点,但对顶点密集度和边夹角的约束不足[57];基于轮廓的方法亦未能对边夹角进行约束[4]。因此,当前的建筑物矢量提取研究尚未满足这些基本的共性约束,与实现制图级矢量提取仍有较大差距。

4.2 深度学习模型耦合制图级规则约束的能力不足

在实际业务场景中,人机交互的后处理仍然是实现制图级矢量要素不可或缺的技术手段。当前深度学习模型在耦合制图级规则约束方面的能力不足,成为主要问题。为了尽可能减少通过人工干预实施制图级规则约束,已有研究尝试从多个方面部分解决制图级约束的自适应问题。例如,一些研究设计了针对性的矢量要素后处理算法,或将要素形状约束耦合到深度学习模型的损失函数中[55,73]。另外,一些GIS商业软件或开源资源也提供了有效的后处理功能,如ArcGIS的建筑物规则化工具[17],该工具可以对模型提取的建筑物矢量多边形进行基于阈值的规则化,从而得到多数为直角的建筑物矢量。然而,这类后处理算法仅作用于待优化的矢量本身,其优化过程未考虑影像中的实际情况,可能导致优化后的结果反而偏离了实际地物,甚至完全不符合地物的实际边界[41]。在深度学习模型中增加特定处理模块,如强化多边形边界吻合度的条件随机场后处理模块[76],或设计针对轮廓规则优化的边界损失函数[77],亦或设计提示模型实现人工交互式修改不准确的边界[59],这些探索确实在一定程度上促使解译的矢量逼近制图级标准。然而,是否能有效耦合更多维度的约束,如不同地物间的拓扑约束、特定比例尺下的长度、宽度、角度约束,以及耦合更为复杂的非定量约束,仍然是一个严峻的挑战。

4.3 深度学习模型遥感智能可解译能力不足

矢量要素是人类根据对地表空间功能的认知而抽象出的对象,尤其是建筑物、耕地等地物,这些要素并不完全与物理世界中的实际物体重叠[78]。遥感探测依据物理世界的光谱信息,其对地物实体的表达与抽象的矢量要素存在差异。因此,某些业务场景规范中的地物类别,仅依赖当前的遥感影像智能解译技术难以实现。这些地物类别通常有以下特点: ① 包含利用属性的语义综合体(如学校、医院、风景名胜设施用地); ② 目标过小(如塑像、围墙、栅栏); ③ 位于立体空间(如高于地上干渠、涵洞)。对于第①种特点的地物类别,通过显著特征识别或结合其他数据源可以进行初步定位,但往往难以准确获取其边界。例如,通过识别操场等显著特征[79],可以初步判断周边可能是学校,但也可能是体育活动场所。结合社交媒体数据[80]、热红外数据[81]等其他数据源,可能帮助识别其利用特性,如学校、商场或工业用地。对于目标过小的地物类别,可能并不适合具有天然大尺度优势的遥感应用。虽然使用比亚米级更高分辨率的影像可能识别较小的地物,但成本过高。对于第③种特点的地物,需要借助高程数据或更强的逻辑推理能力来进行识别。总体而言,具有上述3种特点的地物类型在遥感智能解译中难以识别,目前的遥感智能解译技术更擅长处理可见即所得的覆盖属性地物。

5 制图级矢量要素的智能解译研究展望

探索遥感智能模型直接解译制图级矢量要素将是遥感解译领域的重要发展趋势。针对当前智能模型在制图级矢量提取方面存在的不足,可从规则集、样本集、方法等方面进行深入探索。
(1)构建广泛且开放的制图级规则集。制图级是一个与应用场景密切相关但又不够具体的概念。不同应用场景具有各自相应的矢量要素制图标准规范,且这些规范对地物要素的矢量化规范约束极为丰富。然而,现有标准规范中大部分内容不仅限于矢量数据生产,还包括诸如影像数据源、数据分幅、数学基础、文件命名、地名等方面的内容。从“制图级矢量要素”的定义出发,服务于矢量要素遥感智能解译的规则集应当是应用场景标准规范的再梳理与简化。为此,需要遥感智能解译、地图学、自然资源和测绘等相关领域学者进一步拓展和完善制图级矢量要素的内涵及相应的制图级规则集。拓展完善并共享制图级规则集是推动制图级矢量要素遥感智能提取的重要基础,有助于引领相关研究的突破方向。
(2)构建并共享制图级矢量要素样本集。遥感影像解译是一个活跃的研究方向,而样本数据是模型构建的关键前提。尽管许多相关领域的研究已公开发布了针对不同任务的样本数据集,这些样本集大多以影像对形式存在,即包含遥感影像及其对应的栅格样本标签。近年来,也有研究陆续公布了影像和矢量的样本数据集,但这些样本集尚未达到制图级。因此,基于这些数据构建制图级矢量要素提取的遥感智能解译模型仍然非常困难。为此,需要以制图级规则集为基础,构建并共享更多制图级的矢量要素样本集,从而有效促进遥感智能解译模型在制图级矢量要素提取能力方面的提升。
(3)发展面向多要素的制图级矢量提取框架。虽然在深度学习模型中通过设计特定模块或损失函数来耦合某些定量制图规则已显示出一定的可行性,但当前研究中耦合的规则仍比较初级,且通常针对的地物要素类型较为单一(如建筑物、道路)。因此,需要探索适用于多种地物要素的通用深度学习框架,并深入研究与之耦合的制图级规则的可能性。例如,TopDiG[74]已能够同时支持建筑物、水体(面矢量)和道路的提取,但其提取的建筑物轮廓点较为密集,尚未达到简化多边形形状的要求。鉴于不同地物的规则约束存在差异,可能还需要研究分类分层的制图级提取策略,以实现更为精细的矢量提取。
(4)探索多模态模型耦合语义规则的潜力。矢量要素的制图级约束中既包括定量要求,也有许多定性的语言描述。例如,在地形图制图的标准规范中,若耕地邻接地物为道路,则需要将耕地边界外延与道路中心线共边。将非定量的规则约束与深度学习框架进行有效耦合是降低人工介入的关键难题。王志华等[82]提出了地学知识图谱的构想,探索知识与遥感解译算法的协同。此外,以Transformer为基础的大模型近年来取得显著进展,在多模态模型领域取得了突破性进展,极大推动了遥感领域图文模型的发展。例如,RSVG[83]在构建大规模遥感视觉定向数据集的基础上,设计了transformer-based的跨模态学习框架,实现了通过自然语言识别和定位遥感影像上的地物对象(图10)。通过图文模型框架,能否耦合文字描述的制图规则?此外,大量历史成果数据中蕴含丰富的定量和非定量制图级规则,借鉴多模态模型框架,是否可以将制图级矢量成果作为一种模态,从而构建制图级矢量要素的直接提取遥感多模态智能解译模型?再有,借助垂直领域快速发展的大模型,如中国科学院地理科学与资源研究所牵头研发的“坤元”大模型,其通过学习地理科学领域的文献、著作、标准规范、专题地图、专业图表等,具备“懂地理”、“智生图”的特点,为耦合制图规则实现制图级矢量要素生产提供了新可能[84]
图10 遥感影像的多模态视觉定位方法流程示意图[83]

Fig. 10 Illustration of the task and approach of Remote Sensing Visual Grounding (RSVG) [83]

6 结论

利用智能解译技术从遥感影像中自动提取能够直接满足业务场景需求的“制图级矢量要素”是实现遥感智能解译业务化应用的关键突破口。本文首先根据遥感智能解译应用的实际场景需求和国家建设目标,明确了“制图级矢量要素”的概念,并从九个维度对规则约束进行了具体分析,以界定遥感智能解译在制图级矢量要素提取中的需求边界。在此基础上,系统梳理了制图级矢量要素的评价方法,回顾了当前遥感智能解译领域的研究现状,总结了现存的不足之处。最后,从制图规则集、样本集以及模型方法等多个方面展望了制图级矢量要素遥感智能解译研究的未来发展方向。
需要指出的是,本文对“制图级”概念的论述和讨论主要集中于人工地物要素,而对自然地物要素的制图级规则约束分析与举例相对较少,这与两者的固有特性密切相关。制图规则约束本质上是人类在地表空间功能抽象过程中赋予的规范,人工地物由于其设计与功能特性,往往承载了更多的人为规则约束,而自然地物的规则则相对较为宽泛。对于自然地物的制图级矢量提取,其难点主要体现在边界的界定上,特别是自然地物的混合性与渐变特性,这需要相关领域的学者进一步深入研究与提炼。尽管如此,探索制图级矢量要素的遥感智能解译方法,实现遥感智能解译结果对真实应用场景的直接服务,依然是一个具有重要意义且前景广阔的研究方向。然而,鉴于该领域的复杂性,相关研究者和业务管理者应保持理性预期。尽管遥感智能解译结果精准契合真实业务场景的数据需求是这一领域的终极目标,但受限于认知水平和技术方法,这一目标在短期内可能难以完全实现或彻底突破。即便如此,该目标仍可为相关研究提供重要指导,引导遥感 解译向着自动化、智能化的方向逐步发展,以持续满足真实业务场景的数据需求,并不断逼近最终目标。
利益冲突: Conflicts of Interest
所有作者声明不存在利益冲突。
All authors disclose no relevant conflicts of interest.
作者贡献: Author Contributions
刘帝佑、孔赟珑、陈静波和王晨昊参与论文构思与撰写;孟瑜、邓利高、邓毓弸、张正、宋柯、王志华和初启凤参与论文的修改。所有作者均阅读并同意最终稿件的提交。
The study was designed and drafted by LIU Diyou, KONG Yunlong, CHEN Jingbo and WANG Chenhao. The manuscript was revised by MENG Yu, DENG Ligao, DENG Yupeng, ZHANG Zheng, WANG Zhihua and CHU Qifeng. All the authors have read the last version of paper and consented for submission.
[1]
王安. 自然资源部关于加快测绘地理信息事业转型升级更好支撑高质量发展的意见_国务院部门文件_中国政府网[EB/OL]. [2024-09-02]. https://www.gov.cn/zhengce/zhengceku/202308/content_6899855.htm

[ Wang A. Opinions of the Ministry of Natural Resources on Accelerating the Transformation and Upgrading of the Surveying and Mapping Geographic Information Industry to Better Support High-Quality Development[EB/OL]. [2024-09-02]. https://www.gov.cn/zhengce/zhengceku/202308/content_6899855.htm

[2]
刘锟, 杨晓梅, 张涛. 前期土地覆被数据辅助下的分类样本自动选取[J]. 地球信息科学学报, 2012, 14(4):507-513.

DOI

[ Liu K, Yang X M, Zhang T. Automatic selection of classified samples with the help of previous land cover data[J]. Journal of Geo-Information Science, 2012, 14(4):507-513. ] DOI:10.3724/SP.J.1047.2012.00507

[3]
Yang Y, Chen T, Li J. SRNet: Siamese residual network for remote sensing change detection[C]// IGARSS 2023-2023 IEEE International Geoscience and Remote Sensing Symposium. IEEE, 2023:6644-6647. DOI:10.1109/IGARSS52108.2023.10283340

[4]
Wei S Q, Zhang T, Ji S P, et al. BuildMapper: A fully learnable framework for vectorized building contour extraction[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2023, 197:87-104. DOI:10.1016/j.isprsjprs.2023.01.015

[5]
Xu Z H, Liu Y X, Sun Y X, et al. RNGDet: Road network graph detection by transformer with instance segmentation and multi-scale features enhancement[J]. IEEE Robotics and Automation Letters, 2023, 8(5):2991-2998. DOI:10.1109/LRA.2023.3264723

[6]
Pan Y, Wang X Y, Zhang L P, et al. E2EVAP: End-to-end vectorization of smallholder agricultural parcel boundaries from high-resolution remote sensing imagery[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2023, 203:246-264. DOI:10.1016/j.isprsjprs.2023.08.001

[7]
Kaiser P, Wegner J D, Lucchi A, et al. Learning aerial image segmentation from online maps[J]. IEEE Transactions on Geoscience and Remote Sensing, 2017, 55(11):6054-6068. DOI:10.1109/TGRS.2017.2719738

[8]
Xu R T, Wang C W, Zhang J G, et al. RSSFormer: Foreground saliency enhancement for remote sensing land-cover segmentation[J]. IEEE Transactions on Image Processing, 2023, 32:1052-1064. DOI:10.1109/TIP.2023.3238648

[9]
刘宇鑫, 孟瑜, 邓毓弸, 等. 融合CNN与Transformer的高分辨率遥感影像建筑物双流提取模型[J/OL]. 遥感学报, 2024.

[ Liu Y X, Meng Y, Deng Y P, et al. Integration of CNN and Transformer for High-Resolution Remote Sensing Image Building Extraction: A Dual-Stream Network[J/OL]. National Remote Sensing Bulletin, 2024. ] DOI:10.11834/jrs.20243307

[10]
王辉连, 武芳, 张琳琳, 等. 数学形态学和模式识别在建筑物多边形化简中的应用[J]. 测绘学报, 2005, 34(3):269-276.

[ Wang H L, Wu F, Zhang L L, et al. The application of mathematical morphology and pattern recognition to building polygon simplification[J]. Acta Geodaetica et Cartographica Sinica, 2005, 34(3):269-276. ] DOI:10.3321/j.issn:1001-1595.2005.03.015

[11]
黄万里, 戴文远, 余珊. 基于面积保持的Douglas-Peucker改进算法的多边形化简[J]. 科学技术与工程, 2009, 9(24):7325-7328.

[ Huang W L, Dai W Y, Yu S. Using modified Douglas-peucher algorithm based on area preservation to simplify polygons[J]. Science Technology and Engineering, 2009, 9(24):7325-7328. ] DOI:10.3969/j.issn.1671-1815.2009.24.010

[12]
刘鹏程, 艾廷华, 胡晋山, 等. 基于原型模板形状匹配的建筑多边形化简[J]. 武汉大学学报(信息科学版), 2010, 35(11):1369-1372.

[ Liu P C, Ai T H, Hu J S, et al. Building-polygon simplification based on shape matching of prototype template[J]. Geomatics and Information Science of Wuhan University, 2010, 35(11):1369-1372. ] DOI:10.13203/j.whugis2010.11.012

[13]
AI Earth[EB/OL]. [2024-09-02]. https://engine-aiearth.aliyun.com/#/portal/analysis

[14]
Haunert J H, Wolff A. Optimal and topologically safe simplification of building footprints[C]// Proceedings of the 18th SIGSPATIAL International Conference on Advances in Geographic Information Systems. ACM, 2010:192-201. DOI:10.1145/1869790.1869819

[15]
李俐俐, 李成名, 卢小平, 等. 顾及邻近五点的建筑物多边形化简方法[J]. 测绘通报, 2019(3):41-45.

DOI

[ Li L L, Li C M, Lu X P, et al. Simplification of building polygon based on adjacent five-point method[J]. Bulletin of Surveying and Mapping, 2019(3):41-45. ] DOI:10.13474/j.cnki.11-2246.2019.0075

[16]
Dyken C, Dæhlen M, Sevaldrud T. Simultaneous curve simplification[J]. Journal of Geographical Systems, 2009, 11(3):273-289. DOI:10.1007/s10109-009-0078-8

[17]
Gribov A. Optimal compression of a polyline while aligning to preferred directions[C]// 2019 International Conference on Document Analysis and Recognition Workshops (ICDARW). IEEE, 2019:98-102. DOI:10.1109/ICDARW.2019.00022

[18]
国家测绘地理信息局. 基础地理信息数字成果 1:500 1:1000 1:2 000生产技术规程第1部分:数字线划图: CH/T 9020.1—2013[S]. 北京: 测绘出版社, 2014.

[State Bureau of Surveying and Mapping: CH/T 9020.1—2013[S]. Beijing: Sino Maps Press, 2014. ]

[19]
国家质量监督检验检疫总局、 中国国家标准化管理委员会. 国家基本比例尺地图图式第2部分:1:5 000 1:10 000 地形图图式: GB/T 20257.2-2017[S]. 北京: 中国标准出版社, 2017.

[ Standardization Administration of the People’s Republic of China. Cartographic symbols for national fundamental scale maps -- Part 2: Specifications for cartographic symbols 1:5000 & 1:10000 topographic maps: GB/T 20257.2-2017[S]. Beijing: Standards Press of China, 2017. ]

[20]
国家质量监督检验检疫总局, 中国国家标准化管理委员会. 基础地理信息 1:10 000地形要素数据规范: GB/T 33462-2016[S]. 北京: 中国标准出版社, 2016.

[ General Administration of Quality Supervision, Inspection and Quarantine of the People's Republic of China, Standardization Administration of the People’s Republic of China. Fundamental geographic information-Specifications for 1∶10 000 topographic data: GB/T 33462-2016[S]. Beijing: Standards Press of China, 2016. ]

[21]
中华人民共和国自然资源部. 第三次全国国土调查技术规程: TD/T1055-2019[S]. 北京: 地质出版社, 2019.

[ Ministry of Natural Resources, People's Republic of China. Technical regulation of the third nationwide land and resources survey: TD/T1055-2019[S]. Beijing: Geology Press, 2019. ]

[22]
龚明劼, 张鹰, 张芸. 卫星遥感制图最佳影像空间分辨率与地图比例尺关系探讨[J]. 测绘科学, 2009, 34(4):232-233,60.

[ Gong M J, Zhang Y, Zhang Y. The discussion of the relation between the scale and the best spatial resolution in making cartographies with RS[J]. Science of Surveying and Mapping, 2009, 34(4):232-233,60. ] DOI:CNKI:SUN:CHKD.0.2009-04-085

[23]
国家市场监督管理总局, 国家标准化管理委员会. 测绘成果质量检查与验收: GB/T 24356-2023[S]. 北京: 中国标准出版社, 2023.

[ Standardization Administration of the People's Republic of China. Specifications for quality inspection and acceptance of surveying and mapping products: GB/T 24356-2023[S]. Beijing: Standards Press of China, 2023. ]

[24]
国家测绘地理信息局. 基础地理信息数字成果1:5 000 1:10 000 1:25 000 1:50 000 1:100 000 第1部分:数字线划图: CH/T 9009.1-2013[S]. 北京: 测绘出版社, 2014.

[State Bureau of Surveying and Mapping: CH/T 9009.1-2013[S]. Beijing: Sino Maps Press, 2014. ]

[25]
Girres J F, Touya G. Quality assessment of the French OpenStreetMap dataset[J]. Transactions in GIS, 2010, 14(4):435-459. DOI:10.1111/j.1467-9671.2010.01203.x

[26]
McMaster R B. A statistical analysis of mathematical measures for linear simplification[C/OL]. 1986. https://api.semanticscholar.org/CorpusID:62149811DOI:10.1559/152304086783900059

[27]
闫浩文, 杨维芳, 禄小敏, 等. 简单曲线无量纲形状相似度计算方法[J]. 地球信息科学学报, 2023, 25(12):2418-2426.

DOI

[ Yan H W, Yang W F, Lu X M, et al. Calculation of nondimensional shape similarity between simple curves[J]. Journal of Geo-information Science, 2023, 25(12):2418-2426. ] DOI:10.12082/dqxxkx.2023.230368

[28]
Avbelj J, Müller R, Bamler R. A metric for polygon comparison and building extraction evaluation[J]. IEEE Geoscience and Remote Sensing Letters, 2015, 12(1):170-174. DOI:10.1109/LGRS.2014.2330695

[29]
Van Etten A, Lindenbaum D, Bacastow T M. SpaceNet: A remote sensing dataset and challenge series[EB/OL]. 2018:1807.01232. https://arxiv.org/abs/1807.01232v3

[30]
Biagioni J, Eriksson J. Inferring road maps from global positioning system traces[J]. Transportation Research Record: Journal of the Transportation Research Board, 2012, 2291(1):61-71. DOI:10.3141/2291-08

[31]
国家质量监督检验检疫总局、 中国国家标准化管理委员会. 国家基本比例尺地图图式第3部分:1:25 000 1:50 000 1:100 000地形图图式: GB/T 20257.3-2006[S]. 北京: 中国标准出版社, 2006.

[ Standardization Administration of the People's Republic of China. Cartographic symbols for national fundamental scale maps - Part 3: Specifications for cartographic symbols 1:25000 1:50000 & 1:100 000 topographic maps: GB/T 20257.3-2006[S]. Beijing: Standards Press of China, 2006. ]

[32]
Luo L, Li P P, Yan X S. Deep learning-based building extraction from remote sensing images: A comprehensive review[J]. Energies, 2021, 14(23):7982. DOI:10.3390/en14237982

[33]
Li J Y, Huang X, Tu L L, et al. A review of building detection from very high resolution optical remote sensing images[J]. GIScience & Remote Sensing, 2022, 59(1):1199-1225. DOI:10.1080/15481603.2022.2101727

[34]
戴激光, 王杨, 杜阳, 等. 光学遥感影像道路提取的方法综述[J]. 遥感学报, 2021, 24(7):804-823.

[ Dai J G, Wang Y, Du Y, et al. Development and prospect of road extraction method for optical remote sensing image. Journal of Remote Sensing(Chinese), 2020, 24(7):804-823. ] DOI:10.11834/jrs.20208360

[35]
杨明旺, 赵丽科, 叶林峰, 等. 基于卷积神经网络的遥感影像建筑物提取方法综述[J]. 地球信息科学学报, 2024, 26(6):1500-1516.

DOI

[ Yang M W, Zhao L K, Ye L F, et al. A review of convolutional neural networks related methods for building extraction from remote sensing images[J]. Journal of Geo-information Science, 2024, 26(6):1500-1516. ] DOI:10.12082/dqxxkx.2024.240057

[36]
Yuan X H, Shi J F, Gu L C. A review of deep learning methods for semantic segmentation of remote sensing imagery[J]. Expert Systems with Applications, 2021, 169:114417. DOI:10.1016/j.eswa.2020.114417

[37]
Lv J N, Shen Q, Lv M Z, et al. Deep learning-based semantic segmentation of remote sensing images: A review[J]. Frontiers in Ecology and Evolution, 2023, 11:1201125. DOI:10.3389/fevo.2023.1201125

[38]
赵忠明, 周天颖, 严泰来, 等. 空间信息技术原理及其应用-上册[M]. 北京: 科学出版社, 2013.

[ Zhao Z M, Zhou T Y, Yan T L. Principle and application of spatial information technology-volume I[M]. Beijing: Science Press, 2013. ]

[39]
Zhao K, Kang J, Jung J, et al. Building Extraction from Satellite Images Using Mask R-CNN with Building Boundary Regularization[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), 2018, 242-2424. DOI:10.1109/CVPRW.2018.00045

[40]
He K, Gkioxari G, Dollar P, et al. Mask R-CNN[C]. IEEE International Conference on Computer Vision. 2017:2980-2988. DOI:10.1109/ICCV.2017.322

[41]
Douglas D H, Peucker T K. Algorithms for the reduction of the number of points required to represent a digitized line or its caricature[J]. Cartographica: the International Journal for Geographic Information and Geovisualization, 1973, 10(2):112-122. DOI:10.3138/FM57-6770-U75U-7727

[42]
Sohn G, Jwa Y, Jung J, et al. An implicit regularization for 3d building rooftop modeling using airborne lidar data[J]. ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 2012,I-3:305-310. DOI:10.5194/isprsannals-i-3-305-2012

[43]
Wei S Q, Ji S P, Lu M. Toward automatic building footprint delineation from aerial images using CNN and regularization[J]. IEEE Transactions on Geoscience and Remote Sensing, 2020, 58(3):2178-2189. DOI:10.1109/TGRS.2019.2954461

[44]
Shelhamer E, Long J, Darrell T. Fully convolutional networks for semantic segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(4):640-651. DOI:10.1109/TPAMI.2016.2572683

PMID

[45]
Li M, Lafarge F, Marlet R. Approximating shapes in images with low-complexity polygons[C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2020:8630-8638. DOI:10.1109/CVPR42600.2020.00866

[46]
Batra A, Singh S, Pang G, et al. Improved road connectivity by joint learning of orientation and segmentation[C]// 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2019:10377-10385. DOI:10.1109/CVPR.2019.01063

[47]
Cheng G L, Wang Y, Xu S B, et al. Automatic road detection and centerline extraction via cascaded end-to-end convolutional neural network[J]. IEEE Transactions on Geoscience and Remote Sensing, 2017, 55(6):3322-3337. DOI:10.1109/TGRS.2017.2669341

[48]
Máttyus G, Luo W J, Urtasun R. DeepRoadMapper: Extracting Road topology from aerial images[C]// 2017 IEEE International Conference on Computer Vision (ICCV). IEEE, 2017:3458-3466. DOI:10.1109/ICCV.2017.372

[49]
Bastani F, He S T, Abbar S, et al. RoadTracer: Automatic extraction of road networks from aerial images[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. IEEE, 2018:4720-4728. DOI:10.1109/CVPR.2018.00496

[50]
Xu Z H, Liu Y X, Gan L, et al. RNGDet: Road network graph detection by transformer in aerial images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60:4707612. DOI:10.1109/TGRS.2022.3186993

[51]
Castrejón L, Kundu K, Urtasun R, et al. Annotating Object Instances with a Polygon-RNN[C/OL]// 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2017:4485-4493[2024-01-03]. https://ieeexplore.ieee.org/document/8099960DOI:10.1109/CVPR.2017.477

[52]
Bullinaria J A. Recurrent neural networks[J]. Neural Computation: Lecture, 2013, 12(1). DOI:10.4249/scholarpedia.1888

[53]
Li Z, Wegner J D, Lucchi A. Topological Map Extraction From Overhead Images[C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. 2019:1715-1724. DOI:10.1109/ICCV.2019.00180

[54]
Shi X J, Chen Z R, Wang H, et al. Convolutional LSTM network: A machine learning approach for precipitation nowcasting[C]. Advances in neural information processing systems, 2015.

[55]
Zorzi S, Bazrafkan S, Habenschuss S, et al. PolyWorld: Polygonal Building Extraction With Graph Neural Networks in Satellite Images[C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022:1848-1857. DOI:10.1109/CVPR52688.2022.00189

[56]
Sinkhorn R, Knopp P. Concerning nonnegative matrices and doubly stochastic matrices[J]. Pacific Journal of Ma- thematics, 1967, 21(2):343-348. DOI:10.2140/pjm.1967.21.343

[57]
Xu B W, Xu J K, Xue N, et al. HiSup: Accurate polygonal mapping of buildings in satellite imagery with hierarchical supervision[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2023, 198:284-296. DOI:10.1016/j.isprsjprs.2023.03.006

[58]
Xue N, Bai S, Wang F D, et al. Learning attraction field representation for robust line segment detection[C]// 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2019:1595-1603. DOI:10.1109/CVPR.2019.00169

[59]
Wang C H, Chen J B, Meng Y, et al. SAMPolyBuild: Adapting the Segment Anything Model for polygonal building extraction[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2024, 218:707-720. DOI:10.1016/j.isprsjprs.2024.09.018

[60]
Kirillov A, Mintun E, Ravi N, et al. Segment Anything[C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. 2023:4015-4026. DOI:10.1109/ICCV51070.2023.00371

[61]
Pan Y, Wang X Y, Wang Y, et al. RBP-MTL: Agricultural parcel vectorization via region-boundary-parcel decoupled multitask learning[J]. IEEE Transactions on Geoscience and Remote Sensing, 2024, 62:4403915. DOI:10.1109/TGRS.2024.3367850

[62]
Ling H, Gao J, Kar A, et al. Fast Interactive Object Annotation With Curve-GCN[C/OL]// 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). 2019:5252-5261[2024-01-04]. https://ieeexplore.ieee.org/document/8953834DOI:10.1109/CVPR.2019.00540

[63]
Bronstein M M, Bruna J, LeCun Y, et al. Geometric deep learning: Going beyond euclidean data[J]. IEEE Signal Processing Magazine, 2017, 34(4):18-42. DOI: 10.1109/MSP.2017.2693418

[64]
Kass M, Witkin A, Terzopoulos D. Snakes: Active contour models[J]. International Journal of Computer Vision, 1988, 1(4):321-331. DOI:10.1007/BF00133570

[65]
Marcos D, Tuia D, Kellenberger B, et al. Learning Deep Structured Active Contours End-to-End[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018:8877-8885. DOI:10.1109/CVPR.2018.00925

[66]
Xu Z, Xu C, Cui Z, et al. CVNet: Contour Vibration Network for Building Extraction[C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 1383-1391. DOI:10.1109/CVPR52688.2022.00144

[67]
陈换新, 孟伟灿, 汪亚群, 等. 一种利用矢量数据和GVF Snake模型的面状水域提取方法[J]. 测绘与空间地理信息, 2022, 45(2):16-20.

[ Chen H X, Meng W C, Wang Y Q, et al. A areal water boundary extraction method based on vector data and GVF snake model[J]. Geomatics & Spatial Information Technology, 2022, 45(2):16-20. ] DOI: 10.3969/j.issn.1672-5867.2022.02.006

[68]
He S T, Bastani F, Jagwani S, et al. Sat2Graph: road graph extraction through graph-tensor encoding[M]//Lecture Notes in Computer Science. Cham: Springer International Publishing, 2020:51-67. DOI:10.1007/978-3-030-58586-0_4

[69]
He Y, Garg R, Chowdhury A R. TD-road: Top-down road network extraction with Holistic graph construction[M]//Lecture Notes in Computer Science. Cham: Springer Nature Switzerland, 2022:562-577. DOI:10.1007/978-3-031-20077-9_33

[70]
Shit S, Koner R, Wittmann B, et al. Relationformer: A unified framework for image-to-graph generation[M]//Lecture Notes in Computer Science. Cham: Springer Nature Switzerland, 2022:422-439. DOI:10.1007/978-3-031-19836-6_24

[71]
Carion N, Massa F, Synnaeve G, et al. End-to-end object detection with transformers[M]//Vedaldi A, Bischof H, Brox T, et al, eds. Lecture Notes in Computer Science. Cham: Springer International Publishing, 2020:213-229. DOI:10.1007/978-3-030-58452-8_13

[72]
Wang B, Liu Q J, Hu Z H, et al. TERNformer: Topology-enhanced Road network extraction by exploring local connectivity[J]. IEEE Transactions on Geoscience and Remote Sensing, 2023, 61:4406314. DOI:10.1109/TGRS.2023.3296717

[73]
Wang L, Dai M, He J, et al. Regularized Primitive Graph Learning for Unified Vector Mapping[C/OL]// 2023 IEEE/CVF International Conference on Computer Vision (ICCV). 2023: 16771-16780[2024-04-24]. https://ieeexplore.ieee.org/document/10377742DOI:10.1109/ICCV51070.2023.01542

[74]
Yang B, Zhang M, Zhang Z, et al. TopDiG: Class-Agnostic Topological Directional Graph Extraction From Remote Sensing Images[C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2023: 1265-1274. DOI:10.1109/CVPR52729.2023.00128

[75]
Li Z H, He W, Cheng M F, et al. SinoLC-1: The first 1 m resolution national-scale land-cover map of China created with a deep learning framework and open-access data[J]. Earth System Science Data, 2023, 15(11):4749-4780. DOI:10.5194/essd-15-4749-2023

[76]
Chen L C, Papandreou G, Kokkinos I, et al. DeepLab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected CRFs[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(4):834-848. DOI:10.1109/TPAMI.2017.2699184

[77]
Hu A N, Wu L, Chen S Q, et al. Boundary shape-preserving model for building mapping from high-resolution remote sensing images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2023, 61:5610217. DOI:10.1109/TGRS.2023.3277699

[78]
Goodchild M F. Geographic information systems and science: Today and tomorrow[J]. Annals of GIS, 2009, 15(1):3-9. DOI:10.1080/19475680903250715

[79]
Wang X W, Yin S L, Liu D S, et al. Accurate playground localisation based on multi-feature extraction and cascade classifier in optical remote sensing images[J]. International Journal of Image and Data Fusion, 2020, 11(3):233-250. DOI:10.1080/19479832.2020.1716862

[80]
Li Z M, Chen B, Wu S B, et al. Deep learning for urban land use category classification: A review and experimental assessment[J]. Remote Sensing of Environment, 2024, 311:114290. DOI:10.1016/j.rse.2024.114290

[81]
郝丽春. 基于多源遥感数据的工业热污染区提取与监测[D]. 焦作: 河南理工大学, 2019.

[ Hao L C. Extraction and monitoring of industrial thermal pollution area based on multi-source remote sensing data[D]. Jiaozuo: Henan Polytechnic University, 2019. ] DOI:10.27116/d.cnki.gjzgc.2019.000328

[82]
王志华, 杨晓梅, 周成虎. 面向遥感大数据的地学知识图谱构想[J]. 地球信息科学学报, 2021, 23(1):16-28.

DOI

[ Wang Z H, Yang X M, Zhou C H. Geographic knowledge graph for remote sensing big data[J]. Journal of Geo-Information Science, 2021, 23(1):16-28. ] DOI:10.12082/dqxxkx.2021.200632

[83]
Zhan Y, Xiong Z T, Yuan Y. RSVG: Exploring data and models for visual grounding on remote sensing data[J]. IEEE Transactions on Geoscience and Remote Sensing, 2023, 61:3250471. DOI:10.1109/TGRS.2023.3250471.

[84]
冯丽妃. 十问“坤元”大模型[EB/OL]. [2024-10-08]. https://www.cas.cn/cm/202409/t20240920_5032823.shtml

[ Feng L G. Ten Questions on the 'Sigma Geography' Large Model[EB/OL]. [2024-10-08]. ]

文章导航

/