地球信息科学理论与方法

面向微地图的手绘地图符号自动提取方法

  • 余懿韬 , 1, 2, 3, 4 ,
  • 闫浩文 , 1, 2, 3, 4, * ,
  • 李精忠 1, 2, 3, 4 ,
  • 王小龙 5, 6 ,
  • 富璇 1, 2, 3, 4 ,
  • 王卓 7 ,
  • 侯宇豪 1, 4
展开
  • 1.兰州交通大学测绘与地理信息学院,兰州 730070
  • 2.地理国情监测技术应用国家地方联合工程研究中心,兰州 730070
  • 3.甘肃省地理国情监测工程实验室,兰州 730070
  • 4.甘肃大禹九洲空间信息科技有限公司院士专家工作站,兰州 730070
  • 5.兰州大学资源环境学院,兰州 730000
  • 6.西部环境教育部重点实验室,兰州 730000
  • 7.武汉大学资源与环境科学学院,武汉 430079
*闫浩文(1969— ),男,甘肃民勤人,博士,教授,主要从事微地图、地图综合、空间数据安全和空间关系。 E-mail:

余懿韬(2000— ),男,湖南常德人,硕士生,主要从事微地图研究。E-mail:

Copy editor: 蒋树芳

收稿日期: 2024-02-27

  修回日期: 2024-04-01

  网络出版日期: 2024-06-25

基金资助

甘肃省高等学校产业支撑计划项目(2022CYZC-30)

国家自然科学基金重大项目课题(42394063)

中国科学院数字地球重点实验室开放基金项目(2022LDE004)

Automatic Extraction Method of Point Symbols in Modern Hand-Drawn Maps for We-Map

  • YU Yitao , 1, 2, 3, 4 ,
  • YAN Haowen , 1, 2, 3, 4, * ,
  • LI Jingzhong 1, 2, 3, 4 ,
  • WANG Xiaolong 5, 6 ,
  • FU Xuan 1, 2, 3, 4 ,
  • WANG Zhuo 7 ,
  • HOU Yuhao 1, 4
Expand
  • 1. Faculty of Geomatics, Lanzhou Jiaotong University, Lanzhou 730070, China
  • 2. National-Local Joint Engineering Research Center of Technologies and Applications for National Geographic State Monitoring, Lanzhou 730070, China
  • 3. Gansu Provincial Engineering Laboratory for National Geographic State Monitoring, Lanzhou 730070, China
  • 4. Academician Expert Workstation of Gansu Dayu Jiuzhou Space Information Technology Co., Ltd., Lanzhou 730070, China
  • 5. College of Earth and Environmental Sciences, Lanzhou University, Lanzhou 730000, China
  • 6. Key Laboratory of Western China's Environmental Systems, Ministry of Education, Lanzhou, 730000, China
  • 7. School of Resources and Environmental Sciences, Wuhan University, Wuhan 430079, China
*YAN Haowen, E-mail:

Received date: 2024-02-27

  Revised date: 2024-04-01

  Online published: 2024-06-25

Supported by

The Industrial Support and Program Project of Universities in Gansu Province(2022CYZC-30)

The National Natural Science Foundation of China(42394063)

The Open Research Fund of Key Laboratory of Digital Earth Science, Chinese Academy of Sciences(2022LDE004)

摘要

微地图作为自媒体时代出现的新型地图,具有大众参与、个性化、快速传播等特征,然而现有微地图研究在点符号设计方面存在一定局限,难以完全满足大众个性化制图的需求。为解决这一问题,本文从微地图制作角度出发,选择手绘地图的通用地图符号作为研究对象,构建了一个包含多种类型和样式的手绘地图数据集。在现有研究的基础上,通过对比选择目标检测中常用的YOLOv5(You Only Look Once v5)系列模型,深入探索手绘地图中通用地图符号的自动提取方法,并采用YOLOv5-X模型进行手绘地图通用地图符号的提取。实验结果显示,该模型在手绘地图数据集上的point类别提取精确度、召回率和F1得分分别达到了98.42%、94.72%和97%。同时在Quick Draw涂鸦数据集上进行模型泛化能力的测试,本文所使用的模型在该数据集上展现出良好的提取效果。本研究的开展不仅扩充了微地图个性化点符号的研究数据集,还改进了通用地图符号的提取方法,为微地图制图注入了更多元化的元素,也为自媒体时代的地图制作提供了更为灵活和个性化的解决方案。

本文引用格式

余懿韬 , 闫浩文 , 李精忠 , 王小龙 , 富璇 , 王卓 , 侯宇豪 . 面向微地图的手绘地图符号自动提取方法[J]. 地球信息科学学报, 2024 , 26(7) : 1646 -1658 . DOI: 10.12082/dqxxkx.2024.240110

Abstract

The We-Map, a novel cartographic phenomenon emerging in the era of social media, is distinctively characterized by mass participation, personalization, and swift dissemination. However, existing research on We-Map falls short in addressing the intricate challenges posed by point symbol design, thereby hampering the fulfillment of the public's desire for personalized cartographic representations. To bridge this gap, this paper starts from the perspective of We-Map mapping production, taking common map symbols in hand-drawn maps as the research object, and constructs an open hand-drawn map dataset. To this end, we have constructed a comprehensive dataset encompassing a diverse array of hand-drawn map symbols, encompassing various types and styles. This dataset serves as a valuable resource for exploring and enhancing the automated extraction of common map symbols. Drawing inspiration from existing research, we have embarked on a journey to identify and evaluate the most suitable model for our task. Among the numerous models for object detection, the performance of the YOLOv5 series models is well-known, and therefore this article will not delve into it excessively. Specifically, through comparison, we ultimately chose the YOLOv5-X model, which boasts advanced capabilities in object detection and classification. By leveraging the YOLOv5-X model, we have achieved remarkable results in the automatic extraction of common map symbols from hand-drawn maps. Our experiments reveal that the model achieves high levels of accuracy, recall, and F1 score in identifying and extracting point categories from the hand-drawn map dataset. These scores stand testament to the model's effectiveness in capturing the intricate details and unique characteristics of hand-drawn map symbols. Moreover, to further validate the generalizability of our model, we have conducted additional experiments on the Quick Draw doodle dataset. The results obtained from these experiments confirm that our model performs equally well in extracting common map symbols from diverse and varying datasets. The significance of this study lies not only in enhancing the dataset available for personalized point symbol research in We-Map but also in advancing the techniques for extracting common map symbols. By introducing more diversified elements into We-Map cartography, we have opened up new avenues for more flexible and personalized mapmaking in the age of self-media. This study represents a significant step forward in the evolution of cartography in the rea of self-media, catering to the evolving needs and preferences of the modern audience. The finally extracted point symbols can provide a data foundation for downstream tasks related to We-Map.

1 引言

地图是按一定的数学法则将图形、符号相结合以表达人类所认识的自然与人文环境的一种记录方式[1]。自媒体时代的快速发展赋予了地图新的维度[2],即普通大众希望从用图者的角色向制图者转变[3-4]。为满足这一需求,闫浩文[5]提出了面向自媒体的微地图——一种“草根”地图,允许用户随时随地参与地图制作,实现快速、灵活、多变、低门槛的交互传播与应用。微地图的特点在于其对通用地图符号[6]的强烈需求,即对那些不受传统规范束缚、更具创造性和个性化符号表达的需求。微地图用户渴望能够在地图中自由表达自己的观点、情感和地域特色,而通用地图符号正是满足这一需求的关键。这些符号承载了用户独有的地理感知和情感连接,使微地图成为一个充满生动性和个性化的平台。
手绘地图以其独特的艺术性和个性化表达[7]在自媒体时代中脱颖而出,其每一笔、每一线都是制作者个体的独特表达,超越了传统地图符号的规范限制,展现了对地理特征和地方的独特认知。手绘地图的符号不仅富有艺术性,通过颜色、线条、图案等元素传递独特的地理感知,还建立起制作者与所绘地区之间深厚的情感联系[8]。这种深刻地理感知和情感连接[9-10]在微地图中显得尤为重要,因此将手绘地图作为微地图扩充符号库的来源是很有必要的。
微地图研究涵盖符号设计[11]、符号生成[12]、地标寻路[13]、方向系统构建[14-15]及应用[16]等方面。符号设计与生成是核心,方法包括规则、深度学习和用户交互设计,致力于提高地图符号的表达力和个性化。然而,现有微地图研究在点符号设计方面无法完全满足大众个性化制图需求方面。因此,手绘地图上通用地图符号的提取成为亟需解决的问题。
现有符号提取的相关研究多集中在历史地图上[17],这些地图记录了人类活动和自然特征[18-19]。然而历史地图与手绘地图存在明显的差异:首先,在制图人员方面,历史地图通常由专业测绘人员或相关制图人员绘制,而手绘地图则由普通大众绘制;在制图细节方面,历史地图强调地理信息的完整性[20],而手绘地图则通常仅展示特定场景下需要强调的地理信息。同时从历史地图上提取地图信息的方法多为基于机器学习[21-23]进行符号提取,且均为提取标准化程度较高的符号,这与手绘地图上通用地图符号存在差异,手绘地图上的地图符号标准化程度不如历史地图以及标准地图。同时基于机器学习的符号提取效果更多地依赖于训练之初能够提供的数据集[24-27],所以基于历史地图的符号提取方法直接提取手绘地图的符号难以到达理想效果。
综上所述,通用地图符号提取面临以下问题: ① 微地图基础数据库不够完善,导致用户在使用微地图制图平台制作地图时无法获得及时而充分的点符号支持,从而降低地图制作的效率,同时也会阻挡微地图符号智能化设计等微地图基础工作的推进; ② 现有的符号提取技术主要面向历史地图,而手绘地图上的通用地图符号更具有个人特色和不规则性,这与历史地图上的标准化符号存在较大差异,因此现有技术难以直接应用于手绘地图符号提取。为解决上述问题,本研究以手绘地图集为数据源,以目标检测中的YOLOv5框架为基础,致力于探讨手绘地图通用地图符号的自动提取方法,以适应自媒体时代符号的个性化和多样化特点,进一步扩充微地图点符号库。

2 符号提取与模型选择

本文将手绘地图集作为符号提取的数据源,使用目标检测中的YOLOv5[28-29]模型用于点符号提取,将获取到的点符号用于扩充微地图点符号库,最终为微地图下游任务提供数据基础以及为微地图用户提供多样且个性的点符号,技术路线图如图1所示。
图1 符号提取技术路线

Fig. 1 Diagram of symbol extraction technology process

2.1 手绘地图数据集

在微地图符号提取研究中,数据集的构建至关重要。本研究选择从互联网上获取手绘地图作为实验所需的数据集,以确保数据的多样性和丰富性,涵盖不同地域、风格和内容。这种广泛的数据来源能够保证数据集的多样性,有助于提高模型的泛化性能。同时,由于互联网上的地图数据源不断更新,能够及时补充数据集,以反映地图制作的最新趋势和需求。这种可扩展性使得数据集能够适应不断变化的制图环境,为研究提供更为持续和可靠的支持。
地图常用的二维符号主要分为3类:点符号、线符号和面符号,本文提出的提取方法主要面向点符号。地图符号具有约定性、任意性、象征性和准确性[30]等特点,同时,点符号设计需要遵循符合习惯联想、保持认知一致、兼顾专有标识、简单明了等原则[31]。考虑到网络数据源爬取的有限性以及手绘地图的特点,将数据集分为4类,如表1所示。不同类型的数据所获取的数量不一致,总计2 003张。其中, Area类型主要以面状要素为主,而Standard以标准地图符号为主,其无法满足微地图对于通用地图符号的需求,相较而言, Hand_2D和Hand_25D能够提取多元化的通用地图符号,因此将这2种类型作为本研究开展符号提取工作的主体。此外,如图2所示,每张图片按照人工判读的形式共标注了point、symbol和label 3个类别,其中, point类指的是符号的整体信息, symbol类指的是符号本身, label类指的是符号的标注信息。
表1 手绘地图数据集分类

Tab. 1 Hand-drawn map dataset classification

地图分类 地图数量/张 分类示例
Area 117
Hand_2D 1 002
Hand_25D 266
Standard 618
图2 数据标注示例

Fig. 2 Example of data annotation

为了提高模型的泛化性能,本研究对数据集进行了数据增强的工作,包括但不限于旋转、缩放、翻转等操作,以模拟不同角度和尺度下的符号表现。这种数据增强的方式有助于训练模型更好地适应不同风格和绘制习惯的微地图数据,最终获取的数据集数量为23 040张。通过以上构建的手绘地图数据集将在后续实验中验证所提出的符号提取方法的有效性。

2.2 符号提取模型

现代计算机视觉和深度学习技术的发展为地图制图领域带来了新的机遇。在深度学习领域,YOLO模型作为单阶段目标检测器,以其卓越的目标检测性能而闻名[32-35]。这些模型采用了卷积神经网络[36](Convolutional Neural Network, CNN)等深度学习技术,可以自主学习图像特征,无需手动提取。它们的端到端架构能够学习复杂的特征来表示图像,从而提高了地图要素的自动识别效率。YOLO模型在分析图像时能够高效地识别多个对象,并为这些对象提供包围框和类别预测。这种效率和速度对于点符号的识别至关重要,尤其考虑到手绘地图通常具有大量离散且不规则的点符号。其检测机制允许模型通过单次推理对整个图像进行扫描,与传统方法相比,大幅提高了处理速度和准确性,另外,YOLO模型的架构和损失函数使其能够同时处理不同大小的点符号。
目前YOLO系列模型中主要用于目标检测的模型为YOLOv5和YOLOv8,因此本文参考ultralytics官网[37]在COCO Val 2017 数据集上的对比结果,如表2所示,虽然YOLOv8较YOLOv5精度有较大提升,但同时其参数量和FLOPs都有所增加,为保证模型的轻量化,所以最终选择了YOLOv5模型作为符号提取的基础模型。
表2 不同模型对数据集的识别精度

Tab. 2 Recognition accuracy of different models on the dataset

模型 YOLOv5 params/M FLOPs@640/B YOLOv8 params/M FLOPs@640/B
n 28.0(300e) 1.9 4.5 37.2(500e) 3.2 8.7
s 37.4(300e) 7.2 16.5 44.9(500e) 11.2 28.6
m 45.4(300e) 21.2 49.0 50.2(500e) 25.9 78.9
l 49.0(300e) 46.5 109.1 52.9(500e) 43.7 165.2
x 50.7(300e) 86.7 205.7 53.9(500e) 68.2 257.8
本文选择YOLOv5系列模型作为图像分割。YOLOv5是一种Single-Stage的目标检测算法,它结合了以往YOLO系列的诸多优点,有着不错的精准度以及实时性表现。YOLOv5包含多种版本,包括YOLOv5-S、YOLOv5-M、YOLOv5-L和YOLOv5-X等,通过调整配置文件可以自由的改变网络的深度和宽度。YOLOv5有着出色的可扩展性,在生产环境当中有着广泛的应用部署。

2.3 模型选择

在模型训练阶段之后,通过AP(Average precision)、精确度、召回率、F1分数评估指标来评估模型的性能,这些指标均显示了特定类型的评估标准,测试集实例被用于以定性和定量的方式评估模型的性能。另一方面,量化结果是通过使用上述广泛采用的评价指标产生的: F1分数、精确度、召回率,其中每个指标都显示了特定类型的评估标准。采用AP、召回率和精确度对分割结果进行评价,置信度为0.5,模型结果如表3所示。
表3 模型训练结果

Tab. 3 Model training results

YOLOv5版本 类型 AP/% 精确率/% 召回率/% F1/%
YOLOv5-S point 93.29 94.67 84.35 89
label 80.16 92.57 56.91 70
symbol 58.67 86.48 42.58 57
YOLOv5-L point 97.34 97.86 93.58 96
label 90.88 95.41 75.89 85
symbol 74.01 90.98 59.80 72
YOLOv5-M point 96.54 96.96 91.36 94
label 86.74 93.95 70.82 81
symbol 68.72 89.15 51.10 67
YOLOv5-X point 97.85 98.42 94.72 97
label 91.59 96.04 78.61 86
symbol 77.29 92.05 63.55 75
训练样本用于训练YOLOv5模型,验证样本用于确定训练后的模型是否符合要求。将处理后的1 200个手绘地图训练样本放入YOLOv5网络中进行训练,并在每轮训练后使用分配的300个手绘地图验证样本测试模型的图形分割能力。YOLOv5模型的损失值(loss)随迭代次数的变化如图3所示。
图3 不同模型的训练和验证损失

Fig. 3 Training and validation losses for different models

根据上述实验结果得出结论,精确度在模型的结果部分得到了较好的效果。可视化分析的结果也验证了这一情况。从图3中可以看出,地图上实际符号与预测所得符号之间存在差异。这些参数之间的差异可能是注释策略和注释精度的结果,即 ①输入的手绘地图大小不一致; ②地图上实际符号与预测所得符号之间不具备完全的重叠; ③ 由于手绘地图上的标注数据不足,导致符号提取不完整。
图3可知,YOLOv5各个模型的损失函数均在迭代次数为70次左右时突然下降,且在整个训练过程中振荡,这是由于本次实验采用了Adam优化函数,该函数在训练过程中自适应调整学习率,当学习率满足一定的阈值时,其会下降直至趋近于0,以获取更好的模型识别效果。由表3可知, YOLOv5-X模型在准确率,召回率和F1得分中均有好的表现,故最终采用YOLOv5-X模型训练数据。

3 通用地图符号自动提取实验

3.1 实验环境及模型参数

为确保实验的有效进行,本研究采用了一台配置高性能GPU的服务器,搭载NVIDIA A100 80 G GPU,以提高YOLOv5模型的训练和推理效率。在软件环境方面,选择了PyTorch 2.0.1框架作为YOLOv5模型的深度学习框架。为解决目标域标记样本量少、过拟合等问题,采用了迁移学习的方式,以COCO公共数据集[38]预训练的YOLO系列模型为基础,用于手绘地图数据集的符号识别问题。
在模型训练过程中, 80%的手绘地图数据集样本被用作训练样本, 10%作为验证样本, 10%作为测试样本。除此之外,模型参数调整后设置具体如下:网络输入大小为640像素×640像素,学习率为0.001,迭代次数为100次,批尺寸(batch size)为16。为优化模型参数,采用了Adam优化算法(Adaptive Moment Estimation)和余弦周期退火(Cosine Annealing, cos)调整学习率,同时使用梯度下降算法Momentum优化算法为0.937。通过实际测试可知,这样的设置旨在确保模型在手绘地图通用地图符号提取任务上取得最佳性能。

3.2 模型训练可视化

本文使用类别热力图[39](Class Activation Mapping,CAM)来解释YOLOv5-X模型在手绘地图通用地图符号提取中的预测过程。CAM热力图突出输入图像中影响输出类别的像素,从而帮助理解模型是如何识别和定位地图中点符号的过程,探索图像中不同特征区域对符号识别结果的影响。这种方法可以帮助解释YOLOv5-X模型的决策过程。
图4展示了一张手绘地图样本的CAM热力图可视化结果。该手绘地图包含了多个不同形状和类型的符号,包括圆圈、建筑物和特殊形状等。 图4(a)为原始的手绘地图样本,图4(b)展示了相应的CAM热力图,其中热力图的颜色深浅表示模型关注区域的强度。从图4(b)可以观察到,模型在预测不同符号时,主要关注了符号的中心区域和边缘轮廓,这表明模型能够有效地捕捉到符号的关键特征。
图4 CAM热力图示例

Fig. 4 Example of CAM heat map

通过对CAM热力图的分析,模型在处理具有复杂背景或相互重叠的符号时,仍能够准确地定位到符号的核心位置。例如,在处理圆圈符号时,尽管周围存在树木的干扰项,模型依然能够聚焦于圆圈的形状及其具体的标注,说明了模型具有较强的特征识别和空间定位能力。此外,对于一些特殊形状的符号,如建筑物和特殊形状,模型同样展现出了对其独特轮廓和结构的高度敏感性。
总的来说,CAM热力图的分析结果不仅证实了我们模型在手绘地图符号提取任务中的有效性,而且揭示了模型理解和处理手绘地图符号的机制。这种深入的理解有助于我们进一步优化模型结构,提高符号提取的准确率和效率。

3.3 模型泛化能力验证

Quick Draw数据集[40]作为目前全球最大的涂鸦数据集,Quick Draw数据集与本研究所构建的微地图点符号库有许多相似之处。二者作为手绘图标,不仅都具有艺术性和独特表达,而且都受到个体创作者的影响,呈现出多样性和个性化。Quick Draw数据集共有345类,所有类别图片迄今为止总计5千万余张,本次对比实验首先选择随机抽取各个类别中的图片作为验证模型泛化能力的测试数据,同时在此基础上选择识别效果良好的类别作为进一步验证模型泛化能力的测试样本集,如图5所示。通过这一方法,试图揭示模型在未见过手绘涂鸦图形上的泛化能力,强调其适用性于不同风格和类别的手绘数据。
图5 Quick Draw部分数据集

Fig. 5 Partial dataset of Quick Draw

为验证训练完成的YOLOv5-X模型的泛化能力,本研究使用Quick Draw部分数据集作为测试样本输入模型,并记录模型的输出结果,如图6所示,图中红框为识别成功的符号。为全面评估模型的泛化能力,本研究在验证整体数据集上模型泛化能力的基础上,还进行验证QuickDraw子类识别能力的实验。本研究从初步测试性能表现良好的各类别中随机选取500张图像进行测试,测试结果如表4所示。通过这些实验,能够更深入地了解模型在处理不同类型图像时的性能表现。这些实验结果将帮助评估模型在识别各个子类别上的准确度,通过这种方式,可以更好地了解模型在不同数据集和场景下的性能表现,进一步验证其泛化能力。
图6 Quick Draw数据集符号提取效果

Fig. 6 Symbol extraction results in Quick Draw dataset

表4 Quick Draw数据集子类识别结果

Tab. 4 Quick Draw dataset subclass recognition results (%)

类别 识别结果 类别 识别结果 类别 识别结果 类别 识别结果
bat 20.2 cow 59.0 hot dog 28.0 radio 44.0
bathtub 59.8 crayon 14.6 hurricane 49.4 sink 52.0
cake 85.0 dragon 22.0 lantern 36.4 toaster 81.8
camel 26.6 firetruck 55.4 monkey 14.6 zebra 66.2
car 26.4 helmet 3.2 panda 28.4
本次选取的Quick Draw数据集所有类别的数据量总计3 450张,成功识别的共有1 439张,识别成功率为41.71%,在此基础上进一步选取了识别效果良好的类别,其中部分类别在本模型上识别效果出色,如cake、 cow、 toaster、 zebra等类别。这与手绘地图数据集存在较大差异,原因可能原于以下几个方面: ① 输入的手绘地图大小不一致; ② Quick Draw数据集更多地强调符号的涂鸦属性以及线条属性,而本文所构建的手绘地图数据集更多地强调符号的完整性和艺术性; ③ 手绘地图数据集由于数据类型存在一定的不足,其泛化能力存在一定的短板; ④ 本模型暂时无法完全满足Quick Draw数据集的测试需求,但对于其中与地图符号类似的类别而言,本模型能够成功进行识别。

3.4 对比实验

为了验证模型的有效性,本文使用手绘地图自建数据集中point类别训练深度学习领域中常见的主流检测模型,并记录相应的实验结果。将这些结果与本文模型进行对比,对比结果如表5所示。通过对比可知,本文所使用的YOLOv5-X模型对于手绘地图自建数据集的point类别有更高的精度,并且在手绘地图自制数据集符号检测方面表现出更高的针对性。与Retinanet[41]相比,YOLOv5-X模型的检测精度提高了5.61%,相比SSD[42]提高了6.38%。在多种不同模型的算法对比中表现出了一定的优越性。总体而言,本文所采用的方案具备相当的优越性。
表5 与主流算法的对比

Tab. 5 Comparison with mainstream algorithms (%)

模型 AP 精确率 召回率 F1
Retinanet 73.94 92.81 59.17 72
SSD 68.77 92.04 36.03 52
YOLOv5-X 97.85 98.42 94.72 97

3.5 符号提取结果

本研究所使用的方法利用图像处理和机器学习技术,从手绘地图中分离出通用地图符号。通过这些技术,本研究能够更好地满足用户的个性化需求,使地图符号的设计和应用变得更加灵活和便捷。将用户置于符号选择的驱动位置,增强了微地图用户制图的互动性和个性化制图体验。用户可以根据自己的需求和创造力自由选择符号,从而在微地图中表达个性、传递信息、强化视觉引导,使微地图成为一个真正反映用户独特视角和需求的工具。这对促进微地图的大众化应用具有重要意义,为更广泛的人群提供了制图的机会和便捷性。图7是符号提取的结果示意图,该示意图很好地呈现了本研究进行符号提取的效果,图7(a)中显示了原始微地图样本,为来自互联网的未经过模型训练的手绘地图,图7(b)中展示了模型提取符号的效果。
图7 符号提取效果

Fig. 7 Symbol extraction results

4 结论与讨论

本文利用目标检测技术成功实现了手绘地图通用地图符号的自动提取。该方法克服了手绘地图中通用地图符号的复杂性和个性化导致的提取困难,进而提高了微地图制图的效率并扩展了微地图点符号库。通过采用图像处理和机器学习技术,特别是使用YOLOv5-X模型作为符号提取的基础,首先将构建的手绘地图集按照不同符号类型分为4类,并通过人工判读的形式将符号进行信息标注,探讨针对手绘地图通用地图符号的自动提取方法并讨论了该方法的泛化能力,最终得到适用于手绘地图个性化通用地图符号提取的方法。实验结果表明,该方法能够在不同手绘风格的手绘地图中准确且高效地提取各类符号,且该方法具备一定的泛化能力,将该方法应用于手绘地图数据集,扩充了微地图点符号库。该方法对微地图制图领域具有重要意义,即为微地图下游任务提供了数据基础,并且为微地图用户提供了多样化和个性化的点符号选择。
尽管本文取得了初步成果,但由于数据集样本的有限,符号提取仍存在一定的局限性。未来将致力于提升提取算法的精度,并将研究扩展到对点符号详细信息的提取,以及线、面符号的获取等方面。这将有助于推动微地图制图领域的发展,使更多人能够参与并受益于微地图的制作和使用。
[1]
高俊. 换一个视角看地图[J]. 测绘通报, 2009(1):1-5.

[ Gao J. Let's take another look at map[J]. Bulletin of Surveying and Mapping, 2009(1):1-5.]

[2]
Huang W. Correction to: What were GIScience scholars interested in during the past decades?[J]. Journal of Geovisualization and Spatial Analysis, 2023, 7(1):6. DOI:10.1007/s41651-023-00134-4

[3]
王海鹰, 闫浩文, 田江鹏, 等. 后现代哲学视野下的微地图[J]. 武汉大学学报(信息科学版), 2022, 47(12):2026-2037.

[Wang H Y, Yan H W, Tian J P, et al. WeMaps in the perspective of the post-modernist philosophy[J]. Geomatics and Information Science of Wuhan University, 2022, 47(12):2026-2037.] DOI:10.13203/j.whugis20210481

[4]
王家耀. 时空大数据时代的地图学[J]. 测绘学报, 2017, 46(10):1226-1237.

DOI

[Wang J Y. Cartography in the age of spatio-temporal big data[J]. Acta Geodaetica et Cartographica Sinica, 2017, 46(10):1226-1237.] DOI:10.11947/j.AGCS.2017.20170308

[5]
闫浩文, 张黎明, 杜萍, 等. 自媒体时代的地图:微地图[J]. 测绘科学技术学报, 2016, 33(5):520-523.

[Yan H W, Zhang L.M, Du P, et al. We-map: A new type of map in the era of we media[J]. Journal of Geomatics Science and Technology, 2016, 33(5):520-523.] DOI:10.3969/j.issn.1673-6338.2016.05.015

[6]
国家市场监督管理总局,国家标准化管理委员会. 公共地理信息通用地图符号: GB/T 24354—2023[S]. 北京: 中国标准出版社.

[ State Administration for Market Regulation of the People's Republic of China, Standardization Administration of the People's Republic of China. Common map symbols for the public geographical information: GB/T 24354—2023[S]. Beijing: Standards Press of China.]

[7]
Chen J, Takagi N. A pattern recognition method for automating tactile graphics translation from hand-drawn maps[C]// 2013 IEEE International Conference on Systems, Man, and Cybernetics. IEEE, 2013:4173-4178. DOI:10.1109/SMC.2013.711

[8]
宋伟轩, 吕陈, 徐旳. 城市社区微观空间意象研究——基于南京居民250份手绘草图的比较[J]. 地理研究, 2011, 30(4):709-722.

[Song W X, Lu C, Xu D. Study on spatial image of community based on comparison of 250 sketch maps drawn by residents in Nanjing[J]. Geographical Research, 2011, 30(4):709-722.] DOI:10.11821/yj201 1040013

DOI

[9]
申思, 薛露露, 刘瑜. 基于手绘草图的北京居民认知地图变形及因素分析[J]. 地理学报, 2008, 63(6):625-634.

[Shen S, Xue L L, Liu Y. Beijing residents' cognitive map distortion and sources analysis based on sketch mapping method[J]. Acta Geographica Sinica, 2008, 63(6):625-634.] DOI:10.3321/j.issn:0375-5444.2008.06.007

[10]
王娟, 李钢, 于悦, 等. 被拐儿童记忆地图模式及其影响因素——基于寻亲成功案例的实证[J]. 热带地理, 2022, 42(9):1559-1570.

DOI

[Wang J, Li G, Yu Y, et al. The memory map pattern of trafficked children and its influencing elements: Evidence from successful cases of seeking relatives[J]. Tropical Geography, 2022, 42(9):1559-1570.] DOI:10.13284/j.cnki.rddl.003549

[11]
白娅兰, 闫浩文, 禄小敏, 等. 微地图符号的视觉变量及其应用[J]. 测绘科学, 2021, 46(7):182-188,204.

[Bai Y L, Yan H W, Lu X M, et al. Visual variables of We-Maps symbols and their applications[J]. Science of Surveying and Mapping, 2021, 46(7):182-188,204.] DOI:10.16251/j.cnki.1009-2307.2021.07.025

[12]
闫晓婧, 闫浩文, 王小龙. 微地图符号的智能化匹配——“识图配符”[J]. 测绘科学, 2022, 47(10):205-212.

[Yan X J, Yan H W, Wang X L, et al. An Intelligent Symbol Matching Solution for We-maps through Image Recognition[J]. Science of Surveying and Mapping, 2022, 24(05):827-836.] DOI:10.16251/j.cnki.1009-2307.2022.10.027

[13]
何阳, 闫浩文, 王卓, 等. 面向微地图的地标提取方法及个性化寻路应用[J]. 地球信息科学学报, 2022, 24(5):827-836.

DOI

[He Y, Yan H W, Wang Z, et al. Landmark extraction method and personalized wayfinding application for we-map[J]. Journal of Geo-Information Science, 2022, 24(5):827-836.] DOI:10.12082/dqxxkx.2022.210376

[14]
Wang X L, Yan H W, Gao S, et al. We-map orientation method suitable for general public with weak sense of orientation[C]// International Conference on Spatial Data and Intelligence. Cham: Springer, 2022:35-41. DOI:10.1007/978-3-031-24521-3_3

[15]
Wang X, Yan H, Wang Z, et al. Wemap‐based direction model for individuals with limited spatial orientation skills[J]. Transactions in GIS.28:111 [2024-06-12]. DOI:10.1111/tgis.13129

[16]
富璇, 闫浩文, 王小龙, 等. 城市内涝场景下的微地图制作方法[J/OL]. 地球信息科学学报,1-14[2024-03-29].

[Fu X, Yan H W, Wang X L, et al. A We-map Mapping Method for Urban Waterlogging Scenarios[J/OL]. Journal of Geo-information Science, 1-14[2024-03-29].] http://kns.cnki.net/kcms/detail/11.5809.p.20231101.2333.002.html.

[17]
Jiao C J, Magnus H, Lorenz H. A fast and effective deep learning approach for road extraction from historical maps by automatically generating training data with symbol reconstruction[J]. International Journal of Applied Earth Observation and Geoinformation, 2022, 113. DOI:10.1016/j.jag.2022.102980

[18]
Helmer, Eileen H., Córdova, et al. Historical maps of land use in puerto rico in 1951. Fort Collins, CO: Forest Service Research Data Archive. DOI:10.2737/RDS-2023-0041

[19]
赵飞, 李兆正, 甘泉, 等. 结合SAM大模型和数学形态学的历史地图水系信息提取方法[J]. 测绘学报, 2024, 53(04):761-772.

[Zhao F, Li Z Z, Gan Q, et al. A method for hydrological information extraction from historical maps combining SAM large model and mathematical morphology[J]. Acta Geodaetica et Cartographica Sinica, 2024, 53(04):761-772.] DOI:10.11947/j.AGCS.2024.20230308

[20]
Smith H J, Zheng Q Y, Li Y F, et al. A method for animating children's drawings of the human figure[J]. ACM Transactions on Graphics, 42(3):32. DOI:10.1145/3592788

[21]
Yuan X H, Shi J F, Gu L C. A review of deep learning methods for semantic segmentation of remote sensing imagery[J]. Expert Systems with Applications, 2021, 169:114417. DOI:10.1016/j.eswa.2020.114417

[22]
Can Y S, Gerrits P J, Kabadayi M E. Automatic detection of road types from the third military mapping survey of austria-hungary historical map series with deep convolutional neural networks[J]. IEEE Access, 2847,9: 62847-62856. DOI:10.1109/ACCESS.2021.3074897

[23]
Saeedimoghaddam M, Stepinski T F. Automatic extraction of road intersection points from USGS historical map series using deep convolutional neural networks[J]. International Journal of Geographical Information Science, 2020, 34(5):947-968. DOI:10.1080/13658816.2019.1696968

[24]
Zhou Y Q, Harris R, Tranos E. Where is the geography? A study of the predictors of obesity using UK biobank data and machine learning[J]. Journal of Geovisualization and Spatial Analysis, 2023, 7(2):17. DOI:10.1007/s41651-023-00142-4

[25]
Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[EB/OL]. 2014: arXiv:1409.1556. http://arxiv.org/abs/1409.1556.pdf

[26]
Vanhanen T. A new dataset for measuring democracy, 1810-1998[J]. Journal of Peace Research, 2000, 37(2):251-265. DOI:10.1177/0022343300037002008.

[27]
Gebru T, Morgenstern J, Vecchione B, et al. Datasheets for datasets[J]. Communications of the ACM, 2021, 64(12):86-92. DOI:10.1145/3458723

[28]
Jocher G, Stoken A, Borovec J, et al. ultralytics/yolov5: v3. 0[J]. Zenodo, 2020. DOI:10.5281/zenodo.3983579

[29]
Jocher G, Chaurasia A, Stoken A, et al. Ultralytics/yolov5: v6. 2-yolov5 classification models, apple m1, reproducibility, clearml and deci. ai integrations[J]. Zenodo, 2022. DOI:10.5281/zenodo.7002879

[30]
黄文骞. 数字地图符号的形状描述与识别[J]. 测绘学报, 1999, 3:233-238.

[Huang W Q. Shape description and recognition of digital map symbols[J]. Acta Geodaetica et Cartographic Sinica, 1999, 3:233-238.] DOI:10.3321/j.issn:1001-1595.1999.03.009

[31]
俞连笙. 地图符号的哲学层面及其信息功能的开发[J]. 测绘学报, 1995, 4:259-266.

[Yu L S. The Philosophical levels of map symbol and the exploration of its information function[J]. Acta Geodaetica et Cartographica Sinica, 1995, 4:259-266.] DOI:10.1007/BF02006258

[32]
Jiang P Y, Ergu D J, Liu F Y, et al. A review of yolo algorithm developments[J]. Procedia Computer Science, 2022, 199:1066-1073. DOI:10.1016/j.procs.2022.01.135

[33]
Nepal U, Eslamiat H. Comparing YOLOv3, YOLOv4 and YOLOv5 for autonomous landing spot detection in faulty UAVs[J]. Sensors, 2022, 22(2):464. DOI:10.3390/s22020464

[34]
Bochkovskiy A, Wang C Y, Liao H Y M. YOLOv4: Optimal speed and accuracy of object detection[EB/OL]. 2020: arXiv:2004.10934. http://arxiv.org/abs/2004.10934

[35]
Terven J, Cordova-Esparza D. A comprehensive review of YOLO architectures in computer vision: From YOLOv1 to YOLOv8 and YOLO-NAS[EB/OL]. 2023: arXiv:2304.00501. http://arxiv.org/abs/2304.00501

[36]
Chua L O, Roska T. The CNN paradigm[J]. IEEE Transactions on Circuits and Systems I: Fundamental Theory and Applications, 1993, 40(3):147-156. DOI: 10.1109/81.222795

[37]
Jocher G, Chaurasia A, & Qiu J, (2023). Ultralytics YOLO (Version 8.0.0) [Computer software]. https://github.com/ultralytics/ultralytics.

[38]
Lin T Y, Maire M, Belongie S, et al. Microsoft COCO: Common objects in context[M]//Computer Vision - ECCV 2014. Cham: Springer International Publishing, 2014:740-755. DOI:10.1007/978-3-319-10602-1_48

[39]
Zhou B L, Khosla A, Lapedriza A, et al. Learning deep features for discriminative localization[C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2016:2921-2929. DOI:10.1109/CVPR.2016.319

[40]
Ha D, Eck D. A neural representation of sketch drawings[EB/OL]. 2017: arXiv:1704.03477. http://arxiv.org/abs/1704.03477

[41]
Lin T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection[C]// 2017 IEEE International Conference on Computer Vision (ICCV). IEEE, 2017:2999-3007. DOI:10.1109/ICCV.2017.324

[42]
Liu W, Anguelov D, Erhan D, et al. SSD: Single shot multiBox detector[J]. CoRR, 2015, abs/1512.02325. DOI:10.1007/978-3-319-46448-0_2

文章导航

/