地理空间分析综合应用

百度街景和GSENet模型相结合的兰州市绿视率时空变化分析

  • 许新元 , 1 ,
  • 牛磊 , 1, 2, 3, 4, *
展开
  • 1.兰州交通大学测绘与地理信息学院,兰州730070
  • 2.地理国情监测技术应用国家地方联合工程研究中心,兰州 730070
  • 3.甘肃省地理国情监测工程实验室,兰州 730070
  • 4.澳大利亚新南威尔士大学艺术与设计学院建筑与环境学院地理空间研究创新发展中心,肯辛顿 2030
* 牛 磊(1983— ),男,河南林州人,副教授,博士,主要从事深度学习图像处理和地理信息系统。 E-mail:

许新元(2000— ),男,山东聊城人,硕士生,主要从事深度学习图像处理和地理信息系统。E-mail:

Copy editor: 黄光玉 , 蒋树芳

收稿日期: 2024-09-29

  修回日期: 2025-02-16

  网络出版日期: 2025-03-25

基金资助

国家自然科学基金项目(42171401)

国家自然科学基金项目(41771433)

甘肃省自然科学基金项目(20JR10RA247)

Spatio-Temporal Analysis of the Green View Index in Lanzhou City Using Baidu Street View and GSENet Model Integration

  • XU Xinyuan , 1 ,
  • NIU Lei , 1, 2, 3, 4, *
Expand
  • 1. Faculty of Geomatics, Lanzhou Jiaotong University, Lanzhou 730070, China
  • 2. National-Local Joint Engineering Research Center of Technologies and Applications for National Geographic State Monitoring, Lanzhou 730070,China
  • 3. Gansu Provincial Engineering Laboratory for National Geographic State Monitoring, Lanzhou 730070,China
  • 4. Geospatial Research Innovation Development, School of Built and Environment, Faculty of Art and Design, University of New South Wales, Kensington 2030, Australia
* Corrsponding author: NIU Lei, E-mail:

Received date: 2024-09-29

  Revised date: 2025-02-16

  Online published: 2025-03-25

Supported by

National Natural Science Foundation of China(42171401)

National Natural Science Foundation of China(41771433)

Gansu Provincial Natural Science Foundation(20JR10RA247)

摘要

【目的】探索基于街景数据的城市绿视率时空变化特征及其影响因素,为城市街道绿化水平评估提供新方法。【方法】提出GSENet语义分割模型,在编码器中整合GSE-Block特征校准模块,解码器采用高效自注意力模块(Mix-transforemr)。基于该模型分析2014—2023年兰州市主城区百度街景数据,运用热冷点分析、统计分析、相关性分析方法探索绿视率时空变化规律。【结果】① GSENet模型以ResNet50为主干网络,MIOU达74.7%,优于PSPNet、DeepLabV3等主流模型,大面积类别F1分数可达0.95; ② 2019—2023年相比2014—2018年, GVI平均上升2.3%,70.9%的采样点显示出上升趋势。安宁区提升最显著,城关区提升最小。研究区中部偏西及东北部地区GVI显著上升,特别是在高校周边区域;商业中心和交通枢纽附近,GVI出现明显下降; ③ 建筑密集度与GVI变化呈负相关,道路宽阔度与GVI变化的相关性较弱;人口密度与GVI变化在街道尺度下呈现出较强的正相关。【结论】基于GSENet模型的街景绿视率测算方法具有较高准确性,可有效评估城市绿化水平的时空变化特征,为提升街道绿化感知程度和城市空间规划提供重要参考。

本文引用格式

许新元 , 牛磊 . 百度街景和GSENet模型相结合的兰州市绿视率时空变化分析[J]. 地球信息科学学报, 2025 , 27(4) : 994 -1010 . DOI: 10.12082/dqxxkx.2025.240544

Abstract

[Objectives] Although the use of street view data to calculate the Green View Index (GVI) has emerged as a method for evaluating urban greening levels, systematic research on the spatiotemporal dynamics of GVI remains limited. [Methods] This study explores the spatiotemporal characteristics and influencing factors of urban GVI using street view big data, providing a new method for assessing urban street greening levels. This study proposes the GSENet semantic segmentation model for calculating and analyzing the GVI in Lanzhou's main urban area. The GSENet model incorporates a GSE-Block feature calibration module within its encoder, combining spatial and channel attention mechanisms. The decoder adopts an efficient self-attention module (Mix-transformer), which introduces a scaling factor and replaces the fully connected layer with a 1×1 convolution, combining the global modeling capability of Transformers with the local processing ability of convolution. Using the GSENet model, this study calculates the GVI of Lanzhou's main urban area based on Baidu Street View data and explores its spatiotemporal variation patterns through hotspot analysis, statistical analysis, and correlation analysis. [Results] The results reveal several key findings: (1) Utilizing ResNet50 as the backbone, the GSENet model achieves a Mean Intersection over Union (MIOU) of 74.7%, outperforming mainstream models such as PSPNet and DeepLabV3. The model demonstrates superior performance in identifying large-area categories such as vegetation and buildings, achieving an F1 score of 0.95. (2) Between 2019 and 2023, the average GVI increased by 2.3% compared to the period from 2014 to 2018. Notably, 70.9% of the sampled points showed a positive GVI trend, although only 8.4% experienced an increase greater than 10%. Anning District recorded the most substantial improvement, with a GVI rise of 3.5%, while Chengguan District saw the smallest growth, at only 1.9%. Spatial analysis identified that the central-western and northeastern parts of the study area experienced significant GVI increases, particularly in regions surrounding universities. In contrast, GVI declined notably in commercial centers and transportation hubs. (3) The influence of street view features and social factors on GVI changes exhibits spatiotemporal heterogeneity. Building density shows a negative correlation with GVI changes. The correlation between road width and GVI changes is relatively weak while the correlation between population density and GVI changes varies across different scales, with a stronger positive correlation at the street scale. [Conclusions] The experimental results highlight the effectiveness of this research in enhancing the perceived greening of urban streets. Furthermore, the findings provide valuable insights for urban planners aiming to optimize green space distribution and improve urban environments.

1 引言

长期以来,城市街道绿化被认为是城市景观的设计元素[1-2],对社会、环境和生态有重要作用。例如缓解城市热岛效应[3-7],减少洪涝灾害[3,8],增加生物多样性[4,9-10]等。随着城市化进程的加快,随着城市化进程加快,如何科学评估和提升城市绿化质量成为重要议题。其中,绿视率(Green View Index,GVI)作为一个重要指标,因其独特优势而受到广泛关注。绿视率最早由日本学者青木阳二于1987年提出,定义为人们视野中绿色植物所占的比例。与传统的绿地率等二维指标相比,绿视率能够从人的视觉感知角度,立体直观地反映城市居民日常生活中所感受到的绿化环境质量,更符合以人文本的城市环境建设要求[11]。研究表明,较高的街道绿视率与居民的心理健康、身体活动水平和情感幸福感呈显著正相关。街道绿视率的提升可以激发居民参与户外活动的意愿,改善身心健康状况,增进社区归属感[12-13]
传统的GVI计算主要依赖地面调查和人工处理[14],成本高、效率低且难以实时更新。尽管Yang等[15]利用彩色图片来评估城市森林的可见度,该方法仍需人工采集街景图像,效率低且覆盖面有限[16]。随着街景服务的发展,街景图像能够以与行人类似的视角精细呈现街道环境[17-19],街景图像现已覆盖全球一半以上的人口[21],为大规模城市数据分析提供了宝贵的资源,相比于航空或卫星影像等更能从人类视角检查城市环境的视觉特征[22]。街景图像已被广泛应用于多个领域,包括对城市建成环境特征的评估[23]。在中国,百度地图自2013年起推出的“百度全景”服务[24],成为国内街景图像数据的重要来源,被广泛应用于城市GVI研究。
然而,如何有效地从海量街景数据中准确提取植被信息进而计算GVI,仍是一个亟待解决的问题。随着技术发展,GVI计算方法经历了从人工到自动化、再到人工智能的演进过程。表1对比分析了各类方法的特点。
表1 GVI计算方法对比分析

Tab. 1 Comparison and analysis of GVI calculation methods

技术阶段 具体方法 优势 局限 文献编号
传统人工方法 Photoshop、GIMP、激光雷达扫描等 操作直观,
可人工校正
需人工干预,处理效率低,
结果易受主观影响
[25]、[26]
自动化算法 HSL色彩空间模型、RGB波段特性 自动化程度高,
处理速度快
易错误识别非植被元素,
精度不稳定
[27、[28]
深度学习方法 UNet、PSPNet、PSANet、DeepLab等 识别精度高,
处理效率高,
可批量处理
需大量训练数据,
计算资源要求高,
地面植被识别较差
[20]、[30]
[32]-[36]
目前,基于深度学习的语义分割技术已成为GVI计算的主流方法。为街道GVI的计算和评价提供了新的手段[29]。近年来,陶贵鑫等[31]对道路绿视率不同方法进行比较,验证了深度学习方法在识别精度上优于颜色提取RGB方法和HSL方法。王鸿雁等[35]针对语义分割模型的GVI提取缺乏适用性研究,对DeepLabv3+模型使用自主标注样本进行训练,提取分析北京三环内街景图像GVI。Aikoh等[36]则使用DeepLab模型计算了日本札幌市中心的GVI,并将结果与Photoshop测量的结果进行了比较,展示了街景数据和图像分割相对于传统方法的优势,同时指出了现代方法的局限性,如语义分割无法将种植在地面上的草坪和花卉识别为植被。尽管语义分割技术在街景图像中的应用取得了一些成果,但随着复杂的语义场景因素的出现,对城市环境感知提出了更高的挑战,因此对语义分割模型提出了更高的要求[37]。另一方面,国内现有研究在时空维度上对GVI的定量分析不足,难以为城市的长期绿化策略提供有效支持。Li等[38]基于历史街景数据分析了纽约市树冠的空间和时间变化,证明了历史街景图像在大规模监测城市街道树冠变化的时间变化方面的可用性,也为城市绿化项目提供了见解和有价值的参考。
综上所述,在众多基于街景数据的语义分割分析GVI的研究基础上,本文针对现有研究的局限性,以兰州市主城区为例,提出了GSENet语义分割模型。该模型的编码器整合了GSE-Block特征校准模块,融合了空间和通道注意力;解码器采用高效自注意力模块(Mix-transforemr),引入缩放因子并使用1*1卷积替换全连接层,结合了Transformer的全局建模能力和卷积局部处理能力。通过使用Cityscapes数据集[39]对GSENet模型进行训练和精度评价,进而计算采样点的GVI。通过对采样点、道路和行政区划等多尺度进行分析,研究了兰州主城区GVI的时空变化,同时探索了GVI及其变化与街景指标及社会因素的相关性,为城市规划和绿化管理提供了科学依据。

2 研究方法

本研究首先设计GSENet语义分割模型,通过深度学习技术对街景图像进行像素级分类,能够有效识别和提取绿化要素。模型的训练和验证基于Cityscapes数据集,这一大规模城市场景数据集为模型提供了丰富的学习样本。在此基础上,研究引入GVI作为定量评估指标,用于衡量城市绿化程度。通过结合GSENet的语义分割结果和GVI计算方法,运用地理分析工具实现对兰州主城区绿视率的精确量化和时空变化分析。研究框架如图1所示。
图1 基于GSENet模型的兰州市街景绿视率时空变化研究框架

Fig. 1 Research framework for spatiotemporal changes of GVI in Lanzhou's streetscape based on the GSENet model

2.1 GSENet模型设计

本文提出GSENet模型,该模型基于卷积神经网络,结合混合注意力机制,同时采用ResNet50[40]作为特征提取的主干网络(Backbone),以编码器-解码器为主要架构。编码器整合特征校准模块GSE-Block,融合空间注意力和通道注意力(Add),对主干网络每一层级的结果进行连接(Concat)。解码器采用高效自注意力模块(Mix-transforemr),高效多头自注意力部分(EMHSA)引入缩放因子C缩减输入向量维度,混合前馈网络部分(Mix-FFN)使用1*1卷积替换全连接层,结合了Transformer的全局建模能力和卷积局部处理能力。最终,模型通过分割头生成结果。模型结构如图2所示。
图2 GSENet模型整体架构

注: s为卷积步长;k为卷积核尺寸; c为缩放因子。

Fig. 2 Overall architecture of the GSENet model

(1)编码器特征校准模块(GSE-Block)
GSENet模型的核心架构基于ResNet50,这是一种广泛应用于计算机视觉任务的深度残差网络。ResNet50作为主干网络,为模型提供了强大的特征提取能力。选择ResNet50作为GSENet的主干网络主要基于其卓越的特征提取能力与较高的计算效率。尽管VGG[41]和MobileNet[42]在某些特定任务中表现良好,但VGG的高计算复杂度和MobileNet相对较弱的特征提取能力限制了它们在大规模语义分割任务中的应用。Xception[43]虽然具有轻量化优势,但在处理复杂场景时,其全局特征建模能力相较于ResNet50显得不足。因此,综合考虑性能与效率,最终选择ResNet50作为主干网络。GSENet在此基础上进行了改进,将网络分为4个主要层级(Layer),每个层级后都嵌入GSE-Block。这种设计旨在对特征进行精细的校准和提纯,从而提高模型的表现力。GSE-Block的设计体现了对多尺度特征和注意力机制的深入思考。如图2左下部分所示,GSE-Block由2个并行分支构成,各自负责不同维度的特征增强:
(1)通道注意力分支。这一分支采用了Hu等[44]提出的Squeeze-and-Excitation(SE)模块。SE模块通过全局平均池化压缩空间维度(GAP),然后使用全连接层学习通道间的相互依赖关系,最后通过sigmoid激活函数生成通道权重,可以表示为式(1)。这种机制使得模型能够自适应地调整不同通道的重要性,增强有意义的特征通道,抑制不重要的通道。
C h a n n e l _ A t t e n t i o n ( x )                         = S i g m o i d ( M L P ( G A P ( x ) ) ) x
式中:Sigmoid表示激活函数; MLP表示“卷积-激活-卷积”的组合,对应1*1_conv--RELU--1*1_conv;GAP表示全局平均池化,特征图尺寸变为1*1,通道维度不变。
(2)空间注意力分支。该分支创新性地引入了逐通道的空间注意力机制。它首先使用大尺寸卷积核(尺寸为7、步长为2)进行逐通道卷积操作。这一步骤的目的是聚合较大空间范围内的特征响应,有效捕获更广泛的上下文信息。随后,通过逐点(1*1)卷积进行特征变换,这不仅可以融合不同通道的信息,还能激发和重组这些聚合后的特征,表示为式(2)。最后,将处理后的信息重新分配到局部特征中,实现了空间维度上的注意力分配。与传统将通道压缩至一维的操作相比,这种方法能够更充分地捕捉特征图在空间和通道维度上的局部和全局关联,提升模型对复杂场景的理解和分类能力。
S p a t i a l _ A t t e n t i o n ( x )     = S i g m o i d ( M L P ( B N ( C o n v k = 7 ,   s = 2 ( x ) ) ) ) x
式中: BN(BatchNormal)表示批量归一化; Convk=7, s=2表示卷积核尺寸为7*7、步长为2的卷积。
(2)解码器高效自注意力模块(Mix-Transformer)
GSENet的编码器-解码器架构融合了多尺度特征处理和高效注意力机制。编码器的四层输出经过上采样至原图的1/4大小后进行通道间拼接,随后使用1*1卷积进行初步特征融合,为解码器提供丰富的多尺度信息。解码器借鉴了Vaswani提出的Transformer结构(见图2右下部分),并进行针对性改进:引入SegFormer模型[45]中的高效自注意力机制,通过对KV向量应用缩放因子C缩减其维度(见式(3)),能够输出高度非局部的注意力有效捕捉上下文信息,而不会使计算变得复杂[46]。此外,将传统Transformer中的前馈网络全连接层替换为1*1卷积操作,表示为式(4),1*1卷积弥补了局部注意力的同时保持了参数共享的优势[47-48]
A t t e n t i o n ( Q ,   K ,   V ) = S o f t m a x Q K T d h e a d V
M i x _ F F N = C o n v 1 * 1 ( G E L U ( C o n v 1 * 1 ( G r o u p ( C o n v 1 * 1 ( x ) ) ) ) )
式中: QKV是注意力机制的3个输入向量; Softmax表示归一化函数; d h e a d表示注意力头的数量; GELU表示激活函数; Group表示分组卷积。

2.2 GSENet模型训练

(1)配置及环境
本实验基于Python编程语言和PyTorch深度学习框架进行开发和实现。集成开发环境(IDE)选用了Visual Studio Code (VSCode),用于代码编写、调试和实验测试。实验环境部署于Linux操作系统的服务器上,配备16 GB RAM和一块NVIDIA Tesla V100-SXM2 GPU(32 GB显存)。本文使用迁移学习,对ResNet50模型微调,由于设备性能的限制,语义分割模型的参数设置如下:初始学习率为0.01,定义迭代次数为100 epoch,使用“early stop”监控MIOU。模型在训练过程中,使用Adam优化算法,学习率衰减使用“Poly”衰减策略,防止学习率过高或过低造成的梯度消失或梯度下降问题。
为了优化显存使用并减少训练资源消耗,本研究将样本图像尺寸调整为256像素×256像素和768像素×768像素共2种分辨率,并在不同的训练阶段灵活使用这2种尺寸。具体而言,在训练的前50个epoch中,采用256像素×256像素的小尺寸图像进行训练,以加快模型的收敛速度并节省计算资源;后50个epoch中,切换为768像素×768像素的大尺寸图像,进行更精细的训练,从而提升模型的分割精度。此外,为进一步提高模型的泛化能力,本文对样本数据集进行了随机裁剪、翻转等数据增强处理,增加了训练样本的多样性,有效避免了模型过拟合问题。
(2)损失函数
损失函数(Loss Function)是模型性能的关键衡量工具,它反映了预测值与真实值之间的差异。本文选择了FocalLoss损失函数专门针对类别不平衡问题,通过增加难以分类样本的权重,促使模型更加关注这些样本,提高分割精度。

2.3 绿视率计算方法

在图像语义分割的基础上,统计每张街景分类结果中代表绿色植被的像素个数占全图像素总数的比例获得绿视率。各个采样点位置处的绿视率为4个方向单幅绿视率的算数平均值。采样点集合的绿视率为N个采样点绿视率的算数平均值。
采样点绿视率计算公式:
G V I p o i n t = i = 1 4   A r e a g i = 1 4   A r e a t
采样点集合绿视率计算公式:
G V I s e t = j = 1 N G V I p o i n t N
式中: GVIpoint表示各采样点处的绿视率; Areag表示植被像素数量; Areai表示全幅影像的像素总数;GVIset表示采样点集合的平均绿视率,可以代表道路、社区、行政区的绿视率。

2.4 绿视率时空变化分析方法

本研究提出一个系统的绿视率时空变化分析方法。首先,通过统计分析评估研究区域的整体绿视率水平;其次,对不同时间段的GVI数据分别进行高/低聚类分析(Getis-Ord General G)[49]和热冷点分析(Getis-Ord Gi*)[50],以识别研究区域内GVI的显著高值区和低值区,揭示其空间分布特征;最后,通过对比分析不同时期的GVI数据,量化评估各区域GVI的变化趋势,统计GVI上升和下降的采样点数量及其占比,从而系统把握区域绿化水平的动态变化特征。这一分析方法可为其他城市区域的绿视率时空演变研究提供参考。
在分析过程中,热冷点分析法被用于揭示GVI的空间聚集模式,通过计算采样点的Z值和P值来确定区域显著性。其中, Z值反映某一位置GVI值与邻近区域的差异程度,用于识别热点(高值区域)和冷点(低值区域); P值则用于评估统计显著性,确定空间聚集的可靠性。
本研究对2个时间段的GVI及其差值进行热冷点分析,参数设置采用反距离(Inverse Distance)空间关系和欧几里得距离(Euclidean Distance)计算方法,距离阈值设为470 m以确保分析的可靠性。通过生成GVI差值的热冷点分布图,不仅识别出变化显著区域,也为后续深入分析提供基础。为进一步揭示绿视率分布及其变化的影响因素,本研究还分析了GVI与街景指标(建筑密集度、道路宽阔度和天空开阔度)和社会因素(网格尺度和街道级别人口密度)的相关性,以期从城市建成环境和人口分布特征解释绿视率的空间差异及其演变规律。

3 实验区概况及数据来源

3.1 实验区概况

西北地区是我国重要的生态建设区,也是全球植被变化最敏感的地区之一,覆盖了我国北方约75%的沙漠及全部戈壁滩。该地区生态环境脆弱,植被覆盖度低,生态系统稳定性差。由于极端气候加剧以及人类活动的影响,植被退化现象严重,生态系统恢复能力弱,荒漠化趋势加剧[51]。特别是在城市化进程中,植被面临着持续的胁迫和破坏,生态环境保护任务艰巨。作为西北地区重要的中心城市,兰州市位于中国西北部甘肃省、黄河上游,主城区呈东西狭长分布,总面积约1 631 km2,地势西高东低,城市建设沿黄河展开。兰州市属于典型带状高原河谷城市,而高原河谷地区是中国生态脆弱性的区域之一[52]。随着全球气候变化和人类活动的加剧,高原河谷城市植被面临着逐渐退化的危险。近年来,随着城市化进程的加快,兰州市基础设施建设和城市扩展速度显著提升。
基于此背景,本研究选取兰州市主城区的主要道路为研究对象,涵盖安宁区、七里河区、城关区和西固区(图3)。这些区域是兰州市的核心城区,人口密集,经济活跃,进行GVI评估和优化具有重要意义。红古区因与上述四区距离较远且被山地隔开,未纳入本研究范围。通过对兰州市2014—2023年的GVI时空变化进行分析,能够有效检验城市化进程对绿地变化的影响,为西北地区其他高原河谷城市的生态建设提供科学依据。
图3 研究区位置及路网图

Fig. 3 Location of the study area and road network map

3.2 数据源

本研究所使用的数据源及其特征如表2所示。
表2 研究数据来源及用途

Tab. 2 Research data sources and applications

数据类型 数据来源 时间/年 空间精度/分辨率 主要用途
街景数据 百度街景 2014—2023 256像素×256像素 GVI计算与分析
路网数据 OpenStreetMap 2023 矢量数据 街景采样点生成
训练样本 Cityscapes 1 024像素×2 048像素 模型训练
验证样本 自主标注 2014—2023 256像素×256像素 模型精度验证
人口分布数据 Oak Ridge National Laboratory 2014—2022 1 km×1 km GVI相关性分析
人口普查数据 第七次人口普查 2022 乡镇级别 GVI相关性分析

3.2.1 街景数据

本研究基于OpenStreetMap(OSM)[53]的路网数据,进行拓扑处理、删减和修正操作,按100 m间隔进行采样,导出共21 276个采样点的WGS_84经纬度坐标。所有采样点的位置使用百度API的坐标转化功能将WGS_84坐标转化为百度坐标,以统一坐标系,避免由于坐标系统差异导致街景影像位置偏差。每个采样点从4个方向进行爬取,最终获得约20万张百度街景图像。
为进一步保证数据质量和研究需求,本研究制定了系统的数据遴选流程(图4)。以2014—2018年为例,筛选结果确保每个点位至少有2年的数据,并且至少有一年的街景图片处于5—8月的物候期。最终,仅选择在5—8月的街景图片作为可用数据集合,确保最终使用的数据具有高度的时间和空间一致性,为后续分析提供了可靠的基础。
图4 街景图片筛选流程

Fig. 4 Street view selection flowchart

考虑到单一年份街景影像无法覆盖整个研究区,本研究借鉴了美国社区调查5年谷歌街景(Google Street View,GSV)GSV图像汇总数据的方法,采用多年的滚动汇总策略[38],将数据划分为2014—2018年和2019—2023年2个时段。这种划分的主要原因在于2个时间段分别包含5年数据,不仅能够体现中长期的变化趋势,还能使两阶段的街景影像覆盖范围较为接近,从而减少数据不均衡对分析结果的影响。研究区的21 276个采样点中,2014—2018年有街景影像覆盖的采样点为14 429个,而在2019—2023年,覆盖采样点增至17 173个。值得注意的是,由于山区道路地形复杂,交通条件较为艰难,街景影像的覆盖率较低。为了保证时间序列分析的可靠性,本文提取了2个时期的街景影像交集点,共计12 516个,最终经过筛选获取有效采样点11 877个。如图5所示,本文对不同等级道路的实际覆盖率进行了量化分析,但考虑到数据代表性,未将生活性街道、未分类道路及部分小路纳入统计范围。这些采样点覆盖了研究区域绝大部分主要道路网络,为深入分析区域GVI的时空演变特征奠定了坚实的数据基础。
图5 不同等级道路的街景覆盖率

Fig. 5 Street view coverage rate of roads at different levels

3.2.2 样本数据

本研究采用了开源Cityscapes数据集[39]进行语义分割模型训练,该数据集包含3 475张精细标注的图像,其中2 975张用于训练,500张用于验证。Cityscapes数据集原始包含34个类别,本文设置为19类。选择19类的原因在于,首先,19类标签是大多数文献中采用的标准,有助于与现有研究结果进行对比;其次,通过对非植被类别的细化处理,模型能够更精准地捕捉复杂场景中不同类别之间的细微特征差异,尤其在栅栏、建筑、道路等易混类别的边缘区域,显著提高了分割效果。

3.2.3 其他数据

2014—2022年1 km精度人口分布栅格数据[54],计算1 km×1 km网格内人口密度,与GVI进行相关性分析;第七次人口普查数据,计算乡镇级别的人口密度,与GVI进行相关性分析。

4 实验结果与分析

4.1 GSENet分割结果与精度评价

4.1.1 GSENet分割结果

使用GSENet模型对街景要素进行语义分割,得到每一幅图像中道路、天空、植被、建筑等类别的像素,利用Python计算街景中不同要素的占比。其中一幅街景影像的原图和结果如图6所示。
图6 GSENet模型分割结果

Fig. 6 Segmentation results of the GSENet model

4.1.2 GSENet模型精度评价

图像分割中通常使用许多标准来衡量模型的精度,根据 Garcia-Garcia等[55]的语义分割综述,并结合研究的背景,本文采用的评估方法是:交并比,精确率,召回率和F1分数 。由表3的结果可知,统一使用ResNet50作为主干网络的情况下,GSENet的平均交并比达到了0.747,明显高于其他模型。此外,GSENet在保持较高召回率的同时,将精确率提升至0.871,这意味着模型的预测结果更加精准。结合图6表4可知,对于道路、天空、植被和建筑等大面积类别,GSENet的表现尤为出色, F1分数均超过0.95。即使面对如栅栏和栏杆等较难分割的类别,GSENet依然展现出相对优异的性能,确认了该模型满足实验所需的语义分割指标精度要求。
表3 模型在 Cityscapes 验证集上的性能对比

Tab. 3 Performance comparison of different models on the Cityscapes validation set

模型 Backbone 平均交并比 平均精确率 平均召回率 F1分数
Unet Resnet50 0.660 0.806 0.760 0.779
PSPnet Resnet50 0.675 0.777 0.810 0.791
DeepLabV3 Resnet50 0.688 0.800 0.806 0.801
PSAnet Resnet50 0.737 0.849 0.833 0.840
GSENet Resnet50 0.747 0.871 0.829 0.847
表4 Cityscapes 验证集上各类别精度评价

Tab. 4 Accuracy evaluation of each category on Cityscapes validation set

类别 平均交并比 平均精确率 平均召回率 F1分数
道路 0.977 0.991 0.987 0.989
天空 0.933 0.957 0.974 0.965
植被 0.917 0.953 0.960 0.956
建筑 0.914 0.947 0.964 0.955
人行道 0.827 0.896 0.916 0.906
栅栏 0.580 0.812 0.670 0.733
信号灯 0.748 0.892 0.822 0.855
栏杆 0.565 0.770 0.680 0.721
为了评价模型对兰州街景数据分割性能,本文对200张街景图片进行语义标注,量化模型对于街景图像的分割效果。由表5数据可知GSENet在街景标注数据上的表现显著优于其他语义分割模型,显示出较强的泛化能力和较高的分割精度。根据 表5表6的结果,GSENet在街景标注数据集上的平均交并比为0.718,明显高于其他模型的表现,并且在精确率(0.853)和召回率(0.809)方面也表现突出, F1分数达到了0.830。同时,植被类别的平均交并比高达0.903,精确率和召回率均接近0.930以上, F1分数达到0.927,与其他模型相比,具有显著的提升。这一结果验证了GSENet在植被的分割任务中具有较好的适应性。
表5 模型在街景标注数据上的性能对比

Tab. 5 Performance comparison of models on street view annotation data

模型 Backbone 平均
交并比
平均
精确率
平均
召回率
F1分数
Unet Resnet50 0.632 0.795 0.727 0.744
PSPnet Resnet50 0.651 0.743 0.776 0.759
DeepLabV3 Resnet50 0.667 0.788 0.790 0.789
PSAnet Resnet50 0.698 0.812 0.806 0.801
GSENet Resnet50 0.718 0.853 0.809 0.830
表6 模型在街景标注数据上的性能对比

Tab. 6 Performance comparison of models on street view annotation data

类别 平均交并比 平均精确率 平均召回率 F1分数
道路 0.954 0.962 0.965 0.963
天空 0.918 0.936 0.954 0.945
植被 0.903 0.925 0.931 0.927
建筑 0.896 0.920 0.933 0.926
人行道 0.801 0.868 0.897 0.882
栅栏 0.530 0.762 0.656 0.705
信号灯 0.710 0.823 0.784 0.803
栏杆 0.525 0.693 0.662 0.677

4.1.3 GSENet模型消融实验

为了评估所提出改进方法的性能并验证其有效性,进行GSENet模型的消融实验,采用 ResNet50 主干特征提取网络,通过去除GSENet中所添加的模块,验证了这些模块的重要性。消融实验结果见表7。通过表7数据可知,在消融实验中,GSE-Block和Mix-Transformer模块均能提高模型的精度,且GSE-Block效果更佳。2种模块联合使用可以进一步提升模型性能,完整的GSENet模型比单一注意力模块比较, MIOU提高了1.0%~3.4%。
表7 GSENet模型不同模块在Cityscapes验证集上的性能对比

Tab. 7 Performance comparison of GSENet model components on Cityscapes validation set

模型 Backbone 注意力模块 平均交并比
GSENet Resnet50 0.685
GSENet Resnet50 GSE-Block 0.737
GSENet Resnet50 Mix-Transformer 0.713
GSENet Resnet50 GSE-Block+
Mix-Transformer
0.747

4.2 研究区绿视率时空变化分析

4.2.1 两阶段绿视率空间分布分析

表8可看出,兰州市主城区平均绿视率水平中等偏下,对比2019—2023年和2014—2018年的GVI统计数据,平均GVI上升了2.3%,而标准差变化不大,说明研究区内绿视率的变化较为稳定。表9进一步分析各行政区的情况,安宁区的平均GVI上升幅度最大,达3.5%;城关区的增幅最小,为1.9%。
表8 两阶段GVI统计特征对比

Tab. 8 Comparison of GVI statistical characteristics between two time periods

指标 2014—2018年 2019—2023年
GVI最大值 0.644 55 0.640 29
GVI最小值 0 0
GVI平均值 0.133 27 0.156 78
GVI标准差 0.111 72 0.118 85
表9 各行政区GVI平均值对比

Tab. 9 Comparison of average GVI in different administrative districts

行政区 平均GVI
2014—2018年 2019—2023年
安宁区 0.128 412 0.163 213
城关区 0.119 871 0.138 529
七里河 0.134 930 0.158 351
西固区 0.177 110 0.201 282
在ArcMap中的结果显示,兰州市GVI分布呈现出显著的空间异质性。从地理分布来看,西部和中部地区的绿视率水平明显高于东部地区。整体而言,GVI的分布格局呈现出不均匀的特征,高、中、低值区域交错镶嵌分布。使用数据分析工具对2个时间段的采样点GVI进行高/低聚类分析,结果显示2014—2018年的P值为0.000 046, Z值为5.70;而2019—2023年的P值为0.000 075,Z值为3.96。 2个时期的P值均远低于0.05(通常的显著性水平),这表明在这2个时间段内观察到的空间模式均具有统计学显著性,随机产生的可能性小于1%。2014—2018年的聚类强度更强, Z值的下降(从5.70降至3.96)指示了研究区域内绿视率分布的变化趋势,可能向更均匀或更分散的状态发展。为了进一步探讨GVI的空间分布特征,对2个时间段的采样点GVI进行了热冷点分析。分析结果显示, 2个时间段的热冷点分布几乎一致,故只展示2019—2023年采样点GVI热冷点分布图(图7)。冷点多呈线状分布,主要集中在以下区域:南滨河西路、西固西路、西柳沟立交桥交叉口及周边的西固街一带;深安黄河大桥和银安路区域;地铁一号线路周边;白银路街道、西园街道、临夏路街道、张掖路街道、酒泉路街道、雁北街道、皋兰街道和东岗街道。大部分冷点集中于城关区的西部和北部,这些区域多为交通枢纽或商业繁华地带,且有大量的商场、医院、酒店以及旅游景点。相较之下,热点则集中在西固区、黄河两岸以及城关区兰州大学周边。
图7 2019—2023年采样点GVI热冷点分布

Fig. 7 GVI hot and cold spot distribution map of sampling points from2019 to 2023

4.2.2 两阶段绿视率时空变化分析

表10通过对2个时间段的GVI差值进行统计分析发现,采样点GVI上升的比例达到70.9%,其中上升幅度超过10%的采样点仅占总数的8.4%。这表明大多数区域的GVI在2个时间段之间有一定程度的提升,但显著增长的区域相对较少。
表10 研究区GVI变化程度分布

Tab. 10 Distribution of GVI change magnitude in study area

GVI变化 GVI差值范围 占比/%
下降较多 (-0.41, -0.10] 2.5
下降较少 (-0.1, 0] 26.5
上升较少 (0, 0.10] 62.5
上升较多 (0.10, 0.47] 8.4
图8展示了两阶段道路级别的GVI差值的空间分布情况,GVI上升显著的道路集中在研究区中部偏西,主要是安宁区和七里河区西部内。GVI下降的道路较少,显著下降的主要有西津西路和东岗东路,其他则多为一些较短的生活性和服务性无名道路。通过对采样点GVI差值的热冷点分析(图9),结果显示GVI上升显著的热点区域集中在研究区的中部和东北部,主要为安宁区、西固区、七里河区西部区域。具体而言,兰州财经大学、甘肃农业大学、兰州交通大学、甘肃政法学院和西北师范大学等高校及其周边区域的GVI上升显著,与学校及周边绿化改进和环境改善有关。如图10所示,GVI的上升主要归因于行道树数量的增加及其生长带来的绿化效益。此外,中间绿化带内灌木丛的树木栽种也对提升绿视率发挥了重要作用。因此,行道树和中间绿化带的植物配置是提高城市绿视率的关键因素。
图8 道路GVI差值

Fig. 8 Road GVI difference map

图9 采样点GVI差值冷热点分析

Fig. 9 Hotspot and coldspot analysis of GVI differences at sampling points

图10 GVI显著上升点位的街景图示例

Fig. 10 Examples of streetscapes at locations with significant GVI increases

相对而言,冷点主要集中在城关区西部和七里河区东部,这些区域的GVI显著下降,尤其是兰州西站、西津西路周边区域,下降幅度较大。在城关区西部,冷点分布较为零散,不均匀。通过对大量街景的检查,发现这些区域GVI的下降与城市发展导致的绿地减少以及交通基础设施扩展等因素密切相关。如图11所示,GVI显著下降的原因主要是城市的不断扩张,乡村和郊区绿地的消失,以及道路拓宽所导致的行道树数量减少或消失。因此,城市规划应更加重视绿地保护和行道树的种植,以维护和提升城市的生态环境。总体来看,研究区内GVI的变化呈现出空间上的不均匀性,高校周边和部分中心区域的GVI显著提升,而交通枢纽和商业密集区则表现出GVI的下降趋势。
图11 GVI显著下降点位的街景图示例

Fig. 11 Examples of streetscapes at locations with significant GVI decreases

4.2.3 GVI与街景指标及社会因素的相关性分析

本研究分析了GVI与街景特征指标及社会因素间的相关关系。街景特征指标包括建筑密集度、道路宽阔度和天空开阔度(计算方法与GVI一致);社会因素则考察了不同空间尺度下的人口密度。表11呈现了2014—2018年及2019—2023年 2个时期内,GVI与上述指标的相关分析结果。研究发现,建筑密集度与GVI在2014—2018年呈显著负相关,且这种负相关性在2019—2023年进一步增强。相比之下,道路宽阔度与GVI仅表现出弱负相关,天空开阔度则在2个时期均保持较强的负相关性。其次,GVI与人口密度的关系表现出明显的尺度效应和类型差异。在总体层面,2个空间尺度(1 km× 1 km网格和街道)下的相关性均不显著。但进一步细分析发现,低矮植被的绿视率与人口密度(1 km×1 km格网)在2014—2018年和2019—2023年的相关系数分别为-0.32和-0.22,呈现显著的负相关性,而行道树绿视率与人口密度的相关性则不显著。这种"垂直分异"现象揭示了不同类型绿化在城市空间中的差异化分布特征。
表11 GVI与街景指标及社会因素的相关性

Tab. 11 Correlation between GVI and street view indicators and social factors

变量 皮尔逊相关系数 (z得分)
2014—2018年 2019—2023年
街景指标 建筑密集度 -0.387 (0.00* *) -0.448 (0.00* *)
道路宽阔度 -0.219 (4.76* *) -0.157 (1.86* *)
天空开阔度 -0.354 (0.00* *) -0.328 (1.14* *)
社会因素 人口密度(1 km×1 km格网级) -0.052 (0.421 0) -0.077 (0.234 0)
人口密度(人口普查街道级) 0.060 (0.671 0) 1.819e-05 (0.999 0)

注:**显著性水平为 0.01(双尾)。

表12呈现了GVI变化与街景特征指标及社会因素间的相关性分析结果。建筑密集度与GVI变化在2个时期均呈现负相关关系,相关系数从2014—2018年的-0.041下降至2019—2023年的-0.235,表明建筑密集区域的绿视率呈现下降趋势。道路宽阔度与GVI变化在2个时期均表现出较弱的相关性。天空开阔度与GVI变化呈现弱正相关。人口密度对GVI变化的影响表现出明显的尺度效应:在1 km×1 km网格尺度下,2个时期的相关系数分别为0.183和0.105,呈现弱正相关;在街道尺度下,2019—2023年的相关系数达到0.33,显示出较强的正相关关系。这一发现为理解居民需求与绿化改善之间的关系提供了新的视角。
表12 GVI变化与街景指标及社会因素的相关性

Tab. 12 Correlation between GVI changes and street view indicators and social factors

变量 皮尔逊相关系数 (z得分)
2014—2018年 2019—2023年
街景指标 建筑密集度 -0.041 (5.06**) -0.235 (3.43**)
道路宽阔度 0.074 (2.10**) -0.005 (0.525)
天空开阔度 0.167 (4.18**) 0.03 (4.6**)
社会因素 人口密度 (1 km×1 km格网级) 0.183 (0.004**) 0.105 (0.103)
人口密度 (人口普查街道级) 0.33 (0.016)

注:**显著性水平为 0.01(双尾)。

4.2.4 绿视率的城市规划意义与情感影响

本研究的GVI时空变化特征对城市规划具有重要启示。从城市规划视角看,GVI的差异化分布反映了城市发展中的功能分区矛盾。高校周边区域GVI显著提升,而商业中心和交通枢纽周边呈现下降趋势,说明当前城市建设中存在功能导向与生态需求的潜在冲突。这种冲突在建筑密集区尤为明显,GVI与建筑密集度的负相关关系在2019—2023年进一步加强(相关系数从-0.387降至-0.448),反映了城市高强度开发对绿化空间的挤压效应日益加剧。
从环境心理学角度分析,绿视率的变化可能影响居民的情感感知和行为模式。已有研究表明,街道绿化水平与居民的心理健康和情感体验密切相关,高绿视率区域往往能降低居民的压力水平,提升幸福感[56]。这一发现与相关研究结论相呼应,即城市景观要素会显著影响使用者的情感感知[57]。特别是在人口密集区域,本研究发现街道尺度下人口密度与GVI变化呈现较强的正相关(相关系数0.33),暗示了居民对绿化环境的需求可能推动了街道绿化的改善。
这些发现为城市规划实践提供了重要启示:应重视商业中心和交通枢纽区域的立体绿化,在保证功能性的同时提升绿视率水平;在高密度建成区应创新性地发展垂直绿化,缓解建筑密度与绿化空间的矛盾;同时需要将居民的情感需求纳入绿化规划考量,这需要城市规划、景观设计和环境心理学等多学科的交叉合作。

5 结论与讨论

5.1 结论

本研究针对国内街景数据GVI时空变化研究的不足,提出一套系统的分析框架。该框架包含深度学习模型的创新设计、街景数据的时序处理策略以及多尺度GVI变化分析方法。主要结论如下:
(1)模型创新与性能表现。在模型架构上,GSENet在编码器提出GSE-Block特征校准模块,融合通道注意力和逐通道的空间注意力,解码器中Mix-transformer模块通过引入缩放因子和1*1卷积替换全连接层,实现了高效的自注意力机制;在性能指标上,统一使用ResNet50作为主干网络的前提下,GSENet在MIOU指标上达到0.747,比PSPNet提升7.2%,比DeepLabv3提升5.9%;F1分数达到0.847,较主流模型平均提升5%,验证了模型在街景绿化要素提取中的有效性;在迁移能力方面,GSENet在街景标注数据上MIOU保持在0.718,较主流模型平均提高2%~7%,验证了模型的泛化性能。
(2)时序数据处理与GVI分析方法。本文采用五年滚动汇总策略处理街景数据,解决了单年份数据覆盖不全的问题。建立严格的街景影响筛选机制,确保时空一致性;本文设计多尺度分析框架,从采样点、道路和行政区3个层面系统评估GVI变化,通过统计分析、热冷点分析、对比分析等方法对研究区域GVI进行时空变化分析,在此基础上探索了GVI变化与街景指标和社会因素的相关性,为其他城市开展GVI时空变化研究提供了参考。
(3)绿视率变化特征与规划启示。兰州市主城区的GVI水平整体较低,亟待提升。时间维度上,2019—2023年的GVI相比2014—2018年平均提升了2.3%,但区域发展不均衡:安宁区提升3.5%,城关区仅增1.9%。空间分布上呈现显著的分异特征:高校周边区域GVI显著提升,而商业中心和交通枢纽周边呈现下降趋势。这种变化模式反映了城市功能分区对绿化发展的深远影响。社会因素方面,人口密度与GVI变化的相关性在不同尺度下存在差异,在街道尺度下呈现出较强的正相关。发现独特的“垂直分异”现象:人口密度与低矮植被呈显著负相关,但与行道树分布无明显关联。这一发现为城市绿化规划提供了重要启示:在高密度区域,应当通过多层次绿化配置来平衡发展需求与生态效益。建筑密集度与GVI变化的负相关关系在研究期间持续增强,揭示了城市建设与绿化空间之间的潜在冲突,为未来城市规划提供了重要参考。

5.2 讨论

近年来,城市绿化建设日益受到重视,街景大数据和深度学习技术为评估城市绿化水平提供了新的视角和方法。本研究通过将混合注意力机制引入语义分割模型,并结合多时相街景数据,实现了对城市GVI变化的系统评估。然而,在研究过程中也发现一些值得深入探讨的局限性。
首先,尽管GSENet在整体精度上优于传统模型,也提高了对栅栏栏杆等难分割类别的分类精度,但未能专门针对小尺度绿化元素(如草坪、花卉等)的识别进行优化。这种局限可能影响对城市微观绿化格局的准确评估,特别是在评价社区尺度的绿化水平时。其次,在数据维度方面,研究面临两个主要挑战: ① 街道级别详细数据的缺乏限制了对微观尺度GVI变化机制的深入分析; ② 社会经济指标(如居民收入水平、教育水平等)数据的不足,使得难以全面把握GVI变化的社会驱动因素。这些数据维度的局限性在一定程度上影响了对城市绿化发展规律的系统理解。此外,由于数据采集时间段与空间覆盖的限制,虽然可以一定程度反映时间轴上的变化,但全面深入探讨空间异质性和绿化动态变化仍存在一定局限。
基于上述认识,未来研究可在以下4个方面进行深化:
(1)探索更多样化的数据源与更细致的分析方法,以深入揭示GVI变化的驱动机制。
(2)结合更丰富的社会经济指标和城市规划政策,系统分析GVI变化的影响因素。
(3)开展跨城市比较研究,探讨不同城市发展阶段和地理环境下GVI的变化规律。
(4)发展更精细的植被分类方法,提高对不同类型绿化元素的识别能力,为城市绿化规划提供更具针对性的建议。
利益冲突: Conflicts of Interest
所有作者声明不存在利益冲突。
All authors disclose no relevant conflicts of interest.
作者贡献: Author Contributions
许新元和牛磊参与实验设计;许新元完成实验操作;许新元、牛磊参与论文的写作和修改。所有作者均阅读并同意最终稿件的提交。
The study was designed by XU Xinyuan and NIU Lei. The experimetal operation was completed by XU Xinyuan. The manuscript was drafted and revised by XU Xinyuan and NIU Lei. All the authors have read the last version of paper and consented for submission.
[1]
Fernow B E. The care of trees in lawn, street and park[M]. New York: H. Holt and company, 1910.

[2]
Wolf K L. Business district streetscapes, trees, and consumer response[J]. Journal of Forestry, 2005, 103(8):396-400. DOI:10.1093/jof/103.8.396

[3]
Guo A D, Yang J, Xiao X M, et al. Influences of urban spatial form on urban heat island effects at the community level in China[J]. Sustainable Cities and Society, 2020,53:101972. DOI:10.1016/j.scs.2019.101972

[4]
He B J, Zhu J, Zhao D X, et al. Co-benefits approach: Opportunities for implementing sponge city and urban heat island mitigation[J]. Land Use Policy, 2019, 86:147-157. DOI:10.1016/j.landusepol.2019.05.003

[5]
Lafortezza R, Sanesi G. Nature-based solutions: Settling the issue of sustainable urbanization[J]. Environmental Research, 2019, 172:394-398. DOI:10.1016/j.envres.2018.12.063

PMID

[6]
Yang J, Guan Y Y, Xia J H, et al. Spatiotemporal variation characteristics of green space ecosystem service value at urban fringes: A case study on Ganjingzi District in Dalian, China[J]. Science of the Total Environment, 2018, 639:1453-1461. DOI:10.1016/j.scitotenv.2018.05.253

[7]
Zardo L, Geneletti D, Pérez-Soba M, et al. Estimating the cooling capacity of green infrastructures to support urban planning[J]. Ecosystem Services, 2017, 26:225-235. DOI:10.1016/j.ecoser.2017.06.016

[8]
Onishi A, Cao X, Ito T, et al. Evaluating the potential for urban heat-island mitigation by greening parking lots[J]. Urban Forestry & Urban Greening, 2010, 9(4):323-332. DOI:10.1016/j.ufug.2010.06.002

[9]
Aronson M F, Lepczyk C A, Evans K L, et al. Biodiversity in the city: Key challenges for urban green space management[J]. Frontiers in Ecology and the Environment, 2017, 15(4):189-196. DOI:10.1002/fee.1480

[10]
Schneiderman J E, He H S, Thompson F R, et al. Comparison of a species distribution model and a process model from a hierarchical perspective to quantify effects of projected climate change on tree species[J]. Landscape Ecology, 2015, 30(10):1879-1892. DOI:10.1007/s10980-015-0 217-1

[11]
肖希, 韦怡凯, 李敏. 日本城市绿视率计量方法与评价应用[J]. 国际城市规划, 2018, 33(2):98-103.

[Xiao X, Wei Y K, Li M. The method of measurement and applications of visible green index in Japan[J]. Urban Planning International, 2018, 33(2):98-103.]

[12]
华野毓, 钱雨果, 赵文慧, 等. 基于多源数据的绿视率量化方法综述[J]. 生态学报, 2024, 44(23):10953-10963.

[Hua Y Y, Qian Y G, Zhao W H, et al. A review of methods for quantifying green visibility based on multi-source data[J]. Acta Ecologica Sinica, 2024, 44(23):10953-10963.] DOI:10.20103/j.stxb.202311162491

[13]
Spano G, D’Este M, Giannico V, et al. Association between indoor-outdoor green features and psychological health during the COVID-19 lockdown in Italy: A cross-sectional nationwide study[J]. Urban Forestry & Urban Greening, 2021,62:127156. DOI:10.1016/j.ufug.2021.127156

[14]
刘晓天, 孙冰, 廖超, 等. 基于街景图像的城市街道绿视率计量方法比较分析[J]. 江西农业大学学报, 2020, 42(5):1022-1031.

[Liu X T, Sun B, Liao C, et al. Comparison of computational methods for urban street green view indexes based on street view images[J]. Acta Agriculturae Universitatis Jiangxiensis, 2020, 42(5):1022-1031.] DOI:10.13836/j.jjau.2020114

[15]
Yang J, Zhao L S, McBride J, et al. Can you see green? Assessing the visibility of urban forests in cities[J]. Landscape and Urban Planning, 2009, 91(2):97-104. DOI:10.1016/j.landurbplan.2008.12.004

[16]
Asgarzadeh M, Lusk A, Koga T, et al. Measuring oppressiveness of streetscapes[J]. Landscape and Urban Planning, 2012, 107(1):1-11. DOI:10.1016/j.landurbplan.2012.04.001

[17]
Li X J, Zhang C R, Li W D, et al. Who lives in greener neighborhoods? The distribution of street greenery and its association with residents' socioeconomic conditions in Hartford, Connecticut, USA[J]. Urban Forestry & Urban Greening, 2015, 14(4):751-759. DOI:10.1016/j.ufug.2015.07.006

[18]
Li X J, Zhang C R, Li W D, et al. Assessing street-level urban greenery using Google Street View and a modified green view index[J]. Urban Forestry & Urban Greening, 2015, 14(3):675-685. DOI:10.1016/j.ufug.2015.06.006

[19]
Seiferling I, Naik N, Ratti C, et al. Green streets-quantifying and mapping urban trees with street-level imagery and computer vision[J]. Landscape and Urban Planning, 2017, 165:93-101. DOI:10.1016/j.landurbplan.2017.05.010

[20]
Ye Y, Richards D, Lu Y, et al. Measuring daily accessed street greenery: A human-scale approach for informing better urban planning practices[J]. Landscape and Urban Planning, 2019,191:103434. DOI:10.1016/j.landurbplan.2018.08.028

[21]
Goel R, Garcia L M T, Goodman A, et al. Estimating city-level travel patterns using street imagery: A case study of using Google Street View in Britain[J]. PLoS One, 2018, 13(5):e0196521. DOI:10.1371/journal.pone.0196521

[22]
张丽英, 裴韬, 陈宜金, 等. 基于街景图像的城市环境评价研究综述[J]. 地球信息科学学报, 2019, 21(1):46-58.

DOI

[Zhang L Y, Pei T, Chen Y J, et al. A review of urban environmental assessment based on street view images[J]. Journal of Geo-information Science, 2019, 21(1):46-58.] DOI:10.12082/dqxxkx.2019.180311

[23]
Kelly C M, Wilson J S, Baker E A, et al. Using google street view to audit the built environment: Inter-rater reliability results[J]. Annals of Behavioral Medicine, 2013, 45(S1):108-112. DOI:10.1007/s12160-012-9419-9

[24]
Biljecki F, Ito K. Street view imagery in urban analytics and GIS: A review[J]. Landscape and Urban Planning, 2021,215:104217. DOI:10.1016/j.landurbplan.2021.104217

[25]
孟庆岩, 汪雪淼, 孙云晓, 等. 基于街景数据的绿视率模型构建及其影响因子研究[J]. 生态科学, 2020, 39(1): 146-155.

[Meng Q Y, Wang X M, Sun Y X, et al. Construction of green view index model based on street view data and research on its influence factors[J]. Ecological Science, 2020, 39(1):146-155.] DOI:10.14108/j.cnki.1008-8873.2020.01.019

[26]
张佳晖, 孟庆岩, 孙云晓, 等. 城市行道树绿视量指数研究[J]. 地球信息科学学报, 2017, 19(6):838-845.

DOI

[Zhang J H, Meng Q Y, Sun Y X, et al. Study on urban green view index[J]. Journal of Geo-information Science, 2017, 19(6):838-845.] DOI:10.3969/j.issn.1560-8999.2017.06.013

[27]
彭锐, 刘海霞. 城市道路绿视率自动化计算方法研究[J]. 北京规划建设, 2018(4):61-64.

[Peng R, Liu H X. Study on the automatic calculation method of green view rate of urban road[J]. Beijing Planning Review, 2018(4):61-64.]

[28]
彭巍, 唐丽玉, 胡颖, 等. 基于街景图像的福州城区主要道路绿视率研究[J]. 测绘与空间地理信息, 2022, 45(1):62-66.

[Peng W, Tang L Y, Hu Y, et al. Study on green view index of main roads in Fuzhou City based on street view images[J]. Geomatics & Spatial Information Technology, 2022, 45(1):62-66.]

[29]
张炜, 周昱杏, 杨梦琪. 全景绿视率自动识别和计算研究[J]. 风景园林, 2019, 26(10):89-94.

[Zhang W, Zhou Y X, Yang M Q. Research on automatic identification and measurement of panoramic visible green index[J]. Landscape Architecture, 2019, 26(10):89-94.] DOI:10.14085/j.fjyl.2019.10.0089.06

[30]
Yang Y Y, He D S, Gou Z H, et al. Association between street greenery and walking behavior in older adults in Hong Kong[J]. Sustainable Cities and Society, 2019,51:101747. DOI:10.1016/j.scs.2019.101747

[31]
陶贵鑫, 周宏轩, 王昭清, 等. 道路绿视率不同识别方法比较研究——以徐州市为例[J]. 西北林学院学报, 2024, 39(2):156-165.

[Tao G X, Zhou H X, Wang Z Q, et al. A comparative study on different identification methods for road green wiew index: A case study of Xuzhou City[J]. Journal of Northwest Forestry University, 2024, 39(2):156-165.] DOI:10.3969/j.issn.1001-7461.2024.02.20

[32]
Lu Y, Yang Y Y, Sun G B, et al. Associations between overhead-view and eye-level urban greenness and cycling behaviors[J]. Cities, 2019, 88:10-18. DOI:10.1016/j.cities.2019.01.003

[33]
Chen X, Meng Q Y, Hu D, et al. Evaluating greenery around streets using Baidu panoramic street view images and the panoramic green view index[J]. Forests, 2019, 10(12):1109. DOI:10.3390/f10121109

[34]
张永霖, 付晓. 基于深度学习街景影像解译和景感生态学的视域环境定量解读[J]. 生态学报, 2020, 40(22):8191-8198.

[Zhang Y L, Fu X. Quantitative interpretation of visual environment based on street view images analyzed with deep learning and from Lendsenses Ecology perspective[J]. Acta Ecologica Sinica, 2020, 40(22):8191-8198.]

[35]
王鸿雁, 车向红, 徐辛超, 等. 利用 DeepLabv3+模型提取分析街景图像绿视率——以北京三环内为例[J]. 测绘通报, 2024(3):88-94.

DOI

[Wang H Y, Che X H, Xu X C, et al. Green visible index extraction and analysis of street view image using DeepLabv3+model: Taking within the Third Ring Road in Beijing as an example[J]. Bulletin of Surveying and Mapping, 2024(3):88-94.] DOI:10.13474/j.cnki.11-2246.2024.0315

[36]
Aikoh T, Homma R, Abe Y. Comparing conventional manual measurement of the green view index with modern automatic methods using google street view and semantic segmentation[J]. Urban Forestry & Urban Greening, 2023,80:127845. DOI:10.1016/j.ufug.2023.127845

[37]
Guo M H, Xu T X, Liu J J, et al. Attention mechanisms in computer vision: A survey[J]. Computational Visual Media, 2022, 8(3):331-368. DOI:10.1007/s41095-022-0271-y

[38]
Li X J. Examining the spatial distribution and temporal change of the green view index in New York City using Google Street View images and deep learning[J]. Environment and Planning B: Urban Analytics and City Science, 2021, 48(7):2039-2054. DOI:10.1177/2399808320962511

[39]
Cordts M, Omran M, Ramos S, et al. The cityscapes dataset for semantic urban scene understanding[C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2016:3213-3223. DOI:10.1109/CVPR.2016.350

[40]
He K M, Zhang X Y, Ren S Q, et al. Deep residual learning for image recognition[C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2016:770-778. DOI:10.1109/CVPR.2016.90

[41]
Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[EB/OL]. 2014: 1409.1556. https://arxiv.org/abs/1409.1556v6.

[42]
Howard A G, Zhu M L, Chen B, et al. MobileNets: Efficient convolutional neural networks for mobile vision applications[EB/OL]. 2017: 1704.04861. https://arxiv.org/abs/1704.04861v1.

[43]
Chollet F. Xception: Deep learning with depthwise separable convolutions[C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2017:1251-1258. DOI:10.1109/CVPR.2017.195

[44]
Hu J, Shen L, Sun G. Squeeze-and-excitation networks[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. IEEE, 2018:7132-7141. DOI:10.1109/CVPR.2018.00745

[45]
Xie E Z, Wang W H, Yu Z D, et al. SegFormer: Simple and efficient design for semantic segmentation with transformers[C]. Neural Information Processing Systems, 2021,34:12077-12090.

[46]
Wang X L, Girshick R, Gupta A, et al. Non-local neural networks[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. IEEE, 2018:7794-7803. DOI:10.1109/CVPR.2018.00813

[47]
LeCun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11):2278-2324. DOI:10.1109/5.726791

[48]
Gu J X, Wang Z H, Kuen J, et al. Recent advances in convolutional neural networks[J]. Pattern recognition, 2018, 77:354-377. DOI:10.1016/j.patcog.2017.10.013

[49]
Getis A, Ord J K. The analysis of spatial association by use of distance statistics[J]. Geographical Analysis, 1992, 24(3):189-206. DOI:10.1111/j.1538-4632.1992.tb00261.x

[50]
Ord J K, Getis A. Local spatial autocorrelation statistics: Distributional issues and an application[J]. Geographical Analysis, 1995, 27(4):286-306. DOI:10.1111/j.1538-4632.1995.tb00912.x

[51]
刘轩, 粟晓玲, 刘雨翰, 等. 西北地区生态干旱脆弱性评估[J]. 水资源保护, 2023, 39(3):65-73.

[Liu X, Su X L, Liu Y H, et al. Vulnerability assessment of ecological drought in northwest China[J]. Water Resources Protection, 2023, 39(3):65-73.] DOI:10.3880/j.issn.1004-6933.2023.03.008

[52]
Jiang S S, Chen X, Smettem K, et al. Climate and land use influences on changing spatiotemporal patterns of mountain vegetation cover in southwest China[J]. Ecological Indicators, 2021,121:107193. DOI:10.1016/j.ecolind.2020.107193

[53]
OpenStreetMap contributors. OpenStreetMap database[DB/OL].[2024-03-06]. https://www.openstreetmap.org.

[54]
Oak Ridge National Laboratory. LandScan Global 2014-2022[DB/OL].[2024-10-29]. https://landscan.ornl.gov/.

[55]
Garcia-Garcia A, Orts-Escolano S, Oprea S, et al. A review on deep learning techniques applied to semantic segmentation[EB/OL]. 2017:1704.06857. 704.06857v1.

[56]
高翔, 董贺轩. 街道步行空间绿视率与步行愉悦度的关联研究——基于武汉多类型街道的实证比较[J]. 西部人居环境学刊, 2023, 38(2):52-59.

[Gao X, Dong H X. A study on the relationship between green view and walking pleasure in street walking space: An empirical comparison based on multiple types of streets in Wuhan[J]. Journal of Human Settlements in West China, 2023, 38(2):52-59.] DOI:10.13791/j.cnki.hsfwest.20230208

[57]
齐子吟, 李君轶, 贺哲, 等. 城市街道景观色彩对游客情感感知影响——基于街景图像的研究[J]. 地球信息科学学报, 2024, 26(2):514-529.

DOI

[Qi Z Y, Li J Y, He Z, et al. The influence of urban streetscape color on tourists' emotional perception—Based on streetscape images[J]. Journal of Geo-information Science, 2024, 26(2):514-529.] DOI:10.12082/dqxxkx.2024.230181

文章导航

/