Exploring Urban Renewal Consumption: A Rapid Estimation Method for Annual Urban Construction Waste Production Based on High-Resolution Remote Sensing Images

  • HUANG Lei , 1 ,
  • LIN Shaofu 1 ,
  • LIU Xiliang , 1, * ,
  • WANG Shaohua 2 ,
  • CHEN Guihong 3 ,
  • MEI Qiang 4
Expand
  • 1. School of Computer Science, Beijing University of Technology, Beijing 100124, China
  • 2. State Key Laboratory of Remote Sensing Science, Aerospace Information Research Institute, Chinese Academy of Sciences, Beijing 100094, China
  • 3. Beijing Big Data Centre, Beijing 100101, China
  • 4. Navigation College, Jimei University, Xiamen 361021, China
* LIU Xiliang, E-mail:

Received date: 2024-04-11

  Revised date: 2024-06-27

  Online published: 2024-09-10

Supported by

National Key Research and Development Program of China(2020YFF0305401)

Abstract

Construction waste is an inevitable byproduct of urban renewal processes, causing serious environmental pollution and ecological pressure. Precisely quantifying the annual production of urban construction waste and the resource conversion rate is crucial for assessing the cost of urban renewal. Traditional manual methods of estimating construction waste production rely heavily on statistical data and historical experience, which are inflexible, time-consuming, and labor-intensive in practical application, and need improvement in terms of accuracy and timeliness. Existing deep learning models have relatively poor capabilities in extracting and integrating small targets and multi-scale features, making it difficult to handle irregular shapes and fragmented detection areas. This paper proposes a Multi-Scale Feature Fusion and Attention-Enhanced Network (MS-FF-AENet) based on High-resolution Remote Sensing Images (HRSIs) to dynamically track and detect changes in buildings and construction waste disposal sites. This paper introduces a novel encoder-decoder structure, utilizing ResNet-101 to extract deeper features to enhance classification accuracy and effectively mitigate the gradient vanishing problem caused by increasing the depth of convolutional neural networks. The Depthwise Separable-Atrous Spatial Pyramid Pooling (DS-ASPP) with different dilation rates is constructed to address insufficient receptive fields, resolving the issue of discontinuous holes when extracting large targets. The Dual Attention Mechanism Module (DAMM) is employed to better preserve spatial details, enriching feature extraction. In the decoder, Multi-Scale Feature Fusion (MS-FF) is utilized to capture contextual information, integrating shallow and intermediate features of the backbone network, thereby enhancing extraction capabilities in complex scenes. MS-FF-AENet is employed to extract and analyze changes in building areas at different time periods, calculating the engineering waste from new constructions and demolition waste from demolished buildings, thereby obtaining the annual production of urban construction waste. Furthermore, MS-FF-AENet is utilized to extract construction waste disposal sites at different time periods, estimating the amount of construction waste landfill based on changes in landfill waste, indirectly assessing the resource conversion rate of urban construction waste. Based on HRSIs of Changping District, Beijing from 2019 to 2020, experimental results demonstrate: (1) Among a series of baseline models including UNet, SegNet, PSPNet, DeepLabV3+, DSAT-Net、ConvLSR-Net and SDSC-UNet, MS-FF-AENet exhibits advantages in terms of precision and efficiency in extracting buildings and construction waste; (2) During the period from 2019 to 2020, the annual production of construction waste in the study area due to urban renewal is approximately 4 101 156.5 tons, with approximately 2 251 855.872 tons being landfill waste and approximately 1 849, 300.628 tons being resource conversion waste, resulting in a construction waste resource conversion rate of 45.09%, further corroborating government statistical reports. This paper provides a convenient and effective analysis approach for accurate measurement of the cost of urban renewal.

Cite this article

HUANG Lei , LIN Shaofu , LIU Xiliang , WANG Shaohua , CHEN Guihong , MEI Qiang . Exploring Urban Renewal Consumption: A Rapid Estimation Method for Annual Urban Construction Waste Production Based on High-Resolution Remote Sensing Images[J]. Journal of Geo-information Science, 2024 , 26(9) : 2192 -2212 . DOI: 10.12082/dqxxkx.2024.240199

1 引言

城市更新[1]通常涉及老旧建筑拆除、土地重新规划和新建筑物建设,是解决土地短缺、优化城市空间布局和功能定位的有效方法。受城市污染[2]、土地资源[3]、区域政策等影响,老旧建筑的拆除与改造成为满足城市更新要求的重要手段。特大城市亟需进行城市更新,这是城市规划、智慧城市建设和可持续发展的有效手段[4]
建筑垃圾是城市更新过程中不可避免的产物,粗放式大拆大建的城市化建设模式导致了建筑垃圾的显著增长,造成严重的环境污染、人类健康和生态压力[5]。据统计,每10 000 m2的新建建筑产生500~600 t建筑垃圾,而每10 000 m2的拆除建筑产生8 000~13 000 t建筑垃圾[6]。欧盟(European Union, EU)的建筑业每年产生超过5亿t的建筑垃圾,占欧盟产生所有垃圾的50%[7]。在美国,建筑业每年产生7亿t的建筑垃圾[8]。中国同样也面临着严峻的问题,中国城镇化水平以前所未有的速度从2011年的51.83%提高到2022年的65.22%[9],建筑垃圾占城市生活垃圾总量的40%以上,随着过去十几年中国城市化的快速发展,2006—2020年,中国建筑垃圾产生量从4.70亿t急剧增加到30.37亿t, 2021年达到32.09亿t,预计2026年将超过40.00亿t[10]。 因此,亟需精确估算建筑垃圾年产量,并实现适当的废物处理以改善城市质量,衡量城市更新过程中的代价问题。
当前已有多种建筑垃圾年产量估算方法。传统方式多采用人工调研、实地测量等估算建筑垃圾年产量。Wu等[11]将建筑垃圾估算方式分为6种类型:现场访问(Site Visit, SV)、生成率计算(Generation rate Calculation, GRC)、寿命分析(Lifetime Analysis, LA)、分类系统积累(Classification System Accumulation, CSA)、变量建模(Variables Modelling, VM)和其他方法。但传统的估算建筑垃圾产量的方法都有很大的局限性,耗费大量人力物力实时性不高,且受人工干预主观性较强。
近年来,随着遥感技术的不断发展,借助深度学习在目标提取领域大规模应用[12],通过高分遥感影像(High-esolution Remote Sensing Images, HRSIs)在宏观层面估算建筑垃圾年产量成为当前研究的重要方向。HRSIs具有空间分辨率高、时效性强、信息量大等优点,适合大范围建筑垃圾变化宏观观测。因此,通过深度学习语义分割模型动态分析不同时期的HRSIs中建筑垃圾消纳场内填埋垃圾的体积变化量,可以快速高效地衡量出城市建筑垃圾的产量。然而,建筑垃圾由建造过程中的工程垃圾与拆除过程中的拆除垃圾组成,除了被资源化重新利用的垃圾外,剩下的将进入建筑垃圾消纳场中处理[6]。因此,单纯识别建筑垃圾消纳场中的垃圾堆体变化,并不能精确的估算城市建筑垃圾的产量,需要综合考虑影像中建筑物面积和建筑垃圾面积的变化,细分工程垃圾与拆除垃圾。这类方法可以消除由中间变量引起的潜在误差,分析出城市建筑垃圾填埋量和资源转化量,进一步精确估算城市建筑垃圾产量和消纳能力。
建筑物面积变化首先需要进行建筑物识别[13],目前已经有了非常多的研究工作[14]。使用深度学习的建筑残差细化网络(Building Residual Refine Network, BRRNet)[15]以及使用全卷积网络(Full Convolutional Network, FCN)和条件随机场(Conditional Random Fields, CRF)改进的自动建筑提取方法[16],都可以有效地提取形状复杂的建筑物。基于编码器-解码器结构的DeepLabV3+[17]是语义分割领域发展的里程碑,大幅度提高了算法识别精度。在此基础上,融入密集连接的卷积神经网络(Densely Connected Convolution Neural Network, DCNN)和残差网络(Residual Network, ResNet)结构,提出的密集残差神经网络(Dense Residual Neural Network, DR-Net)[18],进一步提高了建筑物提取效率。随着研究的深入,人们发现在提高精度的同时,还应考虑模型的轻量化,在追求快速推理方面,基于U-Net[19]架构进行了优化,结合残差学习,空洞空间金字塔池和焦点损失的优点,构建轻量级RU-Net[20]模型提取建筑物,与DeepLabV3+相比,减少了大量神经网络参数量与内存占用量,效率提高了3~4倍。
基于HRSIs的建筑垃圾消纳场的识别目前也有了一定的研究成果。早期人们主要结合GIS预测建筑垃圾的堆积情况,例如,Gu等[21]基于资源三号卫星图像的数字高程模型(Digital Elevation Model, DEM)变化信息,结合坡度和坡向,得到建筑垃圾堆积情况。随着卷积神经网络(Convolutional Neural Networks, CNN)[22]的提出,基于深度学习方法快速提取建筑垃圾成为当前的研究方向,例如,Davis等[23]设计了一种深度卷积神经网络,模拟了难以进行现场分类的真实建筑工地场景,利用建筑工地垃圾箱中沉积的废物数字图像,识别7种不同建筑垃圾。Li等[24]提出了一种具有多重增强的位置引导关键点网络(Location-guided Key Point Network with Multiple Enhancements, LKN-ME)来执行城市固体垃圾检测任务。Chen等[25]提出一种形态索引和分层分割相结合的方法,通过比较建筑垃圾与周围地面物体在光谱、几何形状、纹理等方面的差异,提高建筑垃圾与其他物体的可分离性,有效应对建筑垃圾与周围地面物体光谱混淆的问题。Liu等[26]使用DeepLabV3+网络和编码器来定位浅层特征和高级语义特征,识别遥感影像中非法堆积的建筑垃圾的位置、类型、面积和体积特征。
综上所述,城市建筑垃圾产量估算方法、基于HRSIs的建筑物和建筑垃圾识别等方面的应用研究已有较多成果,但仍然存在几点不足。
(1) 传统建筑垃圾估算主要是基于统计数据计算法[27-28],结合政府与建筑业相关部门的统计数据粗略估算全年的建筑垃圾产量,这种方法严重依赖历史数据和统计方法,可能会因数据质量问题导致偏差,在实际应用中缺乏灵活性,耗费大量人力、物力和时间,缺乏高精度和高效率。
(2) 基于建设工程项目清单估算每个项目产生的建筑垃圾[29],然后求和得出建筑垃圾总量,可以有效提升估算精度,但这种方法的准确性在很大程度上取决于清单的准确性和完整性。清单中的遗漏或不准确将导致实际应用中的偏差。
(3) 借助深度学习算法和高分遥感影像助力城市更新的变化检测也存在不足。传统网络针对小目标、多尺寸和多形态建筑物识别的准确性相对较低[30],图像分割较差[31],多尺度特征融合不足可能会导致错误分类[32];普通卷积通常无法很好地保留空间细节,固定感受野不能有效捕捉全局背景[33],在提取大型建筑物时总是产生不连续的孔洞[34],导致边界模糊和遗漏;建筑垃圾往往处于特征信息相似的复杂环境中,使得网络难以提取隐性特征。并且建筑垃圾具有形状不规则、碎片化和分散的特点,给精确检测带来很大困难。
为减少人力和时间成本,提高建筑垃圾产量估算的效率与精度,本文构建了一个灵活的多尺度特征融合注意力增强网络,同时满足建筑物动态提取与建筑垃圾消纳场变化跟踪识别需求,进而基于提取结果精确建模计算出区域建筑垃圾年产量和资源转化率。

2 方法设计

本节详细介绍了基于遥感影像利用深度学习算法精确估算城市建筑垃圾年产量的方法,总体系统架构如图1所示。针对原始的GF-2号影像通过辐射校准、大气校正和正射影像校正等方式进行预处理,采用半自动标注方法建立建筑物和建筑垃圾消纳场样本库。构建了基于编码器-解码器结构的MS-FF-AENet,通过特征提取,多尺度特征融合和上采样,分别针对建筑物、建筑垃圾消纳场内部区域进行识别提取。融合两年的影像数据,得出各区域建筑物面积变化量,结合相关生成率估算出建筑垃圾(包括工程垃圾和拆除垃圾)年产量。由于除了被资源化重新利用的建筑垃圾外,剩下的建筑垃圾都将进入建筑垃圾消纳场中填埋,将计算所得的实际建筑垃圾与填埋场内增加的建筑垃圾作对比分析,得出区域建筑垃圾资源转化率。
图1 建筑垃圾年产量计算总体系统架构

Fig. 1 Overall system architecture for calculating annual production of construction waste

然而,从复杂背景的遥感图像中精准地提取建筑物和建筑垃圾区域,需要更深层、更具体的网络架构。为了解决固定的感受野在提取大型目标时总是产生不连续的孔洞问题,需要构建不同膨胀率的空洞卷积来扩大感受野。普通卷积通常无法很好地保留空间细节,导致边界模糊和遗漏小型目标,需要利用注意力增强机制使特征提取的更丰富。为了解决多尺度特征融合不足导致错误分类,需要融合主干网络的浅层和中层特征,更好地融合上下文信息。因此,综合上述改进措施,本文构建了灵活高效的多尺度特征融合注意力增强网络MS-FF-AENet,提高了对小目标、多尺寸和多形态建筑物识别的准确性;有效解决了在提取大型建筑物时产生不连续的孔洞问题;得益于双注意力增强机制,减少了噪声干扰,提高了模型提取形状不规则和碎片化建筑垃圾的精度。

2.1 多尺度特征融合与注意力增强网络(MS-FF-AENet)

在编码器中,MS-FF-AENet使用RestNet-101作为骨干网络,同时引入双注意力机制模块(Dual Attention Mechanism Module, DAMM)[35]和深度可分离空洞空间金字塔池(Depthwise Separable-Atrous Spatial Pyramid Pooling, DS-ASPP),在解码器中,引入多尺度特征融合(Multi-scale Feature Fusion, MS-FF)和上采样恢复图像的空间分辨率和位置信息,MS-FF-AENet的网络结构如图2所示。
图2 MS-FF-AENet网络结构

Fig. 2 MS-FF-AENet network structure

2.1.1 编码器 (Encoder)

采用ResNet-101作为编码器(图2编码器部分)的骨干网络,通过卷积层和池化层进行深层卷积。将Layer4中卷积层的步长设置为1,可以避免特征图的尺寸缩小,从而增加输出特征图的分辨率,这有助于保留更多的细节信息,提取到更稠密的特征。最终获得原始图像大小1/16的高级特征图,实验证明,当编码器的输出步长为16时,可以实现速度和精度之间的最佳平衡。DS-ASPP模块包括一个1×1卷积、3个3×3的深度可分离空洞卷积扩大感受野,膨胀率分别为(6,12,18)以及一个全局池化操作。引入由位置注意力和通道注意力组成的DAMM,与DS-ASPP并联,提取多尺度的上下文信息,帮助整个网络获得更好的鲁棒性。在编码器结构中,将输入图像通过ResNet-101主干网络,获得低级特征图和高级特征图,其中低级特征图进入解码器,高级特征图分别经过DAMM和DS-ASPP模块,将结果进行元素求和得到编码器的输出,并作为解码器的输入。

2.1.2 解码器 (Decoder)

解码器(图2解码器部分)负责恢复图像的空间分辨率和位置信息。在解码阶段,添加了一个多尺度特征融合模块,融合骨干网络的低级和中级特征。首先,对编码阶段得到的特征图进行四倍双线性插值上采样,与编码器骨干网络Layer1层生成的中级特征图进行融合。其次,将结果经过3×3卷积后进行2倍双线性插值上采样,与骨干网络Layer0经过1×1卷积后生成的特征图融合,增强网络获取多尺度上下文特征的能力。最后,对特征图进行 3×3卷积再进行2倍双线性插值上采样,得到最终更精细的分割结果。

2.2 MS-FF-AENet具体组成模块

本节具体介绍MS-FF-AENet的改进方法,提升算法在复杂场景中提取建筑物和建筑垃圾的能力,解决图像识别中出现的多尺度特征融合不足、边界模糊和计算量大等问题。

2.2.1 ResNet-101特征提取骨干网络

在多尺度特征识别中,由于浅层网络只能提取图像边缘、颜色、纹理等特征,为了获取更多的特征以提高分类识别的精度,需要加深网络层数来提取图像的抽象特征。然而盲目地增加卷积神经网络的深度会带来梯度爆炸或者消失等问题,导致模型难以训练、准确度下降。何恺明等[36]于2016年提出了ResNet网络,通过引入残差连接(Residual Connection, RC)来解决这个问题。ResNet引入跨层的跳跃连接,将前一层的输出直接添加到后一层的输出上,避免了梯度消失问题。ResNet-101是ResNet系列中的一种深度卷积神经网络,相比ResNet-34和ResNet-50等较浅的网络,ResNet-101具有更深的网络结构和更多的卷积核,能够更好地捕捉图像中的深层特征,提高模型性能,具有更好的泛化能力。因此,本研究选择ResNet-101作为MS-FF-AENet编码器的骨干网络进行特征提取(图2 ResNet-101部分)。

2.2.2 双注意力机制 (DAMM)

将位置注意力模块(Position Attention Module, PAM)和通道注意力模块(Channel Attention Module, CAM)并联,解决了模型在提取遥感图像时拟合速度慢、边缘目标分割不精确、大尺度目标分割不一致以及存在遗漏等难题[37]。双注意力机制的详细结构如图3所示。
图3 双注意力机制详细结构图(DAMM)

Fig. 3 The detailed structure of the dual attention mechanism module (DAMM)

图3(a)PAM[37]根据语义相关关系,有选择性地增强图像中任意2点的关联。每个位置的像素都可以从整个图像的语义相关像素中收集有效的上下文信息,从而使得不同位置的相同特征可以相互增强,提高语义分割能力。通过骨干网络可以得到局部特征A∈ℝC×H×W矩阵,将特征A通过1×1卷积操作得到通道为C/8的B向量和通道为C/8的C向量以及通道为CD向量。接着将矩阵B维度转换成B′其中B′∈ℝC×NN=H×W,同时将矩阵B′转置为BT。将C维度转换成C′其中C′∈ℝC×NN=H×W,将C′BT做矩阵相乘,得到(H×W)×(H×W)的矩阵。最后使用SoftMax计算出位置注意力矩阵S∈ℝN×N,得到的矩阵S可以看作通过位置注意力机制得到的权重,其中每一行的计算结果表示所有像素与某个像素之间的依赖关系,SoftMax值越大,表示相对的依赖性越强,计算公式如下:
S j i = e x p ( B i C j ) i = 1 N e x p ( B i C j )
式中: Bi代表矩阵B∈ℝN×C中的第i个元素; Cj代表矩阵,C∈ℝC×N中的第j个元素; N代表当前通道中元素的个数; Sji表示i位置对j位置的影响因子。
将矩阵D通过维度转换与位置注意力矩阵相乘,再与原来的特征图A进行元素求和得到最终的结果E,其中E∈ℝC×H×W,计算公式如下:
E j = α i = 1 N ( S j i D i ) + A j
式中: Di表示矩阵D∈ℝN×C中第i个元素; Sji为矩阵S的第i个位置元素; α为可学习的参数,初始为0。
由式(2)可知,每个位置的最终特征E为所有位置特征与原始特征的加权和,因此,位置注意机制具有全局上下文视图,并尝试根据位置选择性地聚合上下文,使相似的语义特征相互促进,保持语义一致性。
由于不同的通道特征图之间存在不同的联系,图3(b)CAM[37]提取出不同通道间的语义信息,通过不同的权重突出相互有联系的特征图。CAM直接通过A∈ℝC×H×W计算出通道注意力矩阵X∈ℝC×C。将特征矩阵A维度转换成A∈ℝC×N,其中,N=H×W,后将AAT做矩阵乘法并通过SoftMax函数计算得到X,其中X中每一行的相似值要减去最大值,以增加对其他相似度的关注。得到注意力权重与A′进行矩阵相乘,再整体乘上一个可学习的系数β,与特征图A进行元素求和得到最终的结果E,其中E∈ℝC×H×W。通过A计算出通道注意力图XXji的计算如下所示。
X j i = e x p [ A i ( A ' ) j T ] i = 1 C e x p [ A ' i ( A ' ) j T ]
式中: Xji代表第i个通道对第j个通道的影响因子;Ai代表第i个元素值; ( A ' ) j T表示转置矩阵的第j个元素值。通道注意力矩阵与输入特征图相乘,乘上一个可学习的参数β,其中β初始为0。再与输入特征图按元素求和,最终输出结果E,计算公式如下:
E j = β i = 1 C ( X i j A i ) + A j
由式(4)可得,每个通道的最终特征均是所有通道特征与原始通道特征的加权和。因此,CAM能加强不同通道的特征信息,使神经网络发挥出更高效的能力。

2.2.3 深度可分离空洞空间金字塔池 (DS-ASPP)

在ResNet-101骨干网络提取过程中,整体感受野随着卷积层数的增加而缓慢增长,代价是图像信息丢失,尺寸减小。本研究引入的ASPP模块,增加网络的感受野而无需下采样。随着网络结构的加深,以及引入双注意力机制,网络的参数量和计算量不断增加,导致所需的存储空间变大、训练时间变长。因此,本研究将深度可分离卷积(Depthwise Separable Convolution, DSC)引入ASPP结构中,这种结构不仅直接降低了计算量,提高了训练速度,还避免了梯度爆炸问题的发生。提出的DS-ASPP模块包括一个1×1卷积、3个3×3的深度可分离空洞卷积扩大感受野,膨胀率分别为(6,12,18)以及一个全局池化操作。DS-ASPP实现了不同膨胀率的并行采样,从而捕获了多尺度上下文信息,减少了信息丢失。在卷积运算过程中,若Pc为DSC参数量,Pn为标准卷积参数量,Cc为DSC计算量,Cn为标准卷积计算量。深度可分离卷积和标准卷积的参数量、计算量之比如下所示:
P c P n = C k 2 + C M C k 2 M = 1 k 2 + 1 M
C c C n = C k 2 H W + H W C M C k 2 M H W = 1 k 2 + 1 M
式中:C为输入通道数;M为输出通道数;k为卷积核大小;H×W为输出特性大小。可以看出,深度可分离卷积的计算复杂度比标准卷积大大降低。其计算量仅为标准卷积的1/k2,只牺牲了极低的精度,却换来了计算量数量级上的减少。
为了保留表现优异的DS-ASPP模块同时兼顾DAMM优秀的特征增强能力,设计并实现了将DAMM结构与DS-ASPP模块并联(图2解码器右侧DAMM与DS-ASPP并联结构)。在并联结构中,骨干网络用于提取图像的特征,高级特征图将分别经过两个分支,其中上分支使用DAMM处理,下分支使用DS-ASPP结构处理。然后将处理的高级特征图进行逐元素求和,最后将融合后的特征图的通道数降低到64输入到解码器中,得到预测结果。

2.3 建筑垃圾年产量计算模型

本节详细介绍了建筑垃圾年产量计算模型。由中国住房和城乡建设部发布的城市建设行业标准(CJJ/T134-2019)[12],可知建筑垃圾包括工程垃圾和拆除垃圾,其中:
(1) 工程垃圾是指各类建筑物、构筑物等建设过程中产生的废弃材料。
(2) 拆除垃圾是指各类建筑物、构筑物等拆除过程中产生的废弃材料。
(3) 所有类型的建筑垃圾除了资源化重新利用的部分,剩下都将进入指定建筑垃圾消纳场暂时存放。

2.3.1 工程垃圾、拆除垃圾年产量计算

在城市更新过程中,新增建筑物产生工程垃圾,拆除建筑物产生拆除垃圾。计算工程垃圾和拆除垃圾,需要得到区域建筑物面积的变化量,本研究使用MS-FF-AENet语义分割网络构建高精度建筑物提取模型,对全区建筑物进行识别提取,并根据不同时间的数据可以得到区域建筑物的变化情况。鉴于遥感卫星的空间分辨率,影像中每个像素所代表的地面面积是已知的,为了提高结果的准确性,将研究区图像按照更小的行政区域划分后输入网络模型,以生成每个特定区域的预测图像。对预测图像中的所有白色区域(即建筑物)的像素点个数进行精确计数,就能计算出建筑物的总面积。计算公式如下:
S T = i T S R S R p i
式中: ST表示每个行政区域建筑物总面积/m2SR表示遥感卫星空间分辨率; pi表示每个行政区域预测图像白色区域像素点数; T表示行政区域个数。
S = S T 2 - S T 1 M g = R g m g ;     R g = S ; S > 0 M c = R c m c ;     R c = S ; S < 0
式中: Mg表示城市或区域工程垃圾产生量/t; Rg表示城市或区域新增建筑面积/m2mg表示单位面积工程垃圾产生量基数/(t/m2),可取0.03~0.08 t/m2Mc表示城市或区域拆除垃圾产生量/t; Rc表示城市或区域拆除建筑面积/m2mc表示单位面积拆除垃圾产生量基数/(t/m2),可取0.8~1.3 t/m2ST2ST1表示相同区域不同时间的建筑面积/m2 S表示建筑面积变化量/m2

2.3.2 建筑垃圾消纳场内垃圾填埋量计算

为了更加精准衡量城市建筑垃圾处理能力,经过大量模型训练、验证和测试后,构建建筑垃圾分割模型,基于垃圾堆体体积与平均密度计算重量,快速准确获得建筑垃圾消纳场内建筑垃圾的变化情况。使用MS-FF-AENet语义分割网络提取垃圾堆体的轮廓,将建筑垃圾堆体的面积乘以堆体平均高度,估算出建筑垃圾的体积。计算公式如下:
v j = i = 1 N S R S R q i H
式中: vj表示每个建筑垃圾堆体体积/m3SR表示遥感图像空间分辨率; qi表示每个建筑垃圾消纳场预测图像红色区域像素点数; N表示建筑垃圾消纳场个数; H表示垃圾堆体的平均高度/m。
式(9)中,垃圾堆体的平均高度H是根据中国住房和城乡建设部发布的城市建设行业标准(CJJ/T134-2019)[12]中规定的填埋要求计算得出的,建筑垃圾堆体的空间结构由5层组成。表1对各层规定高度进行了详细说明,其中 h1~h5 分别代表各层对应高度,H代表 h1~h5之和。从表1中可以看出,垃圾堆体的高度在3.05 ~ 5.05 m之间。考虑到堆填区内各堆体形状不规则,高度不均匀,为方便后续计算,堆体高度取平均值,即H≈4.0 m。
表1 垃圾填埋场施工的土层类型和相应高度

Tab. 1 Types of layers and corresponding heights for landfill construction

编号 分层类型 高度/cm
1 植被层 h1≈15
2 排水层 h2≈30
3 防渗层 h3≈30
4 支撑及排气层 h4≈30
5 垃圾层 200≤h5<400
利用连续2年建筑垃圾消纳场影像,计算建筑垃圾变化量公式如下:
v 1 = j N v j v 2 = j N v j v = v 2 - v 1 E m p = ρ e v
式中: N表示建筑垃圾消纳场影像数量; v1v2分别表示研究区不同时间填埋场垃圾堆体总体积/m3 v表示垃圾的体积变化量/m3Emp表示建筑垃圾量/t,ρe为垃圾堆平均密度/t/m3ρe取1.6 ~2.0 t/m3 v表示垃圾堆体积变化量/m3

3 实验区概况及实验设置

3.1 研究区概况

北京市昌平区,介于115°50′17″E—116°29′49″E, 40°2′18″N—40°23′13″N之间,总面积1 343.5 km2。该区域建筑密度高,种类丰富,这为遥感监测研究提供了丰富的数据来源,有助于在训练过程中提高模型的泛化能力。本研究采用GF-2卫星于2019年和2020年采集的北京市昌平区影像数据,图4是研究区域概况,研究区GF-2原始影像(图4(c))覆盖城市、村庄和山区场景。研究区建筑物和建筑垃圾消纳场影像(图4(d)),为后续精确估算建筑垃圾年产量提供了可靠的数据支撑。
图4 研究区与数据源概况

Fig. 4 Overview of the study area and data sources

3.2 实验数据集

使用ArcMap软件获取北京市昌平区的建筑物矢量图,将其与原始GF-2影像进行地理校准、空间坐标变换和图像切割等预处理流程。共得到14 774张500像素×500像素大小的影像,经过人工筛选,保留了1 000张清晰的建筑物图像。同时,使用北京市昌平区建筑垃圾消纳场的地理坐标,定位并切割了228张500像素×500像素的无重叠影像。人工标注建筑物和建筑垃圾消纳场语义分割掩膜标签图,为模型训练和精度评价提供依据。由于实际样本数量的限制,数据相对较小,通过数据增强技术,针对已有数据集进行变暗、变亮、高斯噪声、镜像和随机缩放等数据扩充,最终得到研究区6 000张500像素×500像素的建筑物数据集,其中4 800张图像作为训练样本, 1 200张图像作为验证样本。1 368张500像素×500像素的建筑垃圾消纳场数据集,其中1 094张图像作为训练样本, 273张图像作为验证样本。部分样本如图5所示,分别为原始影像和对应标签数据。
图5 实验数据集部分原始影像和真值标签

Fig. 5 Part of the experimental data set images and labels

考虑到现有的建筑物公开数据集非常完备,而用于识别建筑垃圾的公开数据集严重缺乏。本研究致力于将制作的建筑垃圾消纳场数据集开源共享,命名为(Construction Waste Landfill Dataset,CWLD)并上传到国际公开存储库Zenodo中,可在 https://zenodo.org/record/8333888上获取。该数据集包括3 653幅由卫星拍摄的各种建筑垃圾填埋场的图像,以及详细标注填埋场内不同区域的标签图像。研究人员可以利用该数据集调查建筑垃圾的来源、类型、分布和影响,并用来训练和评估基于遥感图像检测建筑垃圾的语义分割算法的性能。有关如何使用此数据集训练分割模型的代码脚本和项目说明可在 GitHub上获取(网址: https://github.com/huangleinxidimejd/Construction-Waste-Segmentation-Model.)。

3.3 实验设置

3.3.1 实验环境

编译环境为Python 3.7,深度学习框架为PyTorch 1.9.0,使用PyCharm集成开发环境,操作系统为Windows 10×64,CUDA版本为11.7,硬件平台为Intel(R)Core(TM)i9-10900X CPU@3.70 GHz,单CPU,RAM为64.0 GB,Nvidia GeForce RTX 2080 TI显卡。

3.3.2 评价指标

为了提供一个全面的评价,本文利用了六个评价指标,包括准确率(Accuracy)、精确率(Precision)、召回率(Recall)、交并比(IoU)、F1分数(F1)和贝叶斯误差率(Bayesian Error Rate, BER)。建筑物提取是一个分割问题,建筑物像素是正例(Positive),非建筑物像素是反例(Negative);由于只关注垃圾堆体的变化情况,所以规定垃圾堆放区像素是正例(Positive),其他区域像素是反例(Negative)。因此,所有的预测都可以归入混淆矩阵,包括真正例(TP)、真负例(TN)、假正例(FP)和假负例(FN)。表2展示了建筑物和建筑垃圾提取混淆矩阵定义表, 6项指标的计算公式如下。
A c c = T P + T N T P + F P + F N + T N
P r e c i s i o n = T P T P + F P
R e c a l l = T P T P + F N
I o U = T P T P + F P + F N
F 1 = 2 P r e c i s i o n R e c a l l P r e c i s i o n + R e c a l l
表2 建筑物和建筑垃圾提取混淆矩阵定义

Tab. 2 Definition table for the confusion matrix for building and construction waste extraction

真实结果 预测结果
垃圾堆放区域 其他区域
垃圾堆放区域 TP FN
其他区域 FP TN
真实结果 预测结果
建筑物 非建筑物
建筑物 TP FN
非建筑物 FP TN
本研究引入了BER,以进一步评估模型在实际应用中的鲁棒性、灵活性和通用性。贝叶斯误差率衡量提取结果的完整性、正确性和质量,并描述模型如何在提取过程中实现最小误差边界。该指标对于多任务提取至关重要,可以公平地评估深度模型在复杂背景下的性能。
B E R = 1 2 ( F N T P + F N + F P F P + T N )

3.4 损失函数

3.4.1 建筑物提取损失函数

建筑物提取任务是一个二元分类任务,因此采用二元交叉熵损失函数。将Sigmoid激活函数作为最后一层的输出,在二分类的情况下,模型的预测结果只有2种情况,此时计算公式为:
L o s s B C E = - 1 N i = 1 N y i l o g p i + 1 - y i l o g 1 - p i σ ( x ) = 1 / ( 1 + e x p   ( - x ) )
式中: yi表示样本i的标签,正例为1,反例为0;像素个数为N; pi表示样本i预测为正类的概率; σ ( x )是Sigmoid激活函数,其作用在于使预测值介于0和1之间。

3.4.2 建筑垃圾提取损失函数

建筑垃圾提取任务中,将建筑垃圾消纳场分成4个区域,因此是一个多标签的多分类任务,采用交叉熵损失函数(CrossEntropyLoss),将SoftMax函数作为网络最后一层的输出,多分类的情况实际上就是对二分类的扩展:
L o s s C E L = - 1 N i = 1 N j = 1 M y i j l o g p i j + 1 - y i j l o g 1 - p i j φ ( z ) i = e x p   ( z i ) / j = 1 M e x p   ( z j )
式中: M表示类别的数量;像素个数为Nyij表示样本j的真实类别,预测类别与真实类别相同取1,否则取0; pij表示样本i属于类别j的预测概率; φ ( z ) i是SoftMax函数; zi为第i个像素的输出值。

3.4.3 MS-FF-AENet复合损失函数

由于编码器得到的高级特征图像有着丰富的全局信息,将编码器特征与解码器特征结合,使得在解码阶段保留更多有用的信息,有助于提高分割的准确性。因此,本研究结合编码器和解码器一起计算损失函数,复合损失函数计算如下:
L o s s M S - F F - A E N e t = α 1 L d e c o d e r + α 2 L e n c o d e r
式中: L o s s M S - F F - A E N e t为网络所使用的复合损失函数; L d e c o d e r为解码器输出的损失值; L e n c o d e r为编码器输出的损失值; α1α2是偏置参数,α1+α2=1,用于调整编码器和解码器中损失值的权重。

3.5 对比方法

本研究将MS-FF-AENet与语义分割领域中经典网络和最新发布的高性能网络进行比较,包括UNet[19]、SegNet[38]、PSPNet[39]、DeepLabV3+[17]、DSAT-Net[40]、ConvLSR-Net[41]和SDSC-UNet[42]。基于已有研究的经验,以及在语义分割领域类似任务中的成功应用[43],我们对实验参数进行了初始化配置,对于每个数据集和模型,训练轮数固定为200,批次大小为4,图像大小为500像素×500像素,初始学习率为0.001。
(1) DSAT-Net结合了CNNs和视觉转换器的优势,有效降低了计算成本,并在特征提取过程中保留了空间细节。
(2) ConvLSR-Net引入了一种新颖、高效的长短程变换器(Long-Short-Range Transformer, LSR-Former)来补充全局信息。解决了航空图像分割中对局部和全局背景信息的需求。
(3) SDSC-UNet采用视觉变换器和U型结构,具有多尺度信息捕获、全局依赖关系建立和分流双跳连接等功能。

4 实验结果与分析

4.1 建筑物提取结果及分析

4.1.1 性能评估

使用建筑物数据集对不同模型进行训练、验证和测试,构建高精度的建筑物分割模型,损失函数使用 L o s s B C E,同时使用 L o s s M S - F F - A E N e t调整编码器和解码器中损失值的权重,其中α1=0.7,α2=0.3。表3展示了不同模型在北京市昌平区建筑物数据集上的定量评价指标。
表3 不同模型在北京市昌平区建筑物数据集的定量指标

Tab. 3 Quantitative evaluation of different models on a dataset of buildings in Changping District, Beijing (%)

方法 定量指标
Acc Precision Recall F1 IoU BER
UNet 96.88 86.87 86.56 86.37 76.94 7.82
SegNet 97.12 88.39 86.60 87.15 78.64 7.57
PSPNet 95.02 80.61 74.53 76.66 63.66 14.13
DeepLabV3+ 96.42 83.78 86.22 84.57 74.26 8.27
DSAT-Net 95.69 84.46 81.48 82.29 72.54 10.36
ConvLSR-Net 95.95 85.80 82.54 83.41 74.38 9.76
SDSC-UNet 94.17 77.87 74.67 75.44 61.78 14.54
MS-FF-AENet 97.45 90.33 87.90 88.82 81.09 6.78

注:加粗数值表示每一列最优值。

表3可以看出,所设计的MS-FF-AENet在6个指标上取得最佳结果,Acc(97.45%)、Precision (90.33%)、Recall(87.90%)、F1(88.82%)、IoU(81.09%)、BER(6.78%)。SegNet、UNet、DeepLabV3+表现排名紧随其后。在高分辨率遥感图像中提取建筑物的任务中,由于建筑物与背景之间的像素总数差异较大,存在数据不平衡的问题。SegNet在Acc (97.12%), Precision (88.39%), Recall (86.60%), F1 (87.15%), IoU (78.64%) 和BER (7.57%)6个指标上都排名第二,这要归功于SegNet通过分配不同权重合理的解决了类别不平衡的问题,确保每个类别都得到关注,从而提高了对少数类别的分割性能。UNet在Acc(96.88%)、Precision(86.87%)、Recall(86.56%)、 F1(86.37%)、 IoU(76.94%)和BER(7.82%)6个指标上都排名第三。与每项指标的第二名相比,MS-FF-AENet在Acc、Precision、Recall、F1和IoU上分别提高了0.33%,1.94%,1.3%,1.67%和2.45%,BER降低了0.79%,表明了MS-FF-AENet的MS-FF和DS-ASPP结构起着关键作用,该方法融合了多尺度建筑物特征,利用了遥感影像中的上下文信息,有效提高了模型的识别精度。

4.1.2 定性分析

在性能评估之后,继续对不同模型的建筑物提取结果进行了视觉对比分析,以进一步验证设计的MS-FF-AENet在建筑物提取方面的能力。图6展示了通过不同方法获得的定性结果。
图6 不同模型在北京市昌平区建筑物数据集的提取结果

Fig. 6 Extraction results of different models on building dataset in Changping District, Beijing

图6(a)图6(b)显示了在复杂场景中小型密集建筑物被周围的大型建筑物、树木和道路等干扰物体遮挡的情况,使建筑物的检测和分割较为困难。可以很明显地发现UNet、PSPNet和SDSC-UNet的分割结果存在边界模糊的问题,而本文提出的模型受这些干扰因素的影响较小,识别建筑物轮廓较清晰,引入的错误信息也相对较少。图6(c)6(d)显示了在城市场景中提取大型建筑物的示例。在处理大型建筑物时,固定的感受野可能会导致不连续的孔洞,无法完整捕捉大型建筑物的信息,导致识别出的建筑物出现断裂和模糊。可以发现现有网络结构并不能很好的处理这个问题,MS-FF-AENet使用深度可分离空洞卷积扩大感受野,显示出更好的连通性,能有效解决此类问题。

4.2 建筑垃圾提取结果及分析

4.2.1 性能评估

使用建筑垃圾消纳场数据集对不同模型进行训练、验证和测试,构建高精度的建筑垃圾分割模型,损失函数使用 L o s s C E L,同时使用 L o s s M S - F F - A E N e t调整编码器和解码器中损失值的权重,其中α1=0.7,α2=0.3。表4展示了不同模型在建筑垃圾消纳场数据集上的定量评价指标。
表4 不同模型在建筑垃圾消纳场数据集上的定量指标

Tab. 4 Quantitative evaluation of different models on construction waste disposal sites dataset (%)

方法 指标
Acc Precision Recall F1 IoU BER
UNet 92.92 87.67 89.92 88.16 82.54 6.16
SegNet 92.92 88.86 88.70 88.28 82.45 6.32
PSPNet 87.06 79.05 76.27 75.85 65.32 14.20
DeepLabV3+ 84.63 77.85 73.45 72.37 62.35 15.78
DSAT-Net 89.95 83.31 84.33 82.95 74.93 9.49
ConvLSR-Net 91.98 85.45 86.38 85.10 78.40 7.98
SDSC-UNet 87.33 76.27 77.07 75.38 64.02 13.75
MS-FF-AENet 94.77 90.43 90.96 89.40 83.35 5.46

注:加粗数值表示每一列最优值。

可以看出,MS-FF-AENet在6个指标上均达到最高分,Acc(94.77%)、Precision(90.43%)、Recall (90.96%)、F1(89.40%)、IoU(83.35%)、BER(5.46%)。其主要原因在于该方法借助注意力增强和特征融合机制,在网络中保留了更多浅层信息,并将低层特征与高层特征融合,从而提高了分割边界的准确性。UNet在 Recall (89.92%)、IoU (82.54%) 和 BER (6.16%)指标方面排名第二。SegNet在Precision (88.86%)和F1 (88.28%)指标上排名第二。相较于表现较差的PSPNet、SDSC-UNet和DeepLabV3+来说,本文网络在IoU指标的提升程度甚至达到了21%,在其他指标上的提升几乎均超过10%。与每项指标的第二名相比,MS-FF-AENet在Acc、Precision、Recall、F1和IoU分别提高了1.85%、1.57%、1.04%、1.12%和0.81%, BER降低了0.7%。证明了MS-FF-AENet中的特征增强模块可以有效减少噪声信息的输入,对提取形状不规则、碎片化和分散的建筑垃圾场景具有良好的实用性。同时,较低的BER证明了MS-FF-AENet在实际应用中的鲁棒性。

4.2.2 定性分析

在性能评估之后,本文对不同模型建筑垃圾提取结果进行了视觉对比分析。图7对比分析了不同模型在建筑垃圾消纳场数据集的提取结果。
图7 不同模型在建筑垃圾消纳场数据集的提取结果

Fig. 7 Extraction results of different models on construction waste disposal sites dataset

图7(a)显示了一个提取建筑物阴影下的垃圾堆区域示例,在阴影影响下,DeepLabV3+、DSAT-Net和ConvLSR-Net提取结果较差,MS-FF-AENet则表现良好。图7(b)显示了区分工程设施和垃圾堆特征的示例,所有网络均可以较好地区分不同特征,在轮廓分割细节上,MS-FF-AENet表现相对出色。图7(c)显示被道路分割的垃圾堆体示例。图7(d)显示了在特征模糊的情况下提取垃圾堆的示例。在识别大面积垃圾堆的时候,DSAT-Net、ConvLSR-Net和SDSC-UNet对大型垃圾堆的识别能力较差,将大多数垃圾填埋区域识别为背景区域。UNet和SegNet的结果非常接近,均出现了多碎片化的结果,体现了传统网络由于缺乏注意力模块,一些低级特征被过度使用、分割,导致建筑垃圾提取结果产生了多碎片化的情况,而MS-FF-AENet则克服了该问题,识别结果与标签图像最接近。

4.3 消融实验

本节分析了MS-FF-AENet建模中超参数和结构改造的影响。为验证引入MS-FF、DS-ASPP、串联或并联DAMM模块的有效性,利用控制变量法进行五组消融实验,以Precision、Recall、F1和模型大小(Model Size)为实验评价指标。第一组使用ResNet-101作为编码器骨干网络;第二组在此基础上添加了特征融合模块;第三组继续引入与ASPP串联的DAMM;第四组则是在第二组的基础上引入与ASPP并联的DAMM; 第五组则引入了深度可分离卷积融入ASPP中形成DS-ASPP,再与DAMM并联组成最终的MS-FF-AENet网络。设置第三和第四组实验的目的,主要是为了验证ASPP和DAMM在串联和并联时的效果。

4.3.1 建筑垃圾消纳场数据集消融实验

表5为建筑垃圾消纳场数据集的消融实验定量分析结果,表中结果表明,第一组在Precision (88.26%)、Recall (89.06%)和F1 (88.42%) 指标方面排名最低。与第一组相比,引入了特征融合的第二组在Precision、RecallF1上分别提高了0.20%、0.22%和0.30%,其原因在于融和原始图像的中层特征后,解决了多尺度特征融合不足的问题。与第二组相比,引入DAMM与ASPP串联后的第三组Precision提高了0.57%, Recall提高了1.01%, F1提高了0.18%,然而, F1指标的上升缓慢,主要是由于图像中存在较多遮挡。第四组中将DAMM与ASPP并联,相较于串联结构的第三组实验, Precision提高了1.4%, Recall提高了0.67%, F1提高了0.5%。可以清晰的发现,DAMM和ASPP串联或并联方式均能有效改善网络性能,并联方式网络性能更好,其对原网络缺陷改善效果更明显。然而,由于引入了DAMM加大了模型的参数量,使模型大小达到了203 MB,与只用ResNet-101改进的网络相比,模型增大了25 MB。因此,为了保持高精度提取的同时尽量降低模型大小而减少模型训练时间,引入深度可分离空洞卷积的第五组实验。结果表明, Precision降低了0.06%, Recall降低了0.62%, F1降低了0.44%,以微小的精度损失换来了模型大小的显著减小,减小了13 MB。
表5 建筑垃圾消纳场数据集上的消融实验结果

Tab. 5 Results of ablation experiments on construction waste disposal sites dataset (%)

ResNet-101 MS-FF DAMM-S DAMM-P DS-ASPP Precision Recall F1 Model Size/M
88.26 89.06 88.42 178
88.46 89.28 88.72 179
89.03 90.29 88.90 199
90.43 90.96 89.40 203
90.37 90.34 88.96 190

注: MS-FF 代表特征融合; DAMM-S代表DAMM与ASPP串联; DAMM-P代表DAMM与ASPP并联。加粗数值表示最优值。

4.3.2 建筑物数据集消融实验

表6为北京市昌平区建筑物数据集的消融实验定量研究结果,实验结果与在建筑垃圾消纳场数据集上基本上得出相同的效果。第一组在Precision (82.45%)、Recall (84.27%)和F1(83.25%)指标方面排名最低。第四实验组相较于与第一组相比, Precision提高了7.88%, Recall提高了3.63%, F1提高了5.57%。
表6 北京市昌平区建筑物数据集上的消融实验结果

Tab. 6 Results of ablation experiments on building dataset in Changping District, Beijing (%)

ResNet-101 MS-FF DAMM-S DAMM-P DS-ASPP Precision Recall F1 Model Size/M
82.45 84.27 83.25 178
86.87 84.83 85.45 179
87.06 85.53 86.00 199
90.33 87.90 88.82 203
87.20 85.63 86.12 190

注: MS-FF代表特征融合, DAMM-S代表DAMM与ASPP串联, DAMM-P代表DAMM与ASPP并联。

4.4 时间复杂度研究

为了验证所提出的MS-FF-AENet的灵活性和普适性,本节继续针对几个网络开展时间复杂度研究,选择了训练时间、速度、浮点运算次数(Floating Point Operations, FLOPs)和参数量4个指标进行分析比较。训练时间是使用相同的数据集训练一轮所需的平均时间。速度是每秒图像吞吐量,即训练过程中每秒处理图像的速度。FLOPs基于(1×3×512×512)的输入大小计算。表7总结了不同方法的时间复杂度评估结果,全部实验均在同一台设备上进行。
表7 不同方法的时间复杂度评估结果

Tab. 7 Time complexity assessment results for different methods

方法 变量
训练时间/s 速度 浮点运算次数(G)/次 参数量/M
UNet 170.432 8.027 124.527 13.396
SegNet 160.204 8.539 160.977 29.445
PSPNet 801.980 1.706 201.851 52.508
DeepLabV3+ 182.739 7.486 83.429 54.709
DSAT-Net 194.040 7.050 57.675 48.371
ConvLSR-Net 219.071 6.245 70.832 68.037
SDSC-UNet 199.625 6.853 21.546 21.320
MS-FF-AENet 151.222 9.046 68.720 52.929

注:加粗数值表示最优值。

表7可以看出,PSPNet的每秒图像吞吐量最小导致在训练速度上效率较低,这主要是由于模型计算量过于庞大,在FLOPs指标上,PSPNet是MS-FF-AENet的3倍左右。UNet的参数量最少,因为UNet网络结构非常简单,MS-FF-AENet在参数量上约为UNet的四倍,主要原因与其复杂的网络结构有关。相比传统模型,本文提出的MS-FF-AENet在训练时间上最快,每秒处理的图像数量也最多,充分体现了MS-FF-AENet网络的高效性和灵活性,能够适应不同类型和尺度的建筑物或建筑垃圾。但是,MS-FF-AENet在参数量上的表现相较于UNet、SegNet和SDSC-UNet这类结构简单的网络还有待提升,如何选择轻量级模型,在更短的时间内实现最优提取,也是未来有待进一步研究的问题。

4.5 建筑垃圾年产量精算

本节使用构建的高精度建筑物分割模型提取整个北京市昌平区的建筑物,用以计算建筑垃圾年产量。提取结果如图8所示,其中白色部分为提取到的建筑物区域。按照北京市行政区域边界线将原始影像切割为20个区域,图9展示了每个行政区域的建筑物面积和变化情况,根据式(7)和式(8),计算得出各区域建筑垃圾年产量。表8展示了昌平区各行政区域建筑面积变化情况和建筑垃圾产生量。
图8 北京市昌平区建筑物提取结果

Fig. 8 Building extraction results in Changping District, Beijing

图9 北京市昌平区各行政区域建筑物面积变化情况

Fig. 9 Change in the building area of each administrative area in Changping District, Beijing

表8 北京市昌平区建筑物面积变化和建筑垃圾产量

Tab. 8 Changes in building area and construction waste production in Changping District, Beijing

行政区域 2019年 2020年 变化量
/(104 m²)
工程垃圾 拆除垃圾
建筑物面积/(104 m²) 至少/t 至多/t 至少/t 至多/t
百善镇 369.644 333.440 -36.204 289 631.744 470 651.584
北七家镇 976.173 942.694 -33.479 267 835.904 435 233.344
城北街道 494.522 514.295 19.773 5 931.878 15 818.342
城南街道 341.938 330.765 -11.174 89 383.424 145 248.064
崔村镇 508.425 526.358 17.933 5 379.917 14 346.445
东小口地区 247.839 234.896 -12.943 103 542.272 168 256.192
回龙观地区 734.752 687.013 -47.739 381 913.600 620 609.600
霍营街道 130.196 126.665 -3.531 28 248.064 45 903.104
流村镇 496.992 463.736 -33.257 266 053.632 432 337.152
马池口地区 918.954 831.378 -87.576 700 609.536 1 138 490.496
南口地区 854.672 860.037 5.365 1 609.478 4 291.942
南邵镇 397.953 394.846 -3.107 24 855.040 40 389.440
沙河地区 875.982 801.448 -74.534 596 271.616 968 941.376
十三陵镇 614.671 617.267 2.596 778.906 2 077.082
天通苑北街道 144.077 142.330 -1.746 13 971.456 22 703.616
天通苑南街道 105.562 104.087 -1.475 11 797.504 19 170.944
小汤山镇 930.129 947.022 16.893 5 067.878 13 514.342
兴寿镇 630.362 650.856 20.493 6 147.994 16 394.650
延寿镇 186.360 180.279 -6.081 48 649.728 79 055.808
阳坊镇 430.365 396.975 -33.390 267 123.712 434 076.032
昌平区 10 389.570 10 086.387 -303.182 24 916.051 66 442.803 3 089 887.232 5 021 066.752
表8可知,2019年北京市昌平区建筑物总面积为10 389.570 hm2,约为103.90 km2, 2020年建筑物总面积为10 086.387 hm2,约为100.86 km2。根据GIS平台获取的昌平区建筑物面积为 102.55 km2,对于1 km2的单元,本文计算所得的建筑物面积误差仅为0.013 km2,可为后续计算北京市昌平区建筑垃圾年产量提供较准确的基础。由实验数据可知,2019—2020年,累计拆除改造建筑物303.182 hm2,约3.03 km2。城市更新过程中产生的工程垃圾为24 916~66 443 t,平均约45 679.5 t。产生的拆除垃圾为3 089 887~5 021 067 t,平均约4 055 477 t,最终计算得出建筑垃圾年产量为4 101 156.5 t。
结果表明,2019—2020年,昌平区主要以拆除建筑物为主,这是因为近年来北京市落实减量背景下的城市更新。根据《2023年北京市政府工作报告》[44]指出,过去五年北京市总计拆除违规违法建筑物2.4亿m2,2020年总计建筑垃圾产量预计达到5 200万t,结合昌平区占北京市面积大约为8%,粗略估算平均每年拆除3.84 km2 建筑物,产生416万t建筑垃圾。由此可知本文的计算结果准确率高达98.59%,进一步验证了本文实验结果的可信度。

4.6 建筑垃圾消纳量精算

城市产生的建筑垃圾处理途径主要有2种,除了被资源化重新利用的建筑垃圾外,剩下的建筑垃圾都将进入建筑垃圾消纳场中填埋。为了分析区域建筑垃圾填埋量和资源转化量,得出城市建筑垃圾资源化处理能力,将高精度的建筑垃圾分割模型用于提取昌平区内所有建筑垃圾消纳场,通过分析实际建筑垃圾产量与填埋的垃圾量之间的关系可以得出城市建筑垃圾年处理能力。根据式(9),其中SR=0.8 m,可以精确计算出建筑垃圾堆积面积。表9展示了建筑垃圾消纳场各区域像素点个数提取结果,图10以直方图的方式分析了2019—2020年全区建筑垃圾消纳场规模的增长情况。
表9 北京市昌平区建筑垃圾消纳场提取结果

Tab. 9 Extraction results of construction waste disposal sites in Changping District, Beijing (m2)

区域 2019年 2020年 面积变化
建筑垃圾区域 8 199 598.08 8 512 355.84 312 757.76
工程设施区域 898 778.24 908 949.76 10 171.52
空置可填埋区域 5 490 789.12 6 335 324.80 844 535.68
影像背景区域 30 050 834.56 28 883 369.60 -1 167 464.96
图10 北京市昌平区2019—2020年建筑垃圾消纳场各区域面积

Fig. 10 The area of each area within the construction waste disposal sites in Changping District, Beijing, in 2019 and 2020

表10展示了建筑垃圾像素个数、面积、体积和重量之间的关系,根据式(10),其中 ρ e 1.8   t   / m 3,可以精确估算出填埋垃圾变化量。从表10可以看出,在北京市昌平区建筑垃圾消纳场内,2019年共堆放建筑垃圾约32 798 392.32 m3,重量约为59 037 106.176 t。2020年共堆放建筑垃圾约34 049 423.36 m3,重量约为61 288 962.048 t。由2年的差值可以得出北京市昌平区建筑垃圾消纳场内建筑垃圾增加量约2 251 855.872 t。
表10 建筑垃圾填埋量计算

Tab. 10 Calculation of construction waste landfill volume

参考数 2019年 2020年
红色像素点数/个 12 811 872 13 300 556
面积/m² 8 199 598.08 8 512 355.84
体积/m³ 32 798 392.32 34 049 423.36
重量/t 59 037 106.176 61 288 962.048
填埋垃圾变化量/t 2 251 855.872
使用连续2年建筑物面积变化情况精确计算出建筑垃圾实际年产量约4 101 156.500 t。通过提取建筑垃圾消纳场中垃圾堆体的增加量,可以准确的计算出填埋部分约2 251 855.872 t。由于城市产生的建筑垃圾主要是填埋和资源转化2种途径,由此间接得出资源化利用部分约1 849 300.628 t,建筑垃圾年资源化利用率45.09%。

5 讨论

如上实验所述,虽然所提出的MS-FF-AENet具有高效的多任务处理能力,在北京市昌平区建筑物数据集和建筑垃圾消纳场数据集上均实现了良好性能,但是仍然存在一些失败案例。如图11(a)所示,在积雪覆盖这类恶劣环境中,排列密集的小型村镇建筑物往往和周围环境体现出相似的语义特征,尽管MS-FF-AENet可以提取大部分建筑物,但却不能清晰地识别边缘区域。如图11(b)所示,在城乡交界处会出现很多被树木、植被遮挡的区域,在应对这类卫星图像时,MS-FF-AENet有时会忽略一些被遮盖的小型建筑物,导致建筑边界模糊。如图11(c)图11(d)所示,有的建筑垃圾堆体上覆盖了大面积的植被层,在此类场景中,植被的阴影将产生很多噪点,导致MS-FF-AENet在提取时产生了大量碎片化的区域,更容易产生错误分类的情况。未来需要进一步改进算法,提高MS-FF-AENet应对复杂任务和场景的普适能力。
图11 错误识别案例研究

Fig. 11 Error recognition case study

虽然从HRSIs中提取特征的模型达到了令人满意的精度,建筑垃圾的计算结果也与政府公布的统计数据相吻合,证明了方法的有效性。但我们也发现了一些无法避免的问题。例如,在第2.3节中,建筑垃圾和拆迁垃圾的计算主要依赖于先验参数,如单位面积的工程垃圾基本产生量(mg)、单位面积的拆迁垃圾基本产生量(mc)和垃圾堆放体的平均密度(ρe)。虽然这些参数指标均来自中国住房和城乡建设部发布的《城市建筑行业标准》(CJJ/T134-2019)[12],具有官方权威性,但由于这些参数易受地域特征、建筑类型、施工方法等多种因素的影响,其准确值确实不易获得,只能获得在一般情况下的取值范围。我们在讨论中进一步强调了这一点,以避免读者对我们提出的方法产生误解。我们将在今后的工作中进一步提高先验参数的准确性。

6 结论与展望

本文研究了基于CNN的HRSIs语义分割,考虑到传统识别网络架构的局限性,设计了一种全新的编码器-解码器结构,构建了MS-FF-AENet,融合多尺度特征,以更好地利用HRSIs中的上下文信息,提高模型识别精度。同时,提出一种利用遥感影像和深度学习算法快速分析计算建筑垃圾年产量的方法,得出城市建筑垃圾消纳能力。基于不同时期的建筑物遥感影像数据,通过计算城市中增加和减少的建筑物面积计算出建筑垃圾年产量,提取不同时期建筑垃圾消纳场内填埋垃圾的变化得出城市建筑垃圾填埋量,从而间接衡量城市建筑垃圾资源转化率。涉及的内容包括不同时像的遥感影像建筑物、建筑垃圾变化检测和目标提取,以及基于高分遥感影像的城市建筑垃圾填埋量估算等内容。实验结果表明:
(1) 在建筑物识别方面,MS-FF-AENet的AccPrecision、Recall、F1和IoU分别比传统网络提高了0.33%、1.94%、1.3%、1.67%和2.45%, BER降低了0.79%。在建筑垃圾识别方面,MS-FF-AENet的Acc、Precision、Recall、F1和IoU分别提高了1.85%、1.57%、1.04%、1.12%和0.81%,BER降低了0.7%,可以看出,与现有方法相比,MS-FF-AENet的各项指标均有所提升,是一种高精度的灵活模型。
(2) 将研究区按照更小的行政区域划分,动态监测建筑物的变化情况,快速准确地分析出每个区域建筑物新增或减少的面积。结果表明,2019—2020年,昌平区累计拆除改造建筑物约为3.03 km2,城市更新过程中产生的工程垃圾为24 916~66 443 t,平均约45 679.5 t;产生的拆除垃圾为3 089 887~ 5 021 067 t,平均约4 055 477 t,最终得出预计产生约4 101 156.5 t建筑垃圾。
(3)通过提取昌平区建筑垃圾消纳场中建筑垃圾,计算得出,2019年共堆放建筑垃圾约 32 798 392.32 m3,重量约为59 037, 106.176 t;2020年共堆放建筑垃圾约34 049 423.36 m3,重量约为 61 288 962.048 t;由两年的差值可以得出北京市昌平区建筑垃圾消纳场内建筑垃圾增加量约 2 251 855.872 t;间接得出资源转化部分的建筑垃圾量为1 849 300.628 t,建筑垃圾重复利用效率45.09%。所得数据有助于衡量城市建筑垃圾处理能力,以实现可持续的城市更新,避免负面影响和资源浪费。
(4)本研究在当前的建筑垃圾量化管理领域具有理论和实践意义,突破了传统建筑垃圾估算中严重依赖历史数据和统计方法导致在实际应用中缺乏灵活性,耗费大量人力、物力和时间,缺乏高精度和高效率的困境。使该方法适用于不同的环境和城市,增强了实用性。对于政府和相关企业来说,省时高效的建筑垃圾计算方法更具吸引力和实用性,可直接用于指导城市更新政策的制定,为城市建筑垃圾资源化处理提供重要的数据支撑。
在研究中发现,虽然所提出的MS-FF-AENet具有高效的多任务处理能力,但是仍然存在一些失败案例,未来需要进一步改进网络结构,提高其应对复杂任务和场景的普适能力。其次,受限于数据资源,使用GF-2号卫星影像在估算建筑垃圾堆体高度上较为粗略,未来将使用空间分辨率更高并且搭载激光测高仪的GF-7号卫星影像,提升建筑物和建筑垃圾面积测算以及建筑垃圾堆体高度测量,进一步提高本文方法的计算精度。最后,本文只对北京市昌平区进行了研究,未来我们将使用不同地区收集的遥感图像,推广到更大的研究区域,实现整个中国乃至更大区域的建筑垃圾年产量估算,为城市更新提供全面的、及时的数据支持,有助于制定科学合理的城市更新计划,降低代价风险,实现城市更新的可持续发展目标。
[1]
阳建强, 陈月. 1949—2019年中国城市更新的发展与回顾[J]. 城市规划, 2020, 44(2):9-19,31.

[Yang J Q, Chen Y. Review on the development of urban regeneration in China from 1949 to 2019[J]. City Planning Review, 2020, 44(2):9-19,31.] DOI:10.11819/cpr20200203a

[2]
Liang L W, Wang Z B, Li J X. The effect of urbanization on environmental pollution in rapidly developing urban agglomerations[J]. Journal of Cleaner Production, 2019, 237:117649 DOI:10.1016/j.jclepro.2019.117649

[3]
Sun M Y, Wang J G, He K Y. Analysis on the urban land resources carrying capacity during urbanization—a case study of Chinese YRD[J]. Applied Geography, 2020, 116:102170 DOI:10.1016/j.apgeog.2020.102170

[4]
Cui J Q, Broere W, Lin D. Underground space utilisation for urban renewal[J]. Tunnelling and Underground Space Technology, 2021, 108:103726 DOI:10.1016/j.tust.2020.103726

[5]
Lin Y Y, Zhang H S. Intra-year urban renewal in metropolitan cities using time series SAR and optical data[C]// IGARSS 2022-2022 IEEE International Geoscience and Remote Sensing Symposium. IEEE, 2022:6288-6291. DOI:10.1109/IGARSS46834.2022.9883504

[6]
住房和城乡建设部关于发布行业标准《建筑垃圾处理技术标准》的公告[EB/OL]. [2023-12-15]. https://www.mohurd.gov.cn/gongkai/zhengce/zhengcefilelib/201910/20191012_242186.html.

[7]
Vieira C S, Pereira P M. Use of recycled construction and demolition materials in geotechnical applications: A review[J]. Resources, Conservation and Recycling, 2015, 103:192-204. DOI:10.1016/j.resconrec.2015.07.023

[8]
Yu B, Wang J Y, Li J, et al. Prediction of large-scale demolition waste generation during urban renewal: A hybrid trilogy method[J]. Waste Management, 2019, 89:1-9. DOI:10.1016/j.wasman.2019.03.063

PMID

[9]
国家统计局. 中华人民共和国2022年国民经济和社会发展统计公报告[EB/OL] [2023-12-25]. https://www.gov.cn/xinwen/2023-02/28/content_5743623.htm.

[10]
Zhu J. China Construction and Demolition Waste Industry Market Report • EnvGuide[R/OL]. (2021-06-14) [2023-12-01]. https://us.envguide.com/china-construction-and-demolition-waste-industry-market-report/.

[11]
Wu Z Z, Yu A T W, Shen L Y, et al. Quantifying construction and demolition waste: An analytical review[J]. Waste Management, 2014, 34(9):1683-1692. DOI:10.1016/j.wasman.2014.05.010

PMID

[12]
高建文, 管海燕, 彭代锋, 等. 基于局部-全局语义特征增强的遥感影像变化检测网络模型[J]. 地球信息科学学报, 2023, 25(3):625-637.

DOI

[Gao J W, Guan H Y, Peng D F, et al. Local-global semantic feature enhancement model for remote sensing imagery change detection[J]. Journal of Geo-Information Science, 2023, 25(3):625-637.]

[13]
朱盼盼, 李帅朋, 张立强, 等. 基于多任务学习的高分辨率遥感影像建筑提取[J]. 地球信息科学学报, 2021, 23(3):514-523.

DOI

[Zhu P P, Li S P, Zhang L Q, et al. Multitask learning-based building extraction from high-resolution remote sensing images[J]. Journal of Geo-Information Science, 2021, 23(3):514-523.] DOI:10.12082/dqxxkx.2021.190805

[14]
Zhanlong C, Shuangjiang L I, Yongyang X U, et al. Correg-Yolov3: A Method for Dense Buildings Detection in High-resolution Remote Sensing Images[J]. Journal of Geodesy & Geoinformation Science, 2023, 6(2).

[15]
Shao Z F, Tang P H, Wang Z Y, et al. BRRNet: A fully convolutional neural network for automatic building extraction from high-resolution remote sensing images[J]. Remote Sensing, 2020, 12(6): 1050. DOI:10.3390/rs12061050

[16]
He H, Wang S Y, Zhao Q, et al. Building extraction based on U-net and conditional random fields[C]// 2021 6th International Conference on Image, Vision and Computing (ICIVC). IEEE, 2021:273-277. DOI:10.1109/ICIVC52351.2021.9526925

[17]
Chen L C, Zhu Y K, Papandreou G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[C]// European Conference on Computer Vision. Cham: Springer, 2018:833-851. DOI:10.1007/978-3-030-01234-2_49

[18]
Chen M, Wu J J, Liu L Z, et al. DR-net: An improved network for building extraction from high resolution remote sensing image[J]. Remote Sensing, 2021, 13(2):294. DOI:10.3390/rs13020294

[19]
Ronneberger O, Fischer P, Brox T. U-net: Convolutional networks for biomedical image segmentation[M]//Navab N, Hornegger J, Wells W M, et al, eds. Lecture Notes in Computer Science. Cham: Springer International Publishing, 2015:234-241. DOI:10.1007/978-3-319-24574-4_28

[20]
Wang H Y, Miao F. Building extraction from remote sensing images using deep residual U-Net[J]. European Journal of Remote Sensing, 2022, 55(1):71-85. DOI:10.1080/22797254.2021.2018944

[21]
Jia Z Y, Chen Q, Hong S, et al. Remote Sensing Recognition of Construction Waste Accumulation Based on Resources satellite three Multi-view Stereoscopic Image[J]. IOP Conference Series: Earth and Environmental Science, 2020, 615(1):012027. DOI:10.1088/1755-1315/615/1/012027

[22]
Gu J X, Wang Z H, Kuen J, et al. Recent advances in convolutional neural networks[J]. Pattern Recognition, 2018, 77:354-377. DOI:10.1016/j.patcog.2017.10.013

[23]
Davis P, Aziz F, Newaz M T, et al. The classification of construction waste material using a deep convolutional neural network[J]. Automation in Construction, 2021, 122:103481 DOI:10.1016/j.autcon.2020.103481

[24]
Li H F, Hu C, Zhong X R, et al. Solid waste detection in cities using remote sensing imagery based on a location-guided key point network with multiple enhancements[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2023, 16:191-201. DOI:10.1109/JSTARS.2022.3224555

[25]
Chen Q, Cheng Q H, Wang J F, et al. Identification and evaluation of urban construction waste with VHR remote sensing using multi-feature analysis and a hierarchical segmentation method[J]. Remote Sensing, 2021, 13(1):158. DOI:10.3390/rs13010158

[26]
Liu X Y, Liu Y, Du M Y, et al. Research on construction and demolition waste stacking point identification based on DeeplabV3+[J]. Bulletin of Surveying and Mapping, 2022(4):16.

DOI

[27]
Huang L, Cai T, Zhu Y, et al. LSTM-based forecasting for urban construction waste generation[J]. Sustainability, 2020, 12(20):8555. DOI:10.3390/su12208555

[28]
Yuan L, Lu W S, Xue F. Estimation of construction waste composition based on bulk density: A big data-probability (BD-P) model[J]. Journal of Environmental Management, 2021, 292:112822 DOI:10.1016/j.jenvman.2021.112822

[29]
Li Y S, Zhang X Q, Ding G Y, et al. Developing a quantitative construction waste estimation model for building construction projects[J]. Resources, Conservation and Recycling, 2016, 106:9-20. DOI:10.1016/j.resconrec.2015.11.001

[30]
江宝得, 黄威, 许少芬, 等. 融合分散自适应注意力机制的多尺度遥感影像建筑物实例细化提取[J]. 测绘学报, 2023, 52(9):1504-1514.

DOI

[Jiang B D, Huang W, Xu S F, et al. Multi-scale building instance refinement extraction from remote sensing images by fusing with decentralized adaptive attention mechanism[J]. Acta Geodaetica et Cartographica Sinica, 2023, 52(9):1504-1514.] DOI:10.11947/j.AGCS.2023.20220322

[31]
王继成. 基于深度卷积神经网络的高分遥感影像高速铁路沿线建筑物信息提取[J]. 测绘学报, 2023, 52(6):1041.

DOI

[Wang J C. Extraction of buildings along high-speed railway from high resolution remote sensing images based on convolutional neural network[J]. Acta Geodaetica et Cartographica Sinica, 2023, 52(6):1041.]

DOI

[32]
冯霞, 秦昆, 崔卫红, 等. 高分辨率遥感影像目标形状特征多尺度描述与识别[J]. 遥感学报, 2014, 18(1):90-104.

[Feng X, Qin K, Cui W H, et al. Multiscale description and recognition of target shape in high-resolution remote sensing images[J]. Journal of Remote Sensing, 2014, 18(1):90-104.] DOI:10.11834/jrs.20133056

[33]
Min W, Peidong W. CFM-UNet: A Joint CNN and Transformer Network via Cross Feature Modulation for Remote Sensing Images Segmentation[J]. Journal of Geodesy and Geoinformation Science, 2024, 6(4):40-47.

[34]
Zhang H, Zheng X C, Zheng N S, et al. A multiscale and multipath network with boundary enhancement for building footprint extraction from remotely sensed imagery[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2022, 15:8856-8869. DOI:10.1109/JSTARS.2022.3214485

[35]
刘洋, 康健, 管海燕, 等. 基于双注意力残差网络的高分遥感影像道路提取模型[J]. 地球信息科学学报, 2023, 25(2):396-408.

DOI

[Liu Y, Kang J, Guan H Y, et al. Road extraction model of high-resolution remote sensing images based on dual-attention residual network[J]. Journal of Geo-Information Science, 2023, 25(2):396-408.]

[36]
He K M, Zhang X Y, Ren S Q, et al. Deep residual learning for image recognition[C]// 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2016:770-778. DOI:10.1109/CVPR.2016.90

[37]
Fu J, Liu J, Tian H J, et al. Dual attention network for scene segmentation[C]// 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2019:3141-3149. DOI:10.1109/CVPR.2019.00326

[38]
Badrinarayanan V, Kendall A, Cipolla R. SegNet: A deep convolutional encoder-decoder architecture for image segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(12):2481-2495. DOI:10.1109/TPAMI.2016.2644615

PMID

[39]
Zhao H S, Shi J P, Qi X J, et al. Pyramid scene parsing network[C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2017:6230-6239. DOI:10.1109/CVPR.2017.660

[40]
Zhang R H, Wan Z C, Zhang Q, et al. DSAT-net: Dual spatial attention transformer for building extraction from aerial images[J]. IEEE Geoscience and Remote Sensing Letters, 2023, 20:6008405 DOI:10.1109/LGRS.2023.3304377

[41]
Zhang R H, Zhang Q, Zhang G X. LSRFormer: Efficient transformer supply convolutional neural networks with global information for aerial image segmentation[J]. IEEE Transactions on Geoscience and Remote Sensing, 2024, 62:5610713 DOI:10.1109/TGRS.2024.3366709

[42]
Zhang R H, Zhang Q, Zhang G X. SDSC-UNet: Dual skip connection ViT-based U-shaped model for building extraction[J]. IEEE Geoscience and Remote Sensing Letters, 2023, 20:6005005 DOI:10.1109/LGRS.2023.3270303

[43]
Lin S F, Yao X, Liu X L, et al. MS-AGAN: Road extraction via multi-scale information fusion and asymmetric generative adversarial networks from high-resolution remote sensing images under complex backgrounds[J]. Remote Sensing, 2023, 15(13): 3367. DOI:10.3390/rs15133367

[44]
北京市政府工作报告全文发布[EB/OL]. [2023-12-19]. http://www.bjchp.gov.cn/cpqzf/315734/bmdt/cp566 5527/index.html.

Outlines

/