地球信息科学理论与方法

室内视角下减弱点云空洞影响的三维可视性分析方法

  • 陈茂霖 , 1, 2, 3, * ,
  • 朱飞宇 1, 2, 3 ,
  • 安奥博 1, 2, 3 ,
  • 潘建平 1, 2, 3
展开
  • 1.重庆交通大学智慧城市学院,重庆 400074
  • 2.自然资源部智能城市时空信息与装备工程技术创新中心,重庆 401120
  • 3.山地城市时空信息重庆市重点实验室, 重庆 400074

陈茂霖(1991— ),男,山东德州人,博士,副教授,硕士生导师。研究方向为三维激光点云处理。E-mail:

Editor: 蒋树芳

收稿日期: 2024-05-27

  修回日期: 2024-07-28

  网络出版日期: 2024-09-10

基金资助

宁夏回族自治区重点研发计划(2022CMG02014)

重庆市研究生联合培养基地建设项目(JDLHPYJD2019004)

重庆市自然科学基金(CSTB2024NSCQ-MSX0652)

A 3D Visibility Analysis Method for Reducing the Influence of Point Cloud Voids from an Indoor Perspective

  • CHEN Maolin , 1, 2, 3, * ,
  • ZHU Feiyu 1, 2, 3 ,
  • AN Aobo 1, 2, 3 ,
  • PAN Jianping 1, 2, 3
Expand
  • 1. Smart City Institute, Chongqing Jiaotong University, Chongqing 400074, China
  • 2. Intelligent City Spatiotemporal Information and Equipment Engineering Technology Innovation Center of the Ministry of Natural Resources, Chongqing 401120, China
  • 3. Chongqing Key Laboratory of Spatial-Temporal Information for Mountain Cities, Chongqing 400074, China
* CHEN Maolin, E-mail:

Received date: 2024-05-27

  Revised date: 2024-07-28

  Online published: 2024-09-10

Supported by

Key R&D Program of Ningxia Autonomous Region(2022CMG02014)

Graduate Joint Training Base Construction Project of Chongqing(JDLHPYJD2019004)

Natural Science Foundation of Chongqing(CSTB2024NSCQ-MSX0652)

摘要

可视性是指在一定环境条件下,观察者从特定位置所能看到的空间范围。针对现有基于点云数据的可视性分析方法主要聚焦于室外视角,同时未充分考虑点云空洞的问题,提出一种减弱点云空洞影响的室内视角可视性分析方法。首先,将预处理得到的窗户中心点看作视点,以视点为中心,理论视距为半径,构建半球形视域空间。然后将视域空间内的点投影至深度图像形成视域图像,其像素深度值即为可视视距。通过分析视域空间的可视范围,模拟室内通过窗户观测到的外部场景。在这个过程中,点云空洞会造成视距错误,利用空间属性对视域空间分类,并根据不同类别视域空间的地物连续性和遮挡关系提出视距校正方法,以减弱点云空洞对可视空间体积的影响。最后,利用视点处的可视空间体积指数进行可视性分析,并与现有基于体素、基于表面的可视性分析方法以及人工评价进行比较。结果表明,本方法与人工评价的结果具有更好的一致性,能够更有效地分析建筑内部的可视性,为城市规划、景观设计等相关领域提供了一种全面可靠的可视性分析策略。

本文引用格式

陈茂霖 , 朱飞宇 , 安奥博 , 潘建平 . 室内视角下减弱点云空洞影响的三维可视性分析方法[J]. 地球信息科学学报, 2024 , 26(9) : 2052 -2063 . DOI: 10.12082/dqxxkx.2024.240296

Abstract

Visibility refers to the spatial extent that an observer can see from a specific location under certain environmental conditions. Existing visibility analysis methods, based on point cloud data, mainly focus on the outdoor perspective and do not fully consider the problem of point cloud voids. To fill the gaps in the current indoor visibility research, this paper proposes an indoor 3D visibility analysis method based on point cloud data from UAVs and ground survey data. Our method reduces the influence of point cloud voids and aims to improve the accuracy of the visibility analysis. The method presented in this paper is divided into three parts: data preprocessing, visual space construction, and visual distance correction. In the data preprocessing stage, UAV point cloud data is used to extract the building roof contour and DEM, which are utilized for subsequent visual distance correction. Ground-based point cloud data is then used to extract the center points of the windows on the building façade, which serve as observation viewpoints. In the viewspace construction stage, the viewpoint is taken as the center, and the theoretical visual distance is taken as the radius. Points within the theoretical visual distance are selected to construct a hemispherical viewspace. The points in the visual field space are projected onto the depth image to form the visual field image. The visual field of view is then calculated, and the visual range of the field of view space is analyzed to simulate the external scene observed through the window in the room. During this process, point cloud voids can lead to errors in the visual range. Specifically, when the positions of the scanning center and the viewpoint differ significantly, missing parts may appear in the visible space, and the pass-through errors may also occur near the viewpoint due to insufficient point cloud density. In the sight distance correction stage, this paper categorizes the viewspace using spatial attributes and proposes a sight distance correction method to attenuate the effect of point cloud voids on the volume of the visible space by considering the feature continuity and occlusion relationship within different categories of the viewspace. Finally, visibility analysis is conducted using the visual space volume index at the viewpoint and is compared with the existing voxel-based and surface-based visibility analysis methods, as well as a manual evaluation. The DTW distances for comparisons are 48 247, and 240, respectively. The results show that the proposed method has better consistency with manual evaluation results. It can analyze the visibility of indoor environments more effectively, and is also applicable to outdoor visibility analysis. This method provides a comprehensive and reliable visibility analysis strategy for urban planning, landscape design, and other related fields.

1 引言

可视性是一个空间概念,被用于衡量人们从特定位置对空间范围的视觉感知。可视性分析是地理信息系统(Geographic Information System, GIS)分析的重要类别之一[1],被广泛应用于多个领域,如城市设计评估[2]、空间的视觉质量评估[3]、景观分析[4]以及生态研究[5]等。随着城市空间复杂性和密度的不断增加,深入研究城市可视性分析方法,可以更好地为城市规划设计提供科学依据。
可视性分析的传统数据源包括平面数据和模型数据。20世纪70年代,Benedikt[6]提出了等视域(Isovist)的概念,以二维平面为基础定量测量建筑环境的可视性。然后,基于Isovist开发了一系列可视性分析模型,如Axwomen[7]、Depthmap[8]、Spatialist[9]。然而,这些可视性分析方法主要侧重于二维空间,无法充分反映三维空间的可视情况。为了解决这一问题,可视性分析逐渐扩展到将数字高程模型(Digital Elevation Model,DEM)[10]或遮挡视线的建筑模型[11]纳入三维空间。钮心毅[12]基于建筑模型提出了建成环境中三维空间可视性的定量评价方法。Morello[13]利用城市的DEM数据评估开放空间中建筑物的可视性,为城市规划设计提供了依据。然而,传统数据源难以准确表示复杂结构的三维对象,特别是在反映植被对可视性的影响方面。
随着激光扫描技术的发展,点云数据成为表达三维空间信息的重要手段,为三维可视性计算提供了更加精确的数据源。Alsadik等[14]提出了3种基于点云数据的可视性分析方法:基于表面的方法、隐点去除和基于体素的方法。在基于表面的方法中,Alsadik等[15]采用基于三角剖分的曲面拟合方法,通过单个三角形的法向量或它们与视线的交点来确定三角剖分曲面的可视性,这种方法非常耗时。在隐点去除的方法中,Katz等[16]利用平面轮廓投影,将表面分解为不重叠的可视点云和遮挡点云,并去除遮挡点云,对计算资源的要求较高。基于体素的方法将点云数据划分成规则的三维网格,使得可视性计算更为系统和高效[17-19]。尽管体素法在处理细节时可能会导致精度损失,但由于体素法能够简化散乱点云的表示,在可视性评价中应用最为广泛。现有研究表明,基于点云的可视性分析方法相较于依赖DEM、建筑模型等数据源的方法具有更高的精度,特别是在街道级场景下的可视性计算中,点云数据具有显著的优势。
现有基于点云的可视性分析研究仍然存在一些问题,其中包括:视点的位置不全面、未充分考虑点云空洞的影响。对于视点位置的研究主要集中在室外视角,如行人和车辆的视角[20-21],而忽略了对室内视角的研究。由于点云数据的离散型、前景遮挡等原因,部分可视区域可能存在数据空洞,尤其当视点与扫描中心的位置差异较大时,会显著降低可视性分析的精度。现有减弱点云空洞的方法主要有2种。 ① 将点云转换成连续的数据形式,如三维模型[22]。但是三维模型的精度受到数据质量的限制,模型构建与更新困难,尤其是植被、汽车等细小地物建模程序繁琐。 ② 基于体素的方法,它可以减弱离散性带来的空洞问题,但是无法填补前景遮挡导致的数据空洞[19]。近年来,随着深度学习技术的快速发展,基于深度学习的深度补全算法也是解决点云数据空洞问题的思路之一,如杨必胜等[23]提出的SGSR-Net可以有效填补稀疏深度图像中缺失的深度值,但对计算资源和标注数据的需求较高。
针对上述问题,本文提出一种减弱点云空洞影响的室内视角可视性分析方法。该方法利用无人机点云和地面测站点云作为数据源,对研究区域建筑内部的可视性进行评价。对于点云空洞造成的视距错误,利用空间属性对视域空间分类,并根据不同类别视域空间的地物连续性和遮挡关系提出视距校正方法,最终得到优化的可视空间体积。

2 研究方法

本文方法分为数据预处理、视域空间构建和视距校正3个部分,方法的流程如图1所示。在数据预处理阶段,分别基于地面测站和无人机点云模拟室内视点、表达三维环境,并通过机-地点云配准融合上述信息。在视域空间构建阶段,利用视点与周围点的空间关系计算视距,构建视域图像。在视距校正阶段,校正因点云空洞导致的视距错误。
图1 三维可视性分析方法的流程

Fig. 1 The flow of the 3D visibility analysis method

2.1 数据预处理

无人机点云具有丰富的顶面信息,地面测站点云则包含精确的立面信息。充分结合两者的优势,有助于提高可视性分析的准确性。本方法利用两种点云数据分别提取地物、地形信息,最后通过点云配准进行信息融合。
基于无人机点云提取建筑屋顶轮廓和DEM。首先,采用随机抽样一致(Random Sample Consensus,RANSAC)算法[24]提取建筑物的屋顶表面。然后,采用Alpha shape算法提取建筑屋顶轮廓点。考虑到参数α值较大时,形成的屋顶轮廓可能会忽略较小的细节,使得提取的屋顶轮廓粗糙和简化。相反, α值过小时可能会包括太多的噪声点,导致屋顶轮廓繁复且不准确。采用自适应的Alpha shape算法[25],通过动态调整 α值来更精确地捕捉屋顶轮廓。由于原始点云数据密度不足,得到的屋顶轮廓点不能满足后续使用的要求,引入道格拉斯-普克(Douglas-Peucker,DP)算法[26]提取屋顶轮廓的拐点,并在拐点之间进行线性插值,以增加屋顶轮廓点的密度。此外,本文利用布料滤波(Cloth Simulation Filter,CSF)算法提取地面点用于构建DEM,提取出的建筑物屋顶轮廓点集和DEM,为后续视域空间分类和视距校正提供数据基础。
基于地面测站点云提取立面窗户信息,通常包括3个关键步骤:建筑提取、平面分割和立面重建。本文利用Chen[27]的算法提取地面测站点云数据中的建筑物,然后采用一种密度自适应的区域增长算法用于平面分割[28],根据已经确定的平面区域的特征动态调整增长策略,以适应复杂的建筑结构和不规则的点云分布。根据分割结果,利用立面栅格图像提取窗户信息[29]。对于遮挡导致的缺失数据,利用规则化后保留的完整窗户信息及窗户间的相似性进行缺失窗户补全。如图2所示,根据4个角点可得窗户中心点,作为室内观测的视点。
图2 提取窗户信息

Fig. 2 Extract window information

信息提取后,通过机地点云配准融合2种点云提取所得信息。基于奇异值分解(Singular Value Decomposition,SVD)得到最优变换矩阵,进行粗配准。然后采用迭代最近点(Iterative Closest Point,ICP)算法进一步优化粗配准结果。

2.2 视域空间构建

2.2.1 视域空间与可视空间体积

为描述视点与可视地物的空间关系,以前文提取的室内视点为原点,窗户的法向量方向为y轴, z轴平行于原始坐标系,x轴垂直于y轴和z轴方向,建立局域坐标系,得到各点的极坐标(ρ,θ, φ)。然后,将θ值限定在[0 °,180 °]范围内,选取理论视距R内的点,构建半球形视域空间,如图3(a)所示。为了计算可视空间的体积,将视域空间在水平和竖直方向各划分出m = 180/α个区间[30],其中α表示水平方向和竖直方向的角分辨率。每个区间代表一条视线,其空间范围可用四棱锥体表示,如图3(b)所示。通过将视域空间内的点云投影至深度图像,每个区间对应一个像素,形成视域图像,如图3(c)所示。
图3 视域空间与视域图像

Fig. 3 Field of view space and field of view image

任意点P(ρ,θ, φ)的像素坐标(u,v)用式(1)计算。
u = 180 - θ / α v = φ / α
式中:u,v分别为P点在视域图像中的行号与列号;θ, φP在视点局域坐标系下的极坐标;α为角分辨率。每个像素的深度值为对应区间内的点到原点的最近距离,即可视视距,表示为depth(u,v)。 累加所有锥体体积,即得可视空间的体积,如 式(2)所示。
V = Π / 540 × v = 0 90 / α u = 0 180 - α - 1 d e p t h u , v 3                   [ s i n ( 90 - v α ) - s i n ( 90 - v α - α ) ] +                   v = 90 / α + 1 180 / α - 1 u = 0 180 / α - 1 d e p t h u , v 3 s i n ( v α -                   90 + α ) - s i n ( v α - 90 ) × α
式中:V为可视空间的体积; depth(u,v)为每个像素的深度值;为像素对应的角度。

2.2.2 视距错误分析与视域空间分类

可视空间的视距错误主要受到以下2个因素的影响。① 数据采集过程中的前景遮挡会导致背景对象存在空洞现象。当扫描中心与视点的位置差异较大时,缺失的部分可能会出现在可视空间中,如图4所示。② 点云数据的离散性可能导致数据空洞。根据深度图像的构造原理,物体距离视点越近,对点云密度的需求越高,可视性分析可能会因点云密度不足出现通视错误。
图4 点云空洞对可视性的影响

Fig. 4 The impact of point cloud voids on visibility

针对上述问题,本文引入视线区(Sector of Sight, SOS)的概念[31]来离散视域空间。在视域图像中,每一列像素对应一个SOS,按照从上到下的顺序标记每个SOS内的像素,记作Vj,其中j∈[m] (m=180/α)。根据包含的对象类型,对SOS进行分类和标记,如图5所示。具体步骤如下:
图5 SOS分类

Fig. 5 SOS classification

(1)将预处理阶段提取的建筑屋顶轮廓点投影至视域图像,并标记对应像素为V。若SOS包含V,则标记为SOSb(Sector of Sight Building, SOSb)。
(2)若SOS不包含V,则判断SOS是否只包含地面点:只包含则标记为SOSg(Sector of Sight Ground, SOSg),否则标记为SOSo(Sector of Sight Others, SOSo)。
针对不同类别的SOS,本文提出具体的视距校正方法,但都遵循一个基本准则:只在深度值递减的方向进行视距校正。

2.3 视距校正

2.3.1 SOSg视距校正

SOSg仅包含地面点云,由于点云的离散性,视线穿过地面可能会出现通视错误。本文将DEM视为地面高程真值,对于Vj,从视点出发以DEM分辨率(即最小的单元格长度)为生长半径r1,向视距方向生长。如果生长点A的高程值低于DEM中的相应高程值,则停止生长,并将A到视点的距离d记录为校正后的视距,如图6所示。
图6 SOSg校正

Fig. 6 SOSg correction

2.3.2 SOSo视距校正

SOSo包含多种非建筑物体类型,例如:植被、路灯、地面等,本文基于点密度的方法进行视距校正。以视点为起点,沿视线方向逐渐扩大球形邻域半径直至r2,选取生长点Ai进行邻域搜索。若邻域非空,记录满足校正规则的相邻点到视点的最小距离作为校正视距,如图7所示。
图7 SOSo校正

Fig. 7 SOSo correction

根据视点成像原理,当视距超过理论视距R时,Vj的覆盖范围将超过球形邻域范围。因此,在上述过程中加入一个附加条件:当距离达到R时,球形邻域的扩张停止,如式(3)所示。
R = r 2 × 180 / α × Π
式中:R为理论视距;r2为邻域搜索时的搜索半径。对于地面部分,继续采用SOSg的校正方法进行视距校正。

2.3.3 SOSb视距校正

对于包含建筑物的SOSb,数据空洞主要由前景遮挡造成。建筑物通常高于其他地物且具有立面连续性,本文计算出视点与建筑物之间的视距作为基本校正结果,再根据地物之间的遮挡关系进行视距校正。首先标记SOSb中建筑屋顶轮廓点所在的全部像素,按照像素对应的极坐标φ值由小到大进行排序,表示为集合G ={g1g2,…,gk},标记为1,表示为有效单元格,其余标记0,如图8(a)所示。
图8 SOSb 校正

Fig. 8 SOSb correction

为移除G中不可视的屋顶轮廓,将屋顶轮廓点所在像素到视点的水平距离表示为集合P = {p1p2,…,pk},由式(4)依次比较水平距离:
G ' = { g i G | j ( i , k ] ,       p i > p j }
式中:G'为集合G的子集;gi为集合G中的任意像素;pi为集合G中的任意像素到视点的水平距离,pjj大于i的像素的水平距离。再根据φ值排序,得到G的子集G' = { g1',g2',…,gs' }。对于G'的最后一个像素,计算该像素内的屋顶轮廓点在DEM上的投影点,视为距视点最近的建筑立面点,并投影到SOSb中相应的像素上,标记为gs+1',如图8(b)所示。
任意j∈[1,s],gj'与gj+1'之间的像素相对应的视线,被靠近视点的建筑阻挡。对于gj'与gj+1'之间的视距,由式(5)计算得出:
L j [ 1 , s ] = l / s i n φ + α / 2 ,         φ 90 ° l / c o s φ - 90 - α / 2 ,     φ 90 °
式中: l为最近的屋顶轮廓点到视点的水平距离; φ为相应视距的天顶角; L被记录为校正后的视距。如图8(c)所示。
对于地面和非建筑物部分,继续采用SOSo的校正方法进行校正,如图8(d)所示。

3 实验与分析

3.1 实验数据

实验选取大学校园作为研究区域,其相应的无人机点云和地面测站点云数据如图9所示。研究区域内主要包括3个建筑群:A01教学区、B01教学区以及德园宿舍楼。数据预处理完成后,选择部分建筑屋顶轮廓和窗户数据,与手动标记的结果对比,重叠度均超过90%。研究区域内建筑屋顶轮廓和窗户信息的提取结果以及配准融合后的数据,如图10所示。
图9 原始数据

Fig. 9 Raw data

图10 无人机与地面测站数据融合结果

Fig. 10 Results of fusion of UAV data and ground station data

3.2 参数设置

实验需要设置的参数包括视域空间划分过程中的角分辨率α,理论视距R,视距校正过程中的生长半径r1r2R的值取决于人眼的有效视距,有效视距会因个体的视力差异而变化,过远的观测距离也可能会引起视线失真,而光照条件不佳同样会降低有效视距[32]。考虑到这些因素,针对街道级的大学校园场景数据,设定观测距离为300 m,以准确地模拟真实的视觉环境。在视距校正的过程中,r1r2的值会影响校正的精度。其中,r1的设置与DEM分辨率有关,将其设置为1 m。理论上r1的值可以更小,但实验验证表明,其对可视性的影响较小,可视空间体积的变化不超过0.1%。r2的值与点云密度有关,已有研究表明最优邻域半径通常为点间距的1~10倍[33],实验数据的平均点间距为0.015 m,因此将r2设置为0.15 m。角分辨率α影响着视域图像的精度,随着α的减小,视域图像的精度提高,相应的计算时间也会增加。当α低于1°时,可视空间的体积变化较小,为了平衡质量和效率,将其设置为0.4°。

3.3 视域图像校正

视域图像的校正结果如图11所示,从图中可以清晰看出,点云空洞造成的视距错误得到了有效的改善。校正前后的视域图像说明了本文方法在植被、建筑和地形上校正的有效性。校正后视距的准确性显著提升,进一步提高了整个场景可视性计算的准确性。
图11 视域图像校正

Fig. 11 Field of view image correction

3.4 体积对比与精度评定

为了定量比较可视空间体积,选取一些位于不同建筑、不同楼层的40个窗户视点作为样本。针对这些样本,对其可视空间体积进行了计算。由于基于DEM和物体模型的传统可视性计算方法严重低估了空间的可视性,本文只对基于点云数据的可视性分析方法对比。将改进方法计算出的可视空间体积与现有基于体素[17,31]和基于表面[34]的方法计算的结果进行比较。在这个过程中,结合构建视域空间的参数(Rα),将体素大小设为2 m,计算结果如图12所示。由图可知,基于体素的方法和基于表面的方法计算的可视空间体积通常大于本研究方法计算的结果。其原因可能是这两种方法将点云空洞区域对应的视线视为完全无遮挡,从而导致部分视点的可视性被高估。
图12 本文方法与现有方法的可视空间体积计算结果比较

Fig. 12 Comparison of visible space volume calculation results between this method and existing methods

由于现实环境的复杂性,可视空间体积的真值难以准确测量。现场收集了40个样本视点的真实场景图像,通过一系列测评人员的主观可视感受排名作为参考,用以确定可视空间体积真值的相对大小。本文利用埃洛等级分系统(Elo Rating System,ELO)[35]对样本图像进行可视性评级。在这个过程中,测评人员被要求对随机选择的图像依据可视性进行两两比较,动态调整得分结果,最终实现可视性排序。图13为不同方法得到的样本视点可视性排名曲线,采用动态时间规整(Dynamic Time Warping, DTW)方法评价不同方法的排名曲线与人工评价结果的相似度,DTW距离越小,表示2个序列之间相似度越强。本文方法、基于体素的方法、基于表面的方法与人工评价结果的DTW距离分别为48、247和240。结果表明,本文方法与人工评价具有更好的一致性,有效解决了点云空洞导致的虚假可视空间问题。
图13 改进方法对比

Fig. 13 Comparison of improved methods

3.5 可视性分析

为了直观展示建筑内部的可视性,本研究依据提取的建筑屋顶轮廓数据构建了完整的三维建筑模型。通过计算每个视点的可视空间体积指数(即可视空间体积与视域空间体积的比值)来表示可视性的大小。然后,根据该指数的最大值与最小值,将其划分为10个可视等级,每10%的等距间隔对应一个等级,数值越大表示可视等级越高,如图14所示。
图14 建筑可视性分析

Fig. 14 Building visibility analysis

3.6 讨论

从3.4节可视空间体积定量比较结果可知,现有方法计算的可视空间体积通常大于本研究方法的计算结果。这种差异的原因在于,激光扫描得到的点云数据可视为对三维空间的真实尺寸还原,其误差可达毫米级,一般不超过1~2 cm。理想情况下,若能扫描到所有地物的点云数据,计算得到的可视空间体积可以认为是真值。但现实情况下,点云数据往往存在部分数据空洞。在此基础上,每缺失一部分点云,便会导致可视空间体积变大。其原因可能是点云空洞区域对应的视线被视为完全无遮挡,导致视距增大且视距错误可达数米级,可视空间体积显著增加。因此,多数情况下,对同一数据、不同方法得到的可视空间体积,较小体积值的可信度会更高。
尽管本文方法在可视性计算精度上具有明显的优势,但在实际应用中也存在一定的局限。在视距校正过程中,该方法假设建筑立面为平面来模拟视线的连续性,这一假设在处理常见的规则建筑时表现出较高的准确性。然而,在处理立面为曲面或结构复杂的建筑时,该方法的准确性会受到影响。在未来的研究中,对于复杂建筑物的视距校正,需要对建筑表面进行更详细的数学描述,最终实现可视性的准确分析。

4 结论

本文基于无人机点云数据和地面测站点云数据,提出一种减弱点云空洞影响的室内三维可视性分析方法,旨在为室内可视性研究提供一些思路并提高可视性分析的精度。选取重庆交通大学校园作为测试场景,主要结论如下: ① 考虑到室内数据获取的局限性,该方法利用室外数据模拟室内观测的视域空间,为室内可视性分析提供了新的解决方案。通过地面测站点云提取窗户信息构建室内视点,并利用机-地融合点云准确描述三维环境,能够有效反映城市建成环境对室内可视性的影响。 ② 针对点云空洞造成的视距错误问题,提出一种新的视距校正方法来减弱点云空洞的影响。将视域空间分为地面、包含建筑、其他类型3类,并利用其空间属性及视线连续性进行视距校正。再将本文方法、体素法、表面法与人工评价结果对比,DTW距离分别为48、247和240。结果表明,本文方法与人工评价结果具有更好的一致性,更接近真实的可视感受。该方法不仅适用于室内可视性分析,同样适用于室外环境的可视性分析,只需将视点从室内转移到室外即可。城市空间视觉质量的评价不仅仅依赖于单一的可视性因子,还包括绿植覆盖率、地面覆盖率、建筑覆盖率等其他因子。这些因子的计算不可避免地受到点云空洞的影响,例如,缺少部分植被点可能导致绿植覆盖率计算的不准确。本文提出的方法同样可以为这些因子计算时面临的点云空洞问题提供解决思路。通过对点云数据进行分类并根据修正结果更准确地计算这些因子,有助于未来全面评估城市环境的可持续性和宜居性。
[1]
Moser J, Albrecht F, Kosar B. Beyond visualisation - 3D GIS analyses for virtual city models[J]. International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences - ISPRS Archives, 2010, 38(4):143-146.

[2]
Yang P P J, Putra S Y, Li W J. Viewsphere: A GIS-based 3D visibility analysis for urban design evaluation[J]. Environment and Planning B: Planning and Design, 2007, 34(6):971-992. DOI:10.1068/b32142

[3]
Wu B, Yu B L, Shu S, et al. Mapping fine-scale visual quality distribution inside urban streets using mobile LiDAR data[J]. Building and Environment, 2021, 206:108323. DOI:10.1016/j.buildenv.2021.108323

[4]
齐君, 白钊成, 吕光耀, 等. 基于人眼视域图像识别的风景道视觉景观质量评价[J]. 地理学报, 2022, 77(11):2817-2837.

DOI

[Qi J, Bai Z C, G Y, et al. Visual landscape quality of scenic road: Applying image recognition to decipher human field of view[J]. Acta Geographica Sinica, 2022, 77(11):2817-2837.] DOI:10.11821/dlxb202211009

[5]
Zong X, Wang T J, Skidmore A K, et al. The impact of voxel size, forest type, and understory cover on visibility estimation in forests using terrestrial laser scanning[J]. GIScience & Remote Sensing, 2021, 58(3):323-339. DOI: 10.1080/15481603.2021.1873588

[6]
Benedikt M L. To take hold of space: Isovists and isovist fields[J]. Environment and Planning B: Planning and Design, 1979, 6(1):47-65. DOI:10.1068/b060047

[7]
Jiang B, Claramunt C, Batty M. Geometric accessibility and geographic information: Extending desktop GIS to space syntax[J]. Computers, Environment and Urban Systems, 1999, 23(2):127-146. DOI:10.1016/S0198-9715(99)00017-4

[8]
Turner A, Doxa M, O’Sullivan D, et al. From isovists to visibility graphs: A methodology for the analysis of architectural space[J]. Environment and Planning B: Planning and Design, 2001, 28(1):103-121. DOI:10.1068/b2684

[9]
Peponis J, Wineman J, Rashid M, et al. Describing plan configuration according to the covisibility of surfaces[J]. Environment and Planning B: Planning and Design, 1998, 25(5):693-708. DOI:10.1068/b250693

[10]
贺文慧, 杨昕, 汤国安, 等. 基于数字高程模型的城市地表开阔度研究——以南京老城区为例[J]. 地球信息科学学报, 2012, 14(1):94-100.

DOI

[He W H, Yang X, Tang G A, et al. Research on sky view factor in urban area based on urban digital elevation model: A case study of Nanjing old city[J]. Journal of Geo-Information Science, 2012, 14(1):94-100.] DOI:10.3724/SP.J.1047.2012.00094

[11]
Suleiman W, Thierry J. 3D urban visibility analysis with vector GIS data[J]. GISRUK, 2011:27-29.

[12]
钮心毅, 徐方. 基于视觉影响的建成环境空间开敞度定量评价方法[J]. 城市规划学刊, 2011(1):91-97.

[Niu X Y, Xu F. Quantitative evaluation of spatial openness of built environment using visual impact analysis[J]. Urban Planning Forum, 2011(1):91-97.] DOI:10.3969/j.issn.1000-3363.2011.01.013

[13]
Morello E, Ratti C. A digital image of the city: 3D isovists in Lynch’s urban analysis[J]. Environment and Planning B: Planning and Design, 2009, 36(5):837-853. DOI: 10.1068/b34144t

[14]
Alsadik B, Gerke M, Vosselman G. Visibility analysis of point cloud in close range photogrammetry[J]. ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 2014, II-5:9-16. DOI:10.5194/isprsannals-ii-5-9-2014

[15]
Gal O, Doytsher Y. Fast visibility analysis in 3D procedural modeling environments[C]// Proceedings of the 3rd International Conference on Computing for Geospatial Research and Applications. ACM, 2012:1-6. DOI:10.1145/2345316.2345348

[16]
Katz S, Tal A, Basri R. Direct visibility of point sets[C]// ACM SIGGRAPH 2007 papers. ACM, 2007:24-36. DOI: 10.1145/1275808.1276407

[17]
Peng Y Y, Zhang G T, Nijhuis S, et al. Towards a framework for point-cloud-based visual analysis of historic gardens: Jichang Garden as a case study[J]. Urban Forestry & Urban Greening, 2024, 91:128159. DOI:10.1016/j.ufug.2023.128159

[18]
Hu T Y, Wei D J, Su Y J, et al. Quantifying the shape of urban street trees and evaluating its influence on their aesthetic functions based on mobile lidar data[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2022, 184:203-214. DOI:10.1016/j.isprsjprs.2022.01.002

[19]
Qi J D, Lin E S, Tan P Y, et al. Development and application of 3D spatial metrics using point clouds for landscape visual quality assessment[J]. Landscape and Urban Planning, 2022, 228:104585. DOI:10.1016/j.landurbplan.2022.104585

[20]
Pyka K, Piskorski R, Jasińska A. LiDAR-based method for analysing landmark visibility to pedestrians in cities: Case study in Kraków, Poland[J]. International Journal of Geographical Information Science, 2022, 36(3):476-495. DOI:10.1080/13658816.2021.2015600

[21]
米晓新, 杨必胜, 董震. 车载激光点云道路场景可视域快速计算与应用[J]. 武汉大学学报(信息科学版), 2020, 45(2):258-264.

[Mi X X, Yang B S, Dong Z. Fast visibility analysis and application in road environment with mobile laser scanning data[J]. Geomatics and Information Science of Wuhan University, 2020, 45(2):258-264.] DOI: 10.13203/j.whugis20180380

[22]
Guo Y, Lai D C, Hu X J. Measuring river-view visibilities of individual dwellings for planning of compact urban riverside neighborhood blocks[J]. Sustainability, 2023, 15(9):7059. DOI:10.3390/su15097059

[23]
Chen C, Jin A, Wang Z Y, et al. SGSR-net: Structure semantics guided LiDAR super-resolution network for indoor LiDAR SLAM[J]. IEEE Transactions on Multimedia, 2023, 26:1842-1854. DOI: 10.1109/TMM.2023.3289752

[24]
Raguram R, Chum O, Pollefeys M, et al. USAC: A universal framework for random sample consensus[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(8):2022-2038. DOI:10.1109/TPAMI.2012.257

PMID

[25]
DOS S R C, Galo M, Carrilho A C. Extraction of building roof boundaries from LiDAR data using an adaptive alpha-shape algorithm[J]. IEEE Geoscience and Remote Sensing Letters, 2019, 16(8):1289-1293. DOI:10.1109/LGRS.2019.2894098

[26]
Saalfeld A. Topologically consistent line simplification with the Douglas-peucker algorithm[J]. Cartography and Geographic Information Science, 1999, 26(1):7-18. DOI: 10.1559/152304099782424901

[27]
Chen M L, Liu X J, Zhang X Y, et al. Building extraction from terrestrial laser scanning data with density of projected points on polar grid and adaptive threshold[J]. Remote Sensing, 2021, 13(21):4392. DOI: 10.3390/rs13214392

[28]
安奥博, 陈茂霖, 赵立都, 等. 长测距地基点云密度自适应平面分割算法[J]. 激光技术, 2023, 47(5):606-612.

[An A B, Chen M L, Zhao L D, et al. Density adaptive plane segmentation from long-range point cloud[J]. Laser Technology, 2023, 47(5):606-612.] DOI:10.7510/jgjs.issn.1001-3806.2023.05.005

[29]
Pu S, Vosselman G. Knowledge based reconstruction of building models from terrestrial laser scanning data[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2009, 64(6):575-584. DOI:10.1016/j.isprsjprs.2009.04.001

[30]
杨俊宴, 马奔. 城市天空可视域的测度技术与类型解析[J]. 城市规划, 2015, 39(3):54-58.

[Yang J Y, Ma B. Analysis on measurement techniques and types of urban sky view[J]. City Planning Review, 2015, 39(3):54-58.] DOI: 10.11819/cpr20150310a

[31]
Zhao Y, Wu B, Wu J P, et al. Mapping 3D visibility in an urban street environment from mobile LiDAR point clouds[J]. GIScience & Remote Sensing, 2020, 57(6):797-812. DOI:10.1080/15481603.2020.1804248

[32]
Ogburn D E. Assessing the level of visibility of cultural objects in past landscapes[J]. Journal of Archaeological Science, 2006, 33(3):405-413. DOI: 10.1016/j.jas.2005.08.005

[33]
An A B, Chen M L, Zhao L D, et al. Density adaptive plane segmentation from long-range terrestrial laser scanning data[C]. IGARSS 2022-2022 IEEE International Geoscience and Remote Sensing Symposium. IEEE, 2022:7511-7514. DOI:10.1109/IGARSS46834.2022.9884779

[34]
Wu X F, Oldfield P, Heath T. Spatial openness and student activities in an atrium: A parametric evaluation of a social informal learning environment[J]. Building and Environment, 2020, 182:107141. DOI:10.1016/j.buildenv.2020.107141

[35]
Liu Y Z, Chen M X, Wang M H, et al. An interpretable machine learning framework for measuring urban perceptions from panoramic street view images[J]. iScience, 2023, 26(3):106132. DOI:10.1016/j.isci.2023.106132

文章导航

/