摘要
针对精细化实景三维建筑物建模,提出一种基于改进遗传算法(IGA)的建筑物LiDAR点云与正射影像融合提取方法:计算并提取基于点云和影像的特征,实现点云特征空间的扩张;再改进遗传算法选择点云特征,构建并优化特征空间;最后使用SVM分类器实现建筑物点云的精准提取。在ISPRS公开数据集Vaihingen测试数据的试验表明本文方法具有较高的建筑物提取精度;在实际生产数据的实验表明建筑物提取精度较高且稳定,证明了本文方法的先进性和普适性。
随着高分遥感影像的普及和光学遥感技术的成熟,利用遥感影像的光谱特性已可以对建筑物进行较为精准的二维提取。卢麒
LiDAR(Light Detection and Ranging)技术是一种主动的遥感技术,可得到目标物精准的空间位置信息,包含高程、强度和回波等。已有很多研究实现了基于点云的三维建筑物提取。Zhao
随着遥感数据多样化,多源数据的融合成为必然趋
特征维度过高会导致时间复杂度的增加,相关性高的不同特征之间存在冗余。因此需要降低特征维数,简化特征矩阵,提高建筑物提取效率。特征选择的本质是组合优化问题,通常通过群体智能算法解决。常用算法有:遗传算法(Genetic Algorithm,GA
本文首先对原始点云进行预处理,实现点云与影像的配准。再提取点云的局部特征,结合遥感影像的彩色纹理特征,得到多维特征集合。随后采取改进的遗传算法对特征进行筛选,去除部分相关性大的特征,减少特征维数。再利用优化后的特征高效训练随机森林模型,对点云进行监督分类,实现建筑物提取。流程如

图1 技术流程图
Fig. 1 Technical flow chart
点云数据是指三维坐标系统中的一组向量的集合,反映了目标物精确的空间位置。点云与其邻域内的点的空间位置关系反映了点云的局部空间结构特征,通过这些特征可以有效地区分不同地物类型。同时,不同大小和类型的邻域,展现出来的特征也各不相同。点云的局部特征可以通过点云邻域协方差矩阵获得,相比协方差矩阵的特征向量,协方差矩阵的特征值(λ1, λ2, λ3)具有旋转不变
类别 | 名称 | 简称 | 公式 |
---|---|---|---|
基于特征值的特征 | 特征值和 | SU | |
全方差 | TV | ||
特征熵 | EI | ||
各向异性 | AN | ||
平面度 | PL | ||
线性度 | LI | ||
表面粗糙度 | SR | ||
球形度 | SP | ||
基于密度的特征 | 点云密度 | PD | |
基于强度的特征 | 平均强度 | AI | |
基于高程的特征 | 向上高差 | HA | Z-Zmin |
向下高差 | HB | Zmax-Z | |
邻域高程方差 | NHV |
λ1、 λ2和λ3是中心点的特征值,通过计算其邻域点集的协方差矩阵来获得。通过特征值间的运算得到点云的一系列结构特征,包括特征值和(SU)、总方差(TV)、特征值熵(EI)、各向异性(AN)、平面度(PL)、线性度(LI)、表面粗糙度(SR)和球形度(SP)。AN表示邻域内点沿三个垂直轴分布的均匀性,有利于区分建筑物与植被。PL是指点云平面度,较高的PL值的点集平面结构更加明显,例如建筑物的屋顶。LI代表点云的线性度,显示邻域内点的线性程度,线性度高的对象如电力线。SR反映了邻域内所有点空间分布的不规则性。通常,由于植被点云分布杂乱离散,其粗糙度较高,然而,建筑物屋顶等平面物体的粗糙度较低。
点云数据还包含密度、强度、高程、回波等信息。密度特征反映了点云的空间分布特点,可以精确描述点云几何特征。强度特征反映了地物的反射属性,平均强度AI代表了邻域所有点强度的平均值。基于高度的特征包括HA(向上高差)、HB(向下高差)和NHV(邻域高程方差)。HA代表当前点与邻域中最高点间的高度差。HB代表当前点与最低点之间的高度差。NHV代表当前点与邻域中所有点高程均值间的高度差。对于高程发生突变的物体,可通过较高的NHV值清晰地区分出来,如建筑物立
上述基于特征值、高程和密度的特征,结合不同类型和半径的邻域,可以扩展得到具有相当维度的特征向量,用于点云的特征描述。与单尺度特征相比,可以更有效地提取建筑物点
点云和影像精确配准后,利用其二维坐标与影像像素位置的对应关系,可得到每个点对应的影像特征作为补充特征,包括基于RGB的特征和基于纹理的特征。
受图像数据波段算法的启发,本文利用三个波段的组合设计红色度、绿色度、蓝色度三项指标作为点云的RGB特征。以绿色度为例,计算方法为绿色波段反射值与其余两波段反射值之和的比。植被与建筑物相比,在绿色波段具有反射峰,因此绿色度可以有效地区分植被和建筑物。
受灰度共生矩阵的彩色图像纹理特征提取方法的启发(color GLCM,CGLCM
本文使用的遥感影像包含RGB三个波段,由GLCM的计算公式得,CGLCM 的计算公式为
, | (1) |
式中: 为彩色图像的两个波段; 为波段上的像元, 为该像元在波段上的坐标; 为波段上的像元,为像元在波段上的坐标; 和为以上两个像元的灰度值; d为以上两个像元在方向上的距离,如

图 2 距离示意图
Fig. 2 Schematic diagram of distance
因此,当,分别为红(r)波段、绿(g)波段、蓝(b)波段时,由
, | (2) |
式中 FE(z)为矩阵z的纹理特征值。最后对向量FV的9个分量求均值,作为用 CGLCM方法计算纹理特征的结果。
综上,本文中影像特征的种类、含义和公式如
类别 | 名称 | 简称 | 公式 |
---|---|---|---|
基于RGB的特征 | 红色度 | RE | Red/( Green +Blue) |
绿色度 | GR | Green/(Red+Blue) | |
蓝色度 | BL | Blue/(Red+ Green) | |
基于彩色影像的纹理特征 | 角二阶矩 | ASM | |
对比度 | CON | ||
相关性 | COR | ||
熵 | EN |
表示GLCM中第(i,j)个元素的值,,,,分别代表第i行元素、第j列元素的均值和标准差。角二阶矩(angular second moment,ASM)反映了图像灰度分布的均匀性和纹理的粗细,ASM值越大,纹理越粗;对比度(contrast,CON)反映了图像的清晰程度,CON值越大,图像纹理沟壑越深,视觉效果越清晰;相关性(correlation,COR)衡量整个图像中像素与其相邻像素的相似程度,CON值大,表示纹理指向该方向;熵(Entropy,EN)是图像信息量的度量,EN值越大,灰度的随机性越大,图像纹理越复杂。
提取影像彩色纹理特征的具体步骤如下:
1) 选择5×5的滑动窗
2) 选择步距δ,本文选择δ=1,即对中心像素进行运算,并与直接相邻的像素进行比较;
3) 选择θ为 0°、45°、90°、135°四个方向。本文取四个方向特征结果的平均值作为中心像素的特
4) 计算小窗图像的CGLCM,计算相关特征分配给中心像素。然后将窗口移动到下一个像素,得到新的小窗口图像,重复计算过程,直到整个图像计算完成。
在提取点云空间特征和影像纹理特征后,需要将纹理特征分配给点云,以扩展点云的特征维度。由于点云和图像在预处理中已经实现了高精度配准,因此点云和图像在XY平面上具有精确的空间位置对应关系。因此,在XY方向上投影点云,每个点都会落在某个像素内。根据1.1.2节,基于GLCM对每个像素点进行计算得到一系列纹理特征图像,将像素内的所有纹理特征分配给落在像素点内的点,实现点云特征矩阵的维数扩展,相关原理如

图 3 特征融合原理
Fig. 3 Principle of feature fusion
在图中,Pti代表某个像素内的点,总共有n个,ai到ki代表该点的所有点云空间特征,Ai到Li代表该像素的所有基于GLCM的纹理特征。因此,点云的特征空间从{ai,bi,…,ki}扩展到{ai,bi,…,ki,Ai,Bi,…,Li}。
特征选择的本质是从融合后的特征集中选择最具代表性和最优的特征子集。对于本文实验,最优子集是指经训练得到最优分类模型的特征子集。需要进行特征选择的原因主要有以下三点:a)存在对分类有不利影响的特征,某些特征在本实验中可能不利于分类器的训练,甚至会降低分类的准确率,需要剔除;b)一些特征间存在较大相关性,由于半径和邻域类型的不同,同类型特征会产生多个特征向量,可能包含大量冗余信息;c)通过选择进行特征优化。在分类器的训练中,不同特征对训练有不同程度的正向影响。选取对分类器训练效果更优的特征,是提高结果精度的关键。
特征选择的流程图如

图4 特征选择流程图
Fig. 4 Feature selection flow chart
本文采用改进的遗传算法(Improved Genetic Algorithm,IGA)进行特征选择与降维。具体为:改变染色体的编码方式,使之适用于特征选择;在传统遗传操作(选择、交叉和变异)的基础上,增加重复过滤器(REfilter),提高特征选择效率。
染色体由二进制字符串组成,代表了不同特征组合形成的各个子集,每个特征可视为其上的一个基因。如果选择了某一特征,则该特征对应的位置基因为1,否则为0。由此得到的不同染色体对应不同的特征组合,通过训练后生成的特征分类模型也具有不同的分类效果。在达到遗传算法的迭代循环次数后,可以得到满足需要的染色体,其01编码对应最优特征子集。编码原理图如

图5 IGA算法染色体编码设计
Fig. 5 Design of IGA algorithm chromosome coding
为提高实验效率,本文设计了重复特征过滤器(REfilter)。该过滤器位于传统的遗传操作之后,用于筛选出连续十次编码均为0或1的特征,并将其永久剔除或保留。
本实验中,使用支持向量机(SVM)二分类模型实现建筑物点云的提取。为了提高分类的准确率,减少分类器的训练时间,选择的特征子集需要尽可能具有代表性,并且维度尽可能低。所以在设计适应度函数时,函数值的大小需要由特征维度和分类精度两项指标决定。分类精度越高,特征维数越小,适应度值就应越高,表示分类更高效准确。因此,本文设计了一种适应度函数的计算方法。首先,根据SVM训练的分类器对测试集进行分类,将预测结果与真实标签进行比较并计数,得到分类混淆矩阵,计算TP(True Positive)、FP(False Positive)、TN(True Negative)、FN(False Negative)四项指标,并得出P(Precision)和R(Recall)。最后使用F1值来评价分类精度,如
, | (3) |
然而特征集合的维度越高,SVM分类器分类速度越慢。因此,应添加基于训练特征子集维度的惩罚措施。本文设计的最终适应度函数如
, | (4) |
本文选择ISPRS的公开数据集对方法进行精度测试,之后使用实际生产数据验证方法的稳定性。实验环境为拯救者R9000P笔记本,AMD Ryzen™ 7 5 800 H,3.2 GHz CPU,32.0 GB内存,Windows11 64位操作系统。
ISPRS的公开数据集Vaihingen采集自德国的Vaihingen地区,包含area1、area2和area3三个实验区,并提供每个区域的正射影像、点云和DSM等数据。正射影像分辨率为0.09 m,点云平均密度为4 pts/
实际生产数据1正射影像分辨率为0.2 m,点云平均密度为30 pts/

(a) area1

(b) area2

(c) area3

(d) production data 1

(e) production data 2
图6 实验数据的正射影像
Fig. 6 Orthophoto of experimental data
实验首先采用
为验证实验的先进性和普适性,采用
本文基于与影像融合后的地物点云,提取1.1节描述的点云特征和影像特征。其中,基于点云提取球形邻域和圆柱形邻域时,根据经验将邻域半径设置为1 m和2 m,提取的点云特征和影像特征共计82维。实验对数据集Vaihingen进行分层抽样,在每一次迭代中,随机选取20%的数据点训练分类器,余下80%的点作为精度验证数据。设置算法的选择率(代沟率)0.6,交叉率0.9,变异率0.1,初始种群数量为20,为以更少的迭代次数获得收敛结果。
Vaihingen的三个实验区特征集合经过特征优化后,特征数量从82维降低至12维,大大降低了训练所需特征维数,减少了特征冗余。保留的特征为:特征熵(k=5),平面度(k=5),表面粗糙度(k=5),各向异性(k=5),特征熵(r=1 m),平面度(r=1 m),表面粗糙度(r=1 m),平均强度(r=2 m),向下高差(r=2 m),绿色度(r=1),对比度和熵,包含光谱纹理特征和点云特征,证明点云和影像均存在可提高结果精度的特征。
实验采用ISPRS官方提供的参考数据进行定量评价。采用的指标包括基于面积(per-area)、目标(per-object)、面积大于50
实验区 | Compl area | Corr area | Compl obj | Corr obj | Compl obj>50 | Compl obj>50 |
---|---|---|---|---|---|---|
area1 | 96.83 | 98.53 | 95.6 | 97.9 | 100 | 100 |
area2 | 96.89 | 97.64 | 96.7 | 98.7 | 100 | 100 |
area3 | 96.25 | 97.85 | 90.6 | 98.2 | 100 | 100 |
平均 | 96.66 | 98.02 | 94.3 | 98.3 | 100 | 100 |
ID | Compl area | Corr area | Compl obj | Corr obj | Compl obj>50 | Compl obj>50 |
---|---|---|---|---|---|---|
WHU_ZZ | 86.1 | 94.9 | 75 | 95.6 | 97.4 | 100 |
MON3 | 93.7 | 81.3 | 76.8 | 95.7 | 97.4 | 100 |
WHU_YD | 90.2 | 98.1 | 85.7 | 98 | 97.4 | 100 |
CSU | 93.9 | 94.7 | 80.4 | 100 | 100 | 100 |
MON4 | 93.7 | 81.3 | 76.8 | 95.7 | 97.4 | 100 |
MON5 | 89.7 | 87.9 | 83.9 | 91.7 | 97.4 | 100 |
HKP | 89.2 | 97.7 | 76.8 | 97.8 | 97.4 | 100 |
ZNU | 95.5 | 96.9 | 86.5 | 100 | 100 | 100 |
WHU&HKP | 94.3 | 93.8 | 75.0 | 97.0 | 99.1 | 100 |
CSU | 95.3 | 97.0 | 85.4 | 100 | 100 | 100 |
本文方法 | 96.7 | 98.0 | 94.3 | 98.3 | 100 | 100 |
表中数据截取自ISPRS官网上2016年以来精度较高的结果,加粗数字为该列最高的精度。
通过

(a) area1 per-area

(b) area2 per-area

(c) area3 per-area

(d) area1 per-object

(e) area2 per-object

(f) area3 per-object
图7 Vaihingen建筑物提取结果
Fig. 7 Building extraction results of Vaihingen
用于实际生产的两个实验区特征集合经过特征优化后,特征数量从82维降低至10维。保留的特征为:特征熵(k=5),平面度(k=5),各向异性(k=5),表面粗糙度(r=1 m),平均强度(r=2 m),向下高差(r=2 m),绿色度(r=1),相关性,对比度和熵,包含光谱纹理特征和点云特征,证明某些特征对建筑物提取具有显著效果。实验采用3.2.1节的评定标准对实验结果进行定量评价。实验精度如
实验区 | Compl area | Corr area | Compl obj | Corr obj | Compl obj>50 | Compl obj>50 |
---|---|---|---|---|---|---|
实际生产1 | 96.83 | 96.17 | 95.31 | 95.24 | 100 | 100 |
实际生产2 | 97.35 | 97.64 | 96.90 | 97.06 | 100 | 100 |
平均 | 97.09 | 96.91 | 96.11 | 96.15 | 100 | 100 |

(a) production data 1

(b) production data 2
图8 实际生产区建筑物提取结果
Fig. 8 Building extraction results of production data
从
本文基于改进的遗传算法,提出了融合LiDAR点云和航空影像的建筑物点云提取方法,通过提取点云特征和影像彩色纹理信息特征,借助SVM分类器和改进的遗传算法对特征进行优化降维。本文的实验方法将两组实验区的特征维数从82维分别降低至12维和10维,在保证特征具有代表性的基础上,提高了分类器训练的效率。优化后的特征组合训练的分类器在ISPRS公开数据集Vaihingen上获得了最优的完整率(96.7%,94.3%),优于网站上其他建筑物提取算法,同时获得了较高的正确率(98.0%,98.3%);在实际生产数据集上也获得了极高的完整率和正确率,提高了建筑物点云的提取精度,且证明了实践方法的普适性。观察两组优化选择后的特征,影像特征在建筑物提取中均起到了显著的作用,进而说明了本文方法的正确性和优越性。获得高精度的建筑物点云后,拟合建筑物边缘并规则化是下一步的研究方向。
References
Lu Qi, Qin Jun, Yao Xue-Dong, et al. Buildings extraction of GF-2 remote sensing image based on multi-layer perception network[J]. Remote Sensing for Natural Resources. 卢麒,秦军,姚雪东,等.基于多层次感知网络的GF-2遥感影像建筑物提取[J]. 国土资源遥感, 2021, 33(02): 75-84. [百度学术]
Feng Fan, Wang Shuang-Ting, Zhang Jin, et al. Building extraction from remote sensing imagery basedon scale-adaptive fully convolutional network[J]. Laser & Optoelectronics Progress. 冯凡,王双亭,张津,等.基于尺度自适应全卷积网络的遥感影像建筑物提取[J]. 激光与光电子学进展, 2021, 58(24): 459-470. [百度学术]
Reba M , Seto K C . A systematic review and assessment of algorithms to detect, characterize, and monitor urban land change[J]. Remote Sensing of Environment, 2020, 242(1):111739. [百度学术]
Zhao R , Pang M , Wei M . Accurate extraction of building roofs from airborne light detection and ranging point clouds using a coarse-to-fine approach[J]. Journal of Applied Remote Sensing, 2018, 12(2):1. [百度学术]
Du S , Zhang Y , Zou Z , et al. Automatic building extraction from LiDAR data fusion of point and grid-based features[J]. Isprs Journal of Photogrammetry & Remote Sensing, 2017, 130(aug.):294-307. [百度学术]
Hujebri B , Ebrahimikia M , Enayati H . Automatic building extraction from LiDAR point cloud data in the fusion of orthoimage[J]. Copernicus GmbH, 2019. [百度学术]
Cai Zhan, Li Ru-Ren, Li Xin-Ke, et al. Building roof boundary extraction from LiDAR point cloud[J].Geography and Geo-Information Science. 蔡湛,李如仁,李新科,等.一种基于激光点云数据的房屋轮廓线提取方法[J]. 地理与地理信息科学, 2021(2013-5):17-21. [百度学术]
Reba M , Seto K C . A systematic review and assessment of algorithms to detect, characterize, and monitor urban land change[J]. Remote Sensing of Environment, 2020, 242(1):111739. [百度学术]
Di Wei-Qi. Building Extraction Using the Fusion of Point Cloud and Image Base on Deep learning Method[D]. Guilin :Guilin University of Technology. 2021.狄玮琪. 基于深度学习的点云与影像联合建筑物提取方法[D]. 桂林理工大学, 2021. [百度学术]
Wang Zhao-Ying, Xing Shuai, Dai Mo-Fan. A method of ground object classification based on multi-scale deep feature fusion of remote sensing image and LiDAR point cloud [J].Journal of Geomatics Science and Technology. [百度学术]
王朝莹,邢帅,戴莫凡. 遥感影像与LiDAR点云多尺度深度特征融合的地物分类方法[J]. 测绘科学技术学报, 2021, 38(6):8. 10.3969/j.issn.1673-6338.2021.06.009 [百度学术]
Chen S, Shi W, Zhou M, et al. Automatic building extraction via adaptive iterative segmentation with LiDAR data and high spatial resolution imagery fusion[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2020, PP(99):1-1. [百度学术]
Babatunde O H, Armstrong L, Leng J, et al. A genetic algorithm-based feature selection[J]. British Journal of Mathematics & Computer Science, 2014, 5(4):889-905. [百度学术]
Kennedy J, Eberhart R C. A discrete binary version of the particle swarm algorithm[C]. 1997 IEEE International conference on systems, man, and cybernetics. Computational cybernetics and simulation, Orlando, FL, USA: IEEE, 1997, 5: 4104-4108. [百度学术]
Maza S, Zouache D. Binary firefly algorithm for feature selection in classification[C]//2019 International Conference on Theoretical and Applicative Aspects of Computer Science (ICTAACS), Skikda, Algeria: IEEE, 2019: 1-6. [百度学术]
Tubishat M, Idris N, Shuib L, et al. Improved salp swarm algorithm based on opposition based learning and novel local search algorithm for feature selection[J]. Expert Systems with Applications, 2020, 145: 113-122. [百度学术]
Meng F , Wang X , Shao F , et al. Energy-efficient gabor kernels in neural networks with genetic algorithm training method[J]. Electronics, 2019, 8(1). [百度学术]
Lei H , Jiang G , Quan L. Fast descriptors and correspondence propagation for robust global point cloud registration[J]. IEEE Transactions on Image Processing, 2017, 26(8):3614-3623.Fu y [百度学术]
Fu Y, Chiang H D. Toward optimal multiperiod network reconfiguration for increasing the hosting capacity of distribution networks[J]. IEEE Trans. Power Deliv. 2018, 33, 2294–2304. [百度学术]
Hou Qun-Qun, Wang Fei, Yan Li. Extraction of color image texture feature based on gray-level cp-occurrence matrix[J]. Remote Sensing for Natural Resources. [百度学术]
侯群群,王飞,严丽. 基于灰度共生矩阵的彩色遥感图像纹理特征提取[J]. 国土资源遥感, 2013(4):7. 10.6046/gtzyyg.2013.04.05 [百度学术]
Yuan Li-Hong, Fu Li, Yang Yong, et al. Analysis of texture feature extracted by gray level co-occurrence matrix [J]. Journal of Computer Applications. 苑丽红,付丽,杨勇,等.灰度共生矩阵提取纹理特征的实验结果分析[J]. 计算机应用,2009, 29(4):1018-1018. [百度学术]
Rottensteiner F, Sohn G, Gerke M, et al. Results of the ISPRS Benchmark on Urban Object Detection and 3D Building Reconstruction[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2014, 93: 256-271. [百度学术]