地球信息科学理论与方法

基于ALBERT模型的园林植物知识实体与关系抽取方法

  • 陈晓玲 1, 2 ,
  • 唐丽玉 1, 2, * ,
  • 胡颖 1, 2 ,
  • 江锋 1, 2 ,
  • 彭巍 1, 2 ,
  • 冯先超 1, 2
展开
  • 1.福州大学空间数据挖掘与信息共享教育部重点实验室,福州 350108
  • 2.福州大学地理空间信息技术国家地方联合工程研究中心,福州 350108
* 唐丽玉(1972— ),女,福建莆田人,博士,研究员,主要从事地学可视化与虚拟地理环境、虚拟植物研究。E-mail:

收稿日期: 2020-09-29

  要求修回日期: 2020-12-29

  网络出版日期: 2021-09-25

基金资助

国家自然科学基金项目(41971344)

版权

版权所有,未经授权,不得转载、摘编本刊文章,不得使用本刊的版式设计。

Extracting Entity and Relation of Landscape Plant's Knowledge based on ALBERT Model

  • CHEN Xiaoling 1, 2 ,
  • TANG Liyu 1, 2, * ,
  • HU Ying 1, 2 ,
  • JIANG Feng 1, 2 ,
  • PENG Wei 1, 2 ,
  • FENG Xianchao 1, 2
Expand
  • 1. Key Laboratory of Spatial Data Mining & Information Sharing of Ministry of Education, Fuzhou University, Fuzhou 350108, China
  • 2. National Engineering Research Center of Geospatial Information Technology, Fuzhou University, Fuzhou 350108, China
* TANG Liyu, E-mail:

Received date: 2020-09-29

  Request revised date: 2020-12-29

  Online published: 2021-09-25

Supported by

National Natural Science Foundation of China, No.41971344.(41971344)

Copyright

Copyright reserved © 2021

摘要

园林植物知识图谱可为顾及区域适应性、观赏性和生态性等因子的绿化树种的选型提供知识支持。植物描述文本的实体识别及关系抽取是知识图谱构建的关键环节。针对植物领域未有公开的标注数据集,本文阐述了园林植物数据集的构建流程,定义了园林植物的概念体系结构,完成了园林植物语料库的构建。针对现有Word2vec、ELMo和BERT等语言模型存在无法解决多义词、融合上下文能力差、运行速度慢等缺点,提出了嵌入ALBERT(A Lite BERT)预训练语言模型的实体识别和关系抽取模型。ALBERT预训练的动态词向量能够有效地表示文本特征,将其分别输入到BiGRU-CRF命名实体识别模型和BiGRU-Attention关系抽取模型中进行训练,进一步提升实体识别和关系抽取的效果。在园林植物语料库上进行方法的有效性验证,结果表明ALBERT-BiGRU-CRF命名实体识别模型的F1值为0.9517,ALBERT-BiGRU-Attention关系抽取模型的F1值为0.9161,相较于经典的语言模型(如Word2vec、ELMo和BERT等)性能有较为显著的提升。因此基于ALBERT模型的实体与关系抽取任务能有效提高识别分类效果,可将其应用于植物描述文本的实体关系抽取任务中,为园林植物知识图谱自动构建提供方法。

本文引用格式

陈晓玲 , 唐丽玉 , 胡颖 , 江锋 , 彭巍 , 冯先超 . 基于ALBERT模型的园林植物知识实体与关系抽取方法[J]. 地球信息科学学报, 2021 , 23(7) : 1208 -1220 . DOI: 10.12082/dqxxkx.2021.200565

Abstract

Knowledge graph of landscape plants provides potential uses in the selection of greening tree species considering regional adaptability, ornamental and ecological factors. Entity and relationship extraction of the plant's description text is a key issue in the construction of knowledge graph. Until now, there has been no publicly available annotated data set for the plant domain. In this paper, a conceptual architecture of landscape plants was defined and briefly described, and the landscape plant corpus was constructed. Existing language models such as word2vec, ELMo, and BERT have various disadvantages, e.g., they can't solve the problem of polysemous words and have poor ability of context fusion and computational efficiency. In this paper, we proposed a named entity recognition model, ALBERT-BiGRU-CRF, and a relationship extraction model, ALBERT-BiGRU-Attention, which were embedded with ALBERT (A Lite Bidirectional Encoder Representation from Transformers) pre-training language model. In the ALBERT-BiGRU-CRF model, the ALBERT model was used to extract text features, the Bi-GRU model was used to learn and excavate deep semantic features between sentences, and the CRF model was used to calculate the probability distribution of the annotation sequence to determine the entities contained in the description text. The ALBERT-BiGRU-Attention model was based on the results of the named entity recognition model. Similarly, the attention model was used to improve the weight of keywords to determine the relationship between entities. The proposed models have the following advantages: (1) The method can effectively identify and extract entities and relationships of landscape plants' knowledge; (2) The models can represent the semantic and sentence characteristics of characters with a good accuracy. The validity of the method was verified on the landscape plant corpus constructed in this paper and compared with other models. Our experimental results of quantitative evaluation show that: (1) The F1 index of the ALBERT-BiGRU-CRF model was 0.9517, indicating that it had good performance in named entity recognition task and can effectively identify 23 main entity types; (2) After comparative experiments and analysis of the relationship extraction results, the F1 index of the ALBERT-BiGRU-Attention model was 0.9161, indicating that it performed well in the relationship extraction of landscape plants; (3) By selecting 6 representative examples to further evaluate the extraction performance of this method, the results show that the method can well identify the knowledge triples of common single-relation and multi-relation texts. Therefore, the entity relationship extraction task based on ALBERT model can effectively improve the recognition and extraction results. It can be applied to the entity relationship extraction task of plant description text, providing a method for automatic construction of landscape plant knowledge graph.

1 引言

园林植物知识与人们的生活和工作密切相关,如辅助学术研究[1]、园林景观规划[2,3,4,5]、普及基础知识[6]等。由于互联网信息日益膨胀,人们无法从庞大又繁琐的信息资源中直观便捷地获取所需的植物知识。随着人们对植物知识的需求日益强烈,如何从海量异构的数据源中抽取出园林植物知识,成为亟待解决的问题。知识图谱(Knowledge Graph,KG)能够更好地组织、管理和理解海量信息[7,8,9],以知识三元组的方式表达客观世界中的概念、实体及其相互间的语义关系,从而构成庞大的知识库,有助于知识的共享和重用。自谷歌提出知识图谱以来,知识图谱受到了学术界和工业界的广泛关注与应用。
信息抽取(Information Extraction,IE)是知识图谱构建的关键技术,命名实体识别(Named Entity Recognition,NER)和关系抽取(Relation Extraction,RE)是信息抽取任务中最重要的部分,旨在从结构化、半结构化或非结构化的数据中抽取特定的实体、关系以及实体属性等信息[10]。传统的实体关系抽取方法需要人工创建特征工程,耗费大量时间和人力,容易造成误差传播以及模型泛化性差等问题[11,12]。随着深度学习的兴起,学者们相继将其应用到实体关系抽取任务中[13,14]。其中,命名实体识别通常转化为序列标注问题,目前主要的方法是使用双向长短期记忆网络(Bi-directional Long Short-Term Memory,Bi-LSTM)和条件随机场(Conditional Random Field,CRF)作为主干模型[15,16,17],有效记忆上下文信息,获取相邻标签间的依赖关系,进而确定最优标签序列[18,19,20]。同样,CNN[21]、RNN[22]、LSTM[23]及其改进模型[24,25]等神经网络也在关系抽取任务中得到广泛应用,并有效地解决了传统关系抽取模型存在的准确率低、稳定性差等问题,具有良好的优化作用[26,27,28]
文本表示是信息抽取任务中的基础,其核心是将自然语言转化为计算机可识别和处理的形式,并保留文本中所蕴含的语义信息。研究表明预训练语言模型可以学习通用的文本表示,有助于提升下游任务[29]。最早的语言模型是以词袋模型(One-hot、N-Gram)的形式出现,其基本思想是将文本仅仅看作是词汇的集合,忽略其语法和语序,因此存在数据稀疏和维度灾难等问题[30]。为克服词袋模型的缺陷,Word2vec[31]词向量模型将每个词转化为向量表示,对每个词的表征更加详细,但其只考虑文本的局部信息,未能有效利用整体信息。随后Pennington[32]提出GloVe全局词向量模型,该模型利用共现矩阵,同时考虑了局部信息和整体的信息。但Word2vec和GloVe训练的词向量均为静态词向量,无法解决一词多义等问题。为解决词在不同语境下具有不同的含义,近年来新型文本特征表示方法不断涌现,如ELMo[33]利用双向长短期记忆网络生成词的上下文表示,并根据实际上下文对词的向量表达进行了调整。GPT[34]采用单向的Transformer Decoder模块构建标准的语言模型,再使用预训练得到的网络架构与参数进行下游监督任务的微调,取得了不错的效果。BERT[35]预训练语言模型结合ELMo和GPT各自的优势,采用双向Transformer编码器获取文本的特征表示,训练得到动态词向量有效提升了词向量的表征能力,但其存在模型复杂度高,运行速度慢等缺点。Lan等[36]于2019年提出ALBERT模型,该模型在BERT模型基础上减少模型参数量以及使用句间顺序预测任务代替下个句子预测任务,具有拓宽词向量的泛化能力,充分学习字符级、词级、句子级及句间关系特征,语义理解能力强,参数量少,训练速度快等优势。
目前将实体关系抽取方法应用到植物领域的相关研究甚少。李冬梅等[37]提出BCC-P植物属性文本命名实体识别方法,在植物属性文本语料中取得了较高的准确率,但该方法未有效地利用文本特征,且仅识别植物属性文本中相关实体。刘建华 等[38]设计知识抽取框架,实现多种实体及实体间关系的语义知识抽取方法,但该方法主要用于抽取植物物种多样性的相关知识,且普适性不强。
综上所述,本文旨在促进园林植物知识的共享与重用,以园林植物知识特点及其应用需求为切入点,开展面向园林植物知识的信息抽取方法研究。鉴于ALBERT预训练语言模型的优势,将其引入信息抽取任务中,提出一种端到端的不依赖于领域知识和人工特征的ALBERT-BiGRU-CRF命名实体识别模型和ALBERT-BiGRU-Attention关系抽取模型。该信息抽取方法能够自动挖掘园林植物文本信息中的隐含特征,识别其包含的实体及关系,有效地抽取出园林植物知识,为构建园林植物知识图谱发挥着重要的基础性作用。

2 研究方法

面向园林植物知识的信息抽取方法主要包括ALBERT-BiGRU-CRF命名实体识别和ALBERT-BiGRU-Attention关系抽取。其中ALBERT预训练语言模型采用双向Transformer作为特征抽取器,与传统循环神经网络或语言模型相比,可以获取更长的上下文信息,提高了特征抽取能力。门控循环单元(Gated Recurrent Unit,GRU)是LSTM的一种变体,在LSTM的基础上进行了简化,由更新门和重置门两个门控单元组成,通过特殊的门结构有效地解决神经网络中常见的梯度爆炸或梯度消失等问题,双向门控循环单元(Bi-directional Gated Recurrent Unit,Bi-GRU)可以更好地解决循环神经网络无法处理长距离的依赖的问题,更好地捕捉双向的语义依赖关系。CRF结合了最大熵和隐马尔可夫的特点,可以学习整个句子的标签转移矩阵,充分考虑标签间的依赖关系,从而获取全局最优的标记序列。因此,ALBERT-BiGRU-CRF命名实体识别模型可以较完整地保存文本语义信息,充分挖掘文本深层次的特征,从而获得最佳的实体标记结果。注意力机制模仿了人类观察行为的内部过程,通过增加部分区域的注意力来获取关注目标更多细节信息,可以快速提取数据的重要特征,减少对外部信息的依赖。因此,ALBERT-BiGRU-Attention关系抽取模型可以充分地提取文本的上下文信息,获取更细粒度的特征,从而提高抽取效果。
首先利用ALBERT模型提取出描述园林植物的文本特征,通过Bi-GRU模型对输入的字符级向量进行深层次的特征提取,根据CRF模型计算标注序列的概率分布结果,从而确定描述文本中所包含的实体。将实体识别结果与描述文本一同输入到ALBERT模型中,通过Bi-GRU模型对ALBERT模型输出的文本特征进行训练,结合注意力机制的优势,从而确定描述文本中所包含的关系。

2.1 命名实体识别

实体在知识三元组中以节点的形式呈现,是构成知识三元组的主体和基础。采用ALBERT-BiGRU-CRF模型进行实体抽取,首先利用ALBERT预训练语言模型获取园林植物描述文本的特征,将每个字符转化为向量形式,通过Bi-GRU模型对输入的字符级向量进行深层次的特征提取,充分学习上下文之间的关系,根据CRF模型计算标注序列的概率分布结果,从而确定描述文本中所包含的实体。模型结构如图1所示,整体可分为六大网络层,分别是输入层、ALBERT层、Bi-GRU层、全连接层、CRF层以及输出层。
图1 ALBERT-BiGRU-CRF命名实体识别模型

Fig. 1 ALBERT-BiGRU-CRF named entity recognition model

(1)输入层:将一段文本(或一个句子)S输入到ALBERT层,文本或句子S如式(1)所示,其中Wi为该句子中的第i个字符。
S = W 1 , W 2 , , W n
(2)ALBERT层:使用ALBERT预训练语言模型提取文本特征。对输入的每个字符进行向量空间的嵌入表示,每个字符的向量E如式(2)所示,其中EC为该字符的字符向量,ES为该字符的句子分类向量,EP为该字符的序列位置向量。
E = E C + E S + E P
将中文字符的向量表示E经过多层双向Transformer编码器训练,得到文本的特征表示。 ALBERT模型只采用了Transformer的Encoder部分,Encoder由N个相同的网络层堆叠而成,每个网络层由多头注意力机制层(Multi-Head Attention)和前馈网络层(Feed Forward)2个子网络层组成。其中每个子网络层均加上一个“Add&Norm”层,用于将该子层的输入与输出相加并进行归一化处理,如式(3)所示。
X i = La yerNorm ( x + SubLayer x )
式中:x表示子网络层的输入,SubLayer表示多头注意力机制层或前馈网络层。
多头注意力机制的计算公式如式(4)所示。
MultiHead Q , K , V = Concat ( hea d 1 , hea d 2 , · · · , hea d h ) W O
式中:WO是附加权重矩阵,使得拼接后的矩阵维度压缩成序列长度大小;hhead的数量;headi的计算公式如式(5)所示。
hea d i = Attention Q W i Q , K W i K , V W i V
式中:QWiQKWiKVWiV分别是QKV的权重矩阵。式(5)中Attention的计算公式如式(6)所示。
Attention Q , K , V = soft max Q K T d k V
式中: QKV分别表示输入序列中每个字符对应的3个向量Query向量、Key向量和Value向量;dk表示每个词的Query和Key向量的维度。
前馈网络层将多头注意力机制层输出并归一化的结果进行2层线性映射,使用ReLU激活函数激活,有效缓解梯度消失问题,加快梯度下降的收敛速度,其计算公式如式(7)所示。
X hidden = Re LU Linear Linear X attention
(3)Bi-GRU层:使用Bi-GRU模型对ALBERT模型输出的文本特征进行训练。GRU由重置门rt和更新门zt组成。重置门是控制前一状态信息被遗忘的程度,如式(8)所示;更新门用于控制前一时刻的状态信息被带入到当前状态中的程度,如式(9)所示。
r t = σ W r h t - 1 , x t
z t = σ W z h t - 1 , x t
式中:σ代表Sigmod激活函数;xt代表当前输入;ht-1代表上一时刻隐藏层的输出;WrWz分别表示重置门和更新门的权重矩阵。
将上一层的输出结果分别经过前向GRU和反向GRU的训练,充分捕捉上下文信息,提取深层次的语义特征,将学习词的上文特征向量hforward和下文特征向量hbackward进行拼接处理,如式(10)所示。
h t = h forward h backward
(4)全连接层:在进行全连接前,使用参数正则化(Dropout)方法处理Bi-GRU层训练的结果,能够有效防止模型过拟合。通过全连接层整合经过正则化后的结果,大大减少特征位置对分类的影响。
(5)CRF层:根据全连接层的输出结果,使用CRF模型计算标注序列的概率分布。CRF模型能够考虑标注之间的转移特征,即输出标注间的顺序,从而求出联合概率最大的地址标注序列。根据全连接层的输出矩阵P,计算输入序列X的预测得分如式(11)所示。
score X , y = i = 0 n A y i , y i + 1 + i = 1 n P i , y i
式中:Ai, j表示从第i个标签到第j个标签的转移矩阵。
利用Softmax函数将信息的特征值概率缩小在0到1之间,加速模型的收敛速度。然后使用最大似然函数得到有效合理的输出序列,最后用Viterbi算法计算出整体概率最大的一组序列,如式(12)所示。
y * = argmaxscore X , y '
(6)输出层:根据CRF模型输出的概率最大的标注序列,根据标注序列提取出相应的实体。

2.2 关系抽取

关系在知识三元组中以边的形式呈现,二元关系是一个三元组的核心语义。立足于实体识别结果,采用ALBERT-BiGRU-Attention模型进行关系抽取,首先使用ALBERT预训练语言模型提取文本特征,利用Bi-GRU学习上下文之间的关系,提取文本深层次的特征,然后通过注意力机制提高有重要影响力的词的权重系数,将融合了词级权重的句子或文本输入到softmax分类器中,实现关系抽取。该模型结构如图2所示,由输入层、ALBERT层、Bi-GRU层、注意力机制层、全连接层以及输出层组成。
图2 ALBERT-BiGRU-Attention关系抽取模型

Fig. 2 ALBERT-BiGRU-Attention relation extraction model

(1)输入层:立足于实体识别结果,将关系待抽取的实体所在的句子(或文本)连同实体识别结果作为输入数据。
(2)ALBERT层:通过ALBERT预训练语言模型将句子或本文中每个字符进行向量表示和编码训练,获取得到文本的特征表示。
(3)Bi-GRU层:使用Bi-GRU模型对ALBERT模型输出的文本特征进行训练。将字符特征分别输入到正向GRU层和反向GRU层,得到学习词的上文特征hforward和下文特征hbackward,然后将这两个向量进行拼接处理。
(4)注意力层:将Bi-GRU模型的输出作为注意力层的输入,计算每个词向量应分配的概率权重,即判断每个字符对关系抽取的重要程度。首先通过多层感知机获取Bi-GRU输出的隐藏表示ui,如式(13)所示。
u i = tanh ( w w h i + b w )
式中:hi为Bi-GRU层输出的字符向量;ww为模型权重系数,bw为偏置系数。
然后通过softmax函数计算归一化权重ai,将隐藏表示ui和词级上下文uw的相似性作为权衡字符重要性的指标,具体计算如式(14)所示。
a i = exp u i T u w exp u i T u w
(5)全连接层:通过全连接层计算句子向量,其包含了各个输入状态的重要程度信息。由注意力层分配的不同概率权重与各个隐层状态的乘积的累加和得到,具体公式如(15)所示。
S t = i = 1 n a i h i
(6)输出层:根据全连接层的输出结果确定关系类别。利用softmax函数对全连接层输出的句子向量进行相应计算,从而实现关系抽取,计算公式如式(16)所示。
y = softmax w 1 s t + b 1
式中:w1为权重系数;b1为偏置系数;y为输出的分类标签。

3 实验数据来源及处理

植物领域未有公开的标注数据集或语料库。考虑到中国拥有30 000多种植物资源,制作所有植物的语料库需耗费大量的人工和时间成本。因此,本文按照园林植物的定义及分类[39,40],确定需获取乔木、灌木、藤本、竹类、草花、草皮6大类适用于园林绿化的植物材料。参考侯学煜院士划分的13个植被区域[41],确定区域内主要城市中常见园林植物,遴选919种植物作为本研究的数据采集对象。

3.1 数据源

园林植物领域知识来源众多,具有结构化、半结构化和非结构化等多种形式,选取《中国植物志》电子版(以下简称FRPS, http://www.iplant.cn/frps)、中国植物主题数据库( http://www.plant.csdb.cn)等科学数据库为主要数据源,以数据丰富的百度百科作为补充数据源,以《植物生理生态学》[42]、《植物景观规划设计》[43]等专业书籍作为辅助数据源。根据不同的数据源确定相应的数据获取方法,如针对结构化数据,确定数据获取的模板,采用网络爬虫的方式直接抽取园林植物知识;针对半结构化或非结构化数据,通过解析网页结构,获取网页文本文档相应URL地址,采用正则表达式与XPath批量爬取网页中的相关数据。将多源数据经融合对齐后得到原始园林植物描述文本数据。以“榕树”为例,经融合对齐后其描述文本如下:
“榕树:大乔木,高达15~25米,胸径达50厘米,冠幅广展;老树常有锈褐色气根。树皮深灰色。叶薄革质,狭椭圆形,长4~8厘米,宽3~4厘米,先端钝尖,基部楔形,表面深绿色,干后深褐色,有光泽,全缘,基生叶脉延长,侧脉3~10对;叶柄长5~10毫米,无毛;托叶小,披针形,长约8毫米。榕果成对腋生或生于已落叶枝叶腋,成熟时黄或微红色,扁球形,直径6~8毫米,无总梗,基生苞片3,广卵形,宿存;雄花、雌花、瘿花同生于一榕果内,花间有少许短刚毛;雄花无柄或具柄,散生内壁,花丝与花药等长;雌花与瘿花相似,花被片3,广卵形,花柱近侧生,柱头短,棒形。瘦果卵圆形。花期5—6月。”

3.2 概念体系结构定义

定义合适的概念体系结构对信息抽取具有指导作用。对数据源中相关园林植物描述文本进行分析、分类、归并整理,提取并确定园林植物知识的实体类别和关系类别,如图3所示。对于实体类别的确定,以FRPS中的植物信息描述模式为基础,从植物学特性和绿化树种选型等角度确定相关实体类别。对于关系类别的确定,在FRPS和百度百科中植物信息的基础上,结合已确定的实体,除基本层次关系(part-of、kind-of)外,确定不同实体之间的关系。
图3 园林植物实体关系概念体系结构

Fig. 3 Conceptual architecture of landscape plant entity and relationship

3.3 数据标注

在进行数据标注前,对原始园林植物描述文本数据进行数据清洗、去停用词、删除无关数据等预处理。将预处理后的数据进行数据标注,标注模式参考2019年语言与智能技术竞赛数据集( http://lic2019.ccf.org.cn/kg),标注示例如图4所示。
图4 园林植物语料标注示例

Fig. 4 Examples of landscape plant corpus signs

使用信息抽取模型和人工标注相结合的方式对数据集进行标注,通过人工检验语料标注的规范性,最终获得9297条标注数据,56 520个实体, 28 260条关系,将其存储为json数据格式,即完成园林植物语料库的构建( https://github.com/Chenxiaoling0814/Landscape-Plant-Corpus)。为避免句子层级划分数据影响客观评价,按照6:2:2的比例划分训练集、测试集和验证集。

4 结果及分析

本实验的硬件配置为Intel Core i7-7700 CPU,16GB内存,Windows10操作系统;软件配置方面采用Keras 2.3.1深度学习框架,底层为TensorFlow 1.15.2,Python 3.6编程语言,PyCharm集成开发环境和Anaconda环境管理软件。采用精确率P(Precision)、召回率R(Recall)、F-measure(F1)值和加载/编码词向量时间T(Time)作为园林植物实体识别和关系抽取效果的评价指标。

4.1 实体识别结果分析

4.1.1 参数设置
在命名实体识别中,使用交叉验证的方式,通过调整句子最大长度、学习率和批量大小等参数来测试模型在验证数据集上的性能,确定模型的参数。ALBERT-BiGRU-CRF命名实体识别模型的参数为:最大文本长度为128,迭代轮数为30次(图5(a)),批量大小为8(图5(b)),引入Dropout防止模型计算过程中出现过拟合现象,Dropout比率为0.1(图5(c)),学习率为0.001,选取Adam作为模型的优化器。
图5 ALBERT-BiGRU-CRF中参数大小的影响

Fig. 5 The influence of parameter size in ALBERT-BiGRU-CRF

4.1.2 对比分析
为了评估ALBERT-BiGRU-CRF实体识别模型在园林植物领域识别的效果,分别与ALBERT-BiGRU、ALBERT-BiLSTM-CRF、Word2vec-BiGRU-CRF、ELMo-BiGRU-CRF以及BERT-BiGRU-CRF进行对比实验,实验结果如表1所示。
表1 不同实体识别模型对比实验结果

Tab. 1 Comparison of experimental results of different entity recognition models

实验模型 评价指标
P R F1 T/s
本文模型 0.9602 0.9442 0.9517 132.25
ALBERT-BiGRU 0.9354 0.9310 0.9321 128.71
ALBERT-BiLSTM-CRF 0.9642 0.9247 0.9402 129.85
Word2vec-BiGRU-CRF 0.9428 0.8450 0.8489 4.64
ELMo-BiGRU-CRF 0.9248 0.9035 0.9140 3160.11
BERT-BiGRU-CRF 0.9596 0.9419 0.9489 1458.26
从对比实验结果可以发现,本文提出的ALBERT-BiGRU-CRF模型的实体抽取效果相比其他方法较好,精确率为0.9602,召回率为0.9442,F1值为0.9517,说明其在园林植物实体识别任务中具有良好的适应性,能够有效对园林植物相关文本进行抽象建模。本文模型在整体表现上优于ALBERT-BiGRU模型,在精确率上提高了2.48%,召回率提高了1.32%,F1值提高了1.96%,说明增加CRF模型能够有效提高园林植物描述文本中相关实体的识别效果。本文模型相比于ALBERT-BiLSTM-CRF在召回率上提升了1.95%,F1值提升了1.15%。本文模型相较于Word2vec-BiGRU-CRF模型精确率提高1.74%,召回率提高9.92%,F1值提高10.28%,相较于ELMo-BiGRU-CRF模型精确率提高3.54%,召回率提高4.07%,F1值提高了3.77%,说明ALBERT模型相较于Word2vec静态语言模型和基于串行机制的ELMo语言模型,能够更加精准地把握文本语义,对实体识别的性能提升有较大影响。本文模型和BERT-BiGRU-CRF模型在实体识别性能上表现较为接近,但是BERT模型编码词向量时间较长,ALBERT模型将编码时间缩短了11倍左右,说明ALBERT模型在保持性能不变的前提下,能够有效地提高运行速度。综上所述,ALBERT-BiGRU-CRF模型在命名实体识别效果在几种模型中最好,说明该模型对句子隐含特征提取的效果更好,对植物文本中实体识别具有正向的效果,有效地提取出相应的实体。
4.1.3 实验结果
ALBERT-BiGRU-CRF模型对园林植物知识数据集进行各类实体的抽取,对其中23种主要的实体类型进行模型性能测试,实验结果如图6所示。可以看出,保护和改造环境价值、分布地、虫害名称、中文名、病害名称、药用价值、工业价值、生活型、光照、抗逆性和原产地的评价指标均大于0.95,其原因可能是这几类实体描述方式相对较单一,如“榕树的虫害主要有蚜虫、红蜘蛛、蚧等”,模型容易找到通用规则表述,识别其所包含的虫害名称。花朵形状、花朵颜色和叶片颜色这3类实体的识别效果相对较差,主要原因是训练集中关于这3类实体的样本数较少,训练效果不佳。其余大部分实体抽取精确率较高,但召回率表现较低,这是因为描述植物知识的语句类型多变,数据集的覆盖程度不够,还有待进一步拓展提升。
图6 园林植物实体识别结果

Fig. 6 Landscape plant entity recognition results

4.2 关系分类结果分析

4.2.1 参数设置
根据实际经验调试确定ALBERT-BiGRU-Attention关系抽取模型中涉及的一些重要参数:句子最大长度设为128,迭代次数设为512,批量大小设为10,丢弃率设置为0.2,学习率设为0.001,Bi-GRU模型的激活函数是tanh函数,注意力机制层设为32层。
4.2.2 对比分析
为了评估ALBERT-BiGRU-Attention关系抽取模型在园林植物领域关系抽取的效果,分别与ALBERT-BiGRU、Word2vec-BiGRU-Attention、ELMo-BiGRU-Attention以及BERT-BiGRU-Attention进行对比实验,实验结果如表2所示。
表2 不同关系抽取模型对比实验结果

Tab. 2 Comparison of experimental results of different relationship extraction models

实验模型 评价指标
P R F1 T/s
本文模型 0.9328 0.9001 0.9161 603.31
ALBERT-BiGRU 0.8544 0.8326 0.8433 554.72
Word2vec-BiGRU-Attention 0.9010 0.8853 0.8929 5.26
ELMo-BiGRU-Attention 0.9123 0.9008 0.9065 8767.24
BERT-BiGRU-Attention 0.9177 0.8993 0.9084 3741.25
通过分析实验结果,本文提出的ALBERT-BiGRU-Attention关系抽取模型精确率为0.9328,召回率为0.9001,F1值为0.9161,性能优于其他模型。本文模型相较于ALBERT-BiGRU模型的精确率提高7.84%,召回率提高6.75%,F1值提高了7.28%,可以看出加入注意力机制层对于提升模型性能,提高园林植物关系抽取精度有着积极的影响。Word2vec-BiGRU-Attention模型精确率为0.9010,召回率为0.8853,F1值为0.8929,加载词向量时间最短。而ELMo-BiGRU-Attention模型在精确率、召回率和F1值上均比Word2vec-BiGRU-Attention模型有所提高,但其编码词向量时间长,运行速度慢。本文模型相较于Word2vec-BiGRU-Attention和ELMo-BiGRU-Attention在关系抽取效果和运行速度上有显著优势。虽然本文模型与BERT-BiGRU-Attention模型相比在关系抽取效果上表现较接近,但本文词向量编码时间为603.31 s,是BERT模型的六分之一左右,大大提高了训练速度,降低内存的占用。综上,ALBERT-BiGRU-Attention模型在园林植物关系抽取任务中表现良好,在保证抽取效果的基础上,进一步提升模型的训练效率,降低模型整体的复杂度。
4.2.3 实验结果
ALBERT-BiGRU-Attention模型对园林植物数据集进行关系抽取识别,对主要的13类关系类别进行模型性能测试,实验结果如图7所示。通过实验结果可以看出,胸径的精确率为0.89,召回率为0.76, F1值0.82,这是由于在园林植物数据集中有关胸径的语料覆盖程度不足,所抽取的胸径关系类别相对来说较少,导致召回率较低。文化寓意的精确率为0.97,召回率为0.89,F1值0.93,可以看出文化寓意的精确率较高,召回率相对较低,因为文化寓意表述文本内容丰富,语句类型多变,导致模型的分类效果受到影响,但其分类效果的差距可以接受。别称的召回率高于精确率,这是由于在实体识别任务中对中文名的标注较多,且标注别称的正例样本较多,因此出现别称关系能够被完全抽取出来,造成别称的召回率较高。其余10类关系类别的精确率、召回率和F1值均在0.90以上,因此,本文所设计的关系抽取模型对园林植物关系抽取的效果较好。
图7 园林植物关系抽取结果

Fig. 7 Landscape plant relation extraction results

4.3 三元组抽取实例分析

通过上述实验及分析,本文模型具有更好的性能,整体上表现更佳。经过分析园林植物描述本文,挑选了6种代表性的示例来进一步观察本文方法对园林植物知识三元组的抽取效果,如表3所示。其中,“[]”红色字体表示正确识别的实体,“[]”下划线标记蓝色字体表示错误识别或未识别的实体,实体下标表示该实体的角色(头实体e1/尾实体e2)、类型及其所属的关系类别。例如示例1抽取出三元组(沙枣,价值,饲料),其中“[沙枣]e1,中文名,价值”表明“沙枣”属于三元组中头实体,实体类型为“中文名”,三元组关系类型为“价值”。
表3 不同示例三元组抽取结果

Tab. 3 Different example triples extraction results

示例 文本类型 抽取结果
1 单关系 正确结果: [沙枣]e1,中文名,价值其叶和果是羊的优质 [饲料]e1,工业价值,价值,羊四季均喜食
本文方法: [沙枣]e1,中文名,价值其叶和果是羊的优质 [饲料]e1,工业价值,价值,羊四季均喜食
2 多关系 正确结果: [黄蔷薇]e1,中文名,物候期|物候期花期 [5—6月]e2,花期,物候期,果期 [7—8月]e2,果期,物候期
本文方法: [黄蔷薇]1,中文名,物候期|物候期花期 [5—6月]e2,花期,物候期,果期 [7—8月]e2,果期,物候期
3 多关系 正确结果: [头花杜鹃]e1,中文名,植物分类|高度[常绿小灌木]e2,生活型,植物分类,高 [0.5~1.5米]e2,高度,高度,分枝多,枝条直立而稠密
本文方法: [头花杜鹃]e1,中文名,植物分类|高度[常绿小灌木]e2,生活型,植物分类,高 [0.5~1.5米]e2,高度,高度,分枝多,枝条直立而稠密
4 多关系 正确结果: [无梗五加]e1,中文名,形状|颜色果实 [倒卵状椭圆球形]e2,果实形状,形状, [黑色]e2,果实颜色,颜色,长1~1.5厘米,稍有棱,宿存花柱长达3毫米
本文方法: [无梗五加]ee1,中文名,形状|颜色果实 [倒卵状椭圆球形]e2,果实形状,形状, [黑色]e2,果实颜色,颜色,长1~1.5厘米,稍有棱,宿存花柱长达3毫米
5 多关系 正确结果: [花椒]e1,中文名,颜色|物候期|物候期[紫红色]e2,果实颜色,颜色,单个分果瓣散生微凸起的油点,顶端有甚短的芒尖或无; [4—5月]e2,花期,物候期开花, [8—9月或10月]e2,果期,物候期结果
本文方法: [花椒]e1,中文名,颜色|物候期|物候期[紫红色]e2,果实颜色,颜色,单个分果瓣散生微凸起的油点,顶端有甚短的芒尖或无; [4—5月]e2,花期,物候期开花, [8—9月或10月]e2,果期,物候期结果
6 复杂关系 正确结果:[[赤松]e1,中文名,病虫害 梢斑螟]e2,虫害名称,病虫害要危害幼林的球果、嫩梢和树干,造成种子产量下降、质量低劣
本文方法:[[赤松]e1,中文名 梢斑螟]要危害幼林的球果、嫩梢和树干,造成种子产量下降、质量低劣
针对示例1中单关系的本文,即其中仅含有一个实体对及一种关系类别,本文模型能够正确识别出相应的实体类别及实体对之间的关系。示例2至示例5均为多关系的文本,其中示例2代表一个实体参与多个相同类别关系的文本,如正确抽取结果包含3个实体,且实体“黄蔷薇”参与了多次“物候期”关系,对于此类文本,本文模型在准确识别实体的同时还能准确表达实体间的关系类别。示例3代表一个实体参与多种不同类别关系的文本,本文模型不仅准确识别出文本中包含的所有实体,还能准确表达出“头花杜鹃”和“常绿小灌木”尾实体之间的关系为“植物分类”以及和“0.5~1.5米”尾实体之间的关系为“高度”,说明本文模型能够准确表达文本的语义关系。示例4代表的是示例3的延伸拓展情况,如实体“无梗五加”和“黑色”之间并没有指示性词暗示2个实体的关系,本文方法由于加入Bi-GRU模型,能够充分学习上下文之间的关系,从而正确识别和抽取这种描述文本中包含的三元组信息。示例5是示例3的另一种拓展情况,如“花椒”和“8—9月或10月”2个实体彼此之间相距较远,增大了检测它们之间关系的难度,从抽取结果来看,本文模型在准确识别文本中包含的所有实体的同时,还能正确地关联实体间的相关关系。示例6代表由实体重叠导致的复杂关系文本,如示例中应正确识别的三元组为(赤松,病虫害,赤松梢斑螟),其中头实体和尾实体出现重叠,本文模型只识别出头实体,未能准确识别出尾实体及其关系,说明本文方法在此类文本识别中还有待改进与优化。针对示例6出现识别错误的情况,可能是由于在实际园林植物描述文本中此类描述方式较少,需要拓展补充数据集,在识别和区分此类文本中实体和关系上需进一步提升。

4.4 应用示例

利用本文提出的信息抽取方法,从FRPS、中国植物主题数据库、百度百科等数据源中抽取出园林植物知识三元组实例,依据知识图谱构建流程完成园林植物知识图谱的构建,该图谱共含有12 694个节点和32 656条边,图8展示了局部园林植物知识图谱。园林植物知识图谱的构建不仅丰富了植物知识,在实际应用中还可以为大众普及植物知识,为相关学者提供数据支撑,为传统的信息检索提供新的思路。此外,为后续植物知识自动问答、辅助景观设计等应用奠定基础。
图8 园林植物知识图谱数据层示例(部分)

Fig. 8 Instance of landscape plants knowledge graph(Part)

5 结论与讨论

针对植物领域存在“数据丰富但知识匮乏”的问题,本文以园林植物知识特点及其应用需求为切入点,开展面向园林植物知识的信息抽取方法研究,提出一种端到端的不依赖于领域知识和人工特征的ALBERT-BiGRU-CRF命名实体识别模型和ALBERT-BiGRU-Attention关系抽取模型。实验结果表明,本文所提出的方法在模型性能和抽取准确度上均优于其他方法。主要结论如下:
(1)由于植物领域未有公开的标注数据集或语料库,本文通过对园林植物描述文本进行分析与归并整理,定义合适的概念体系结构。充分利用互联网中存在的多源异构植物数据,在概念体系的指导下,对植物数据进行数据标注,完成园林植物语料库的构建,为植物知识信息抽取奠定数据基础。
(2)ALBERT-BiGRU-CRF命名实体识别模型对园林植物描述文本中所包含的知识实体具有正向的识别效果。通过对比不同模型在园林植物实体识别的效果,结果表明ALBERT-BiGRU-CRF模型在命名实体识别任务中的具有较好的性能,可有效地识别主要的23类实体类型,说明其在园林植物实体识别任务中具有良好的适应性。
(3)关系抽取模型立足于实体识别结果之上,实验结果表明ALBERT-BiGRU-Attention关系抽取模型在园林植物关系抽取任务中表现良好,在保证抽取效果的基础上,进一步提升模型的训练效率,降低模型整体的复杂度。
(4)实体识别和关系抽取模型均使用ALBERT作为提取文本特征的预训练语言模型,与word2vec、ELMo等模型相比,更能表征字符的语义与语句特征,能明显提高模型性能;与BERT模型相比,在不改变性能的前提下,具有运行速度快、占用内存小、模型复杂度低等优势。
(5)为进一步观察本文方法对园林植物知识三元组的抽取效果,遴选6类代表性的园林植物描述文本示例,通过三元组抽取实例效果的分析实验,验证本文方法的有效性,但也存在需进一步改进与优化的地方。
本文初衷是促进园林植物知识共享与重用,为顾及区域适应性、观赏性和生态性等因子的绿化树种的选型提供知识支持。因此,未来的工作将在完善园林植物知识图谱的同时,继续研发基于园林植物知识图谱的语义搜索、智能问答及辅助景观规划等上层应用,对从业者、专家及大众具有参考和服务价值,通过人工智能为植物领域带来更多福祉。
[1]
王婉颖, 冯潇. 园林植物三维数字模型的构建与应用探索[J]. 风景园林, 2019, 26(12):103-108.

[ Wang W Y, Feng X. Exploration on modeling and application of 3D digital model of landscape plants[J]. Landscape Architecture, 2019, 26(12):103-108. ]

[2]
Roy S. Anomalies in Australian municipal tree managers' street-tree planting and species selection principles[J]. Urban Forestry & Urban Greening, 2017, 24:125-133.

[3]
Scharenbroch B C, Carter D, Bialecki M, et al. A rapid urban site index for assessing the quality of street tree planting sites[J]. Urban Forestry & Urban Greening, 2017, 27:279-286.

[4]
Núñez-Florez R, Pérez-Gómez U, Fernández-Méndez F. Functional diversity criteria for selecting urban trees[J]. Urban Forestry & Urban Greening, 2019, 38:251-266.

[5]
Pretzsch H, Biber P, Uhl E, et al. Crown size and growing space requirement of common tree species in urban centres, parks, and forests[J]. Urban Forestry & Urban Greening, 2015, 14(3):466-479.

[6]
贺善安, 顾姻. 植物园发展战略研究[J]. 植物资源与环境学报, 2002(1):44-46.

[ He S A, Gu Y. On the strategy of botanical developments[J]. Journal of Plant Resources and Environment, 2002(1):44-46. ]

[7]
Pujara J, Miao H, Getoor L, et al. Knowledge graph identification[C]. International Semantic Web Conference. Springer, Berlin, Heidelberg, 2013.

[8]
陆锋, 余丽, 仇培元. 论地理知识图谱[J]. 地球信息科学学报, 2017, 19(6):723-734.

DOI

[ Lu F, Yu L, Qiu P Y. On geographic knowledge graph[J]. Journal of Geo-information Science, 2017, 19(6):723-734. ]

[9]
刘俊楠, 刘海砚, 陈晓慧, 等. 面向多源地理空间数据的知识图谱构建[J]. 地球信息科学学报, 2020, 22(7):1476-1486.

[ Liu J N, Liu H Y, Chen X H, et al. The construction of knowledge graph towards multi-source geospatial data[J]. Journal of Geo-information Science, 2020, 22(7):1476-1486. ]

[10]
Grishman R. Information extraction: techniques and challenges[C]. International Summer School on Information Extraction. Springer, Berlin, Heidelberg, 1997: 10-27.

[11]
Jain A, Pennacchiotti M. Open entity extraction from web search query logs[C]. Proceedings of the 23rd International Conference on Computational Linguistics. Association for Computational Linguistics, 2010: 510-518.

[12]
陈锦秀, 姬东鸿. 基于图的半监督关系抽取[J]. 软件学报, 2008(11):2843-2852.

[ Chen X J, Ji D H. Graph-based semi-supervised relation extraction[J]. Journal of Software, 2008(11):2843-2852. ]

[13]
鄂海红, 张文静, 肖思琪, 等. 深度学习实体关系抽取研究综述[J]. 软件学报, 2019, 30(6):1793-1818.

[ Er H H, Zhang W J, Xiao S Q, et al. Survey of entity relationship extraction based on deep learning[J]. Journal of Software, 2019, 30(6):1793-1818. ]

[14]
Hoang D T, Kang H J. A survey on deep learning based bearing fault diagnosis[J]. Neurocomputing, 2019, 335:327-335.

DOI

[15]
Unaune, Inigo Jauregi, Borzeshi, et al. Recurrent neural networks with specialized word embeddings for health-domain named-entity recognition. Journal of biomedical informatics, 2017, 76:102-109.

DOI PMID

[16]
Liu Z, Yang M, Wang X, et al. Entity recognition from clinical texts via recurrent neural network[J]. BMC Medical Informatics & Decision Making, 2017, 17(S2):67.

[17]
Chiu J P C, Nichols E. Named entity recognition with bidirectional LSTM-CNNs[J]. Transactions of the Association for Computational Linguistics, 2016, 4:357-370.

DOI

[18]
Xu, Kai, et al. Document-level attention-based BiLSTM-CRF incorporating disease dictionary for disease named entity recognition[J]. Computers in biology and medicine, 2019, 108:122-132.

DOI

[19]
杨培, 杨志豪, 罗凌, 等. 基于注意机制的化学药物命名实体识别[J]. 计算机研究与发展, 2018, 55(7):1548-1556.

[ Yang P, Yang Z H, Luo L, et al. An attention-based approach for chemical compound and drug named entity recognition[J]. Journal of Computer Research and Development, 2018, 55(7):1548-1556. ]

[20]
Kwon S, Ko Y, Seo J. Effective vector representation for the Korean named-entity recognition[J]. Pattern Recognition Letters, 2019, 117:52-57.

DOI

[21]
Zeng D, Liu K, Lai S, et al. Relation classification via convolutional deep neural network[C]. Proceedings of COLING 2014, the 25th International Conference on Computational Linguistics: Technical Papers, 2014: 2335-2344.

[22]
Hashimoto K, Miwa M, Tsuruoka Y, et al. Simple customization of recursive neural networks for semantic relation classification[C]. Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, 2013: 18-21.

[23]
Xu Y, Mou L L, Li G, et al. Classifying relation via long short term memory networks along shortest dependency paths[C]. Proceedings of the 2015 conference on empirical methods in natural language processing, 2015, 42(1):56-61.

[24]
叶育鑫, 薛环, 王璐, 等. 基于带噪观测的远监督神经网络关系抽取[J]. 软件学报, 2020, 31(4):1025-1038.

[ Ye Y X, Xue H, Wang L, et al. Distant supervision neural network relation extraction base on noisy observation[J]. Journal of Software, 2020, 31(4):1025-1038. ]

[25]
Zhang Y, Lin H, Yang Z, et al. A hybrid model based on neural networks for biomedical relation extraction[J]. Journal of biomedical informatics, 2018, 81:83-92.

DOI

[26]
Li Z, Yang J, Gou X, et al. Recurrent neural networks with segment attention and entity description for relation extraction from clinical texts[J]. Artificial Intelligence in Medicine, 2019, 97:9-18.

DOI

[27]
宁尚明, 滕飞, 李天瑞. 基于多通道自注意力机制的电子病历实体关系抽取[J]. 计算机学报, 2020, 43(5):916-929.

[ Ning S M, Teng F, Li T R. Multi-channel self-attention mechanism for relation extraction in clinical records[J]. Chinese Journal of Computers, 2020, 43(5):916-929. ]

[28]
许晶航, 左万利, 梁世宁, 等. 基于图注意力网络的因果关系抽取[J]. 计算机研究与发展, 2020, 57(1):159-174.

[ Xu J H, Zuo W L, Liang S N, et al. Causal relation extraction based on graph attention networks[J]. Journal of Computer Research and Development, 2020, 57(1):159-174. ]

[29]
Qiu X P, Sun T X, Xu Y G, et al. Pre-trained models for natural language processing: A survey[J]. Science China Technological Sciences, 2020, 63(10):1872-1897.

DOI

[30]
杜鹏, 丁世飞. 基于混合词向量深度学习模型的DGA域名检测方法[J]. 计算机研究与发展, 2020, 57(2):433-446.

[ Du P, Ding S F. A DGA domain name detection method based on deep learning models with mixed word embedding[J]. Journal of Computer Research and Development, 2020, 57(2):433-446. ]

[31]
Zhang Y, Yang J. Chinese NER using lattice LSTM[C]. Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2018: 1554-1564.

[32]
Pennington J, Socher R, Manning C D. Glove: Global vectors for word representation[C]. Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP), 2014: 532-1543.

[33]
Peters M, Neumann M, Iyyer M, et al. Deep contextualized word representations[C]. Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2018: 2227-2237.

[34]
Radford A, Narasimhan K, Salimans T, et al. Improving language understanding by generative pre-training[EB/OL]. https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_understanding_paper.pdf, 2020-11-19.

[35]
Devlin J, Chang M W, Lee K, et al. BERT: pre-training of deep bidirectional transformers for language understanding[C]. In: North American chapter of the association for computational linguistics, 2018: 4171-4186.

[36]
Lan Z, Chen M, Goodman S, et al. ALBERT: a lite BERT for self-supervised learning of language representations[C]. In: Proceedings of the 8th International Conference on Learning Representations, 2020: 1-17.

[37]
李冬梅, 檀稳. 植物属性文本的命名实体识别方法研究[J]. 计算机科学与探索, 2019, 13(12):2085-2093.

[ Li D M, Tan W. Research on named entity recognition method in plant attribute text[J]. Journal of Frontiers of Computer Science and Technology, 2019, 13(12):2085-2093. ]

[38]
刘建华, 王颖, 张智雄, 等. 植物物种多样性语义知识抽取研究[J]. 数据分析与知识发现, 2017, 1(1):37-46.

[ Liu J H, Wang Y, Zhang Z X, et al. Extracting semantic knowledge from plant species diversity collections[J]. Data Analysis and Knowledge Discovery, 2017, 1(1):37-46. ]

[39]
潘远智, 车代弟. 风景园林植物学[M]. 北京: 中国林业出版社, 2018.

[ Pan Y Z, Che D D. Landscape architecture botany[M]. Beijing: China Forestry Publishing House, 2018. ]

[40]
冯志坚. 园林植物学:南方版[M]. 重庆: 重庆大学出版社, 2013.

[ Feng Z J. Landscape botany: southern edition[M]. Chongqing: Publishing House of Chongqing University, 2013. ]

[41]
孙世洲. 关于中国国家自然地图集中的中国植被区划图[J]. 植物生态学报, 1998(6):44-46, 48-58.

[ Sun S Z. Concerning the vegetation Chinese regionalization map on as a part of in the natural geographical atlas of the peoples republic of China[J]. Journal of Plant Ecology, 1998(6):44-46, 48-58. ]

[42]
蒋高明. 植物生理生态学[M]. 北京: 高等教育出版社, 2004.

[ Jiang G M. Plant physiological ecology[M]. Beijing: Higher Education Press, 2014. ]

[43]
苏雪痕. 植物景观规划设计[M]. 北京: 中国林业出版社, 2012.

[ Su X H. Landscape design with plants[M]. Beijing: China Forestry Publishing House, 2012. ]

文章导航

/