时空大数据赋能交通精准预测

基于强化邻接图卷积的交叉口车辆轨迹预测模型

  • 齐浩轩 ,
  • 曹弋 , * ,
  • 赵斌
展开
  • 大连交通大学交通工程学院,大连 116028
* 曹 弋(1982— ),男,辽宁大连市人,博士,教授,主要从事交通规划与管理研究。E-mail:

作者贡献:Author Contributions

齐浩轩和曹弋参与实验设计;齐浩轩和赵斌完成实验操作;齐浩轩、曹弋、赵斌参与论文的写作和修改。所有作者均阅读并同意最终稿件的提交。

QI Haoxuan and CAO Yi participated in the experimental design; QI Haoxuan and ZHAO Bin completed the experimental operations; QI Haoxuan, CAO Yi, and ZHAO Bin were involved in the writing and revision of the paper.All the authors have read the lastversion of paper and consented for submission.

齐浩轩(2001— ),女,辽宁辽阳人,硕士生,主要从事交通规划与管理研究。E-mail:

收稿日期: 2024-12-24

  修回日期: 2025-01-08

  网络出版日期: 2025-03-06

基金资助

辽宁省属本科高校基本科研业务费专项资金资助项目(LJ212410150048)

2023年度辽宁省研究生教育教学改革研究项目(LNYJG2023138)

Vehicle Trajectory Prediction at Intersections Using Enhanced Adjacency Graph Convolution

  • QI Haoxuan ,
  • CAO Yi , * ,
  • ZHAO Bin
Expand
  • School of Transportation Engineering, Dalian Jiaotong University, Dalian 116028, China
* CAO Yi, E-mail:

Received date: 2024-12-24

  Revised date: 2025-01-08

  Online published: 2025-03-06

Supported by

The Fundamental Research Funds for the Provincial Universities of Liaoning(LJ212410150048)

The 2023 Research Project on the Reform of Graduate Education and Teaching in Liaoning Province(LNYJG2023138)

摘要

【目的】 为提高交叉口中车辆轨迹预测精度,解决交叉口多车交互场景中的轨迹预测难题。【方法】 构建强化邻接图卷积(EAG-GCN-T)的车辆轨迹预测模型,采用公共数据集INTERACTION并对数据噪声进行平滑处理,开展模型对比验证试验,与不同基准模型比较误差评估指标,验证轨迹预测精度、对比交互能力、分析泛化能力与驾驶行为识别。在模型构造上,EAG-GCN-T模型将强化邻接图卷积网络(EAG-GCN)与Transformer模型结合,EAG-GCN模块通过考虑相对速度与距离,利用强化加权邻接矩阵精确建模车辆空间交互关系,Transformer模块捕捉时间依赖性并生成未来轨迹,提升了时空预测能力。【结果】 在预测效能方面,单车轨迹长时段预测时,平均位移误差(ADE)和最终位移误差(FDE)较CV、ARIMA、CNN-LSTM分别降低69.4%、39.8%、33.3%和71.9%、32.5%、27.4%;多车交互预测中,与GRIP模型相比,FDE降低19.5%和20.6%;与3种交互机制对比,EAG-GCN-T在所有时域下总体误差最低,ADE/FDE分别为0.53和0.74,且行驶区域符合度(DCA)和轨迹点丢失率(MR)更合理,在匝道和环形交叉口适应性良好。在驾驶行为方面,模型能精准预判跟驰、变道、避让等行为及其对轨迹的影响,预测轨迹与真实轨迹高度一致。【结论】 EAG-GCN-T模型有效解决了交叉口多车交互场景中的车辆轨迹预测问题,具有高精度、强交互性和良好的泛化能力,为智能交通系统的车辆轨迹预测提供了新的解决方案。

本文引用格式

齐浩轩 , 曹弋 , 赵斌 . 基于强化邻接图卷积的交叉口车辆轨迹预测模型[J]. 地球信息科学学报, 2025 , 27(3) : 623 -635 . DOI: 10.12082/dqxxkx.2025.240707

Abstract

[Objectives] The primary objective is to enhance the accuracy of vehicle trajectory prediction at intersections and address the challenges in predicting trajectories in multi-vehicle interaction scenarios. This is crucial for improving the safety and efficiency of autonomous driving and traffic management in complex urban intersections. [Methods] An Enhanced Adjacency Graph Convolutional Network-Transformer (EAG-GCN-T) vehicle trajectory prediction model is developed. The INTERACTION public dataset is employed, with data smoothing techniques applied to mitigate noise. Model comparison and validation experiments are conducted to assess performance. The model’s accuracy is evaluated by comparing error assessment indicators against different baseline models, analyzing interaction capabilities, generalization ability, and driving behavior recognition. The EAG-GCN-T model combines an Enhanced Adjacency Graph Convolutional Network (EAG-GCN) and a Transformer module. The EAG-GCN module accurately models spatial interactions between vehicles by considering relative speed and distance using an enhanced weighted adjacency matrix. The Transformer module captures temporal dependencies and generates future trajectories, improving spatiotemporal prediction ability. [Results] In long-term single-vehicle trajectory prediction, the Average Displacement Error (ADE) and Final Displacement Error (FDE) are reduced by 69.4%, 39.8%, and 33.3% and 71.9%, 32.5%, and 27.4% respectively, compared to CV, ARIMA, and CNN-LSTM models. In multi-vehicle interaction prediction, the FDE is reduced by 19.5% and 20.6% compared to the GRIP model. Compared with three interaction mechanisms, EAG-GCN-T achieves the lowest overall error across all time domains, with ADE/FDE values of 0.53 and 0.74, respectively. EAG-GCN-T achieves more reasonable Driving Area Compliance (DAC) and Trajectory Point Loss Rate (MR), demonstrating strong adaptability in ramps and roundabouts. The model accurately predicts driving behaviors such as following, lane-changing, evasion, and their impacts on trajectories, with predicted trajectories highly consistent with actual vehicle movements. [Conclusions] The EAG-GCN-T model effectively addresses vehicle trajectory prediction in multi-vehicle interaction scenarios at intersections. It demonstrates high accuracy, strong interactivity, and excellent generalization ability. This model provides a novel solution for vehicle trajectory prediction in intelligent transportation systems, offering significant potential for advancing autonomous driving and intelligent traffic management.

1 引言

交叉口是城市道路交通的关键节点,交通运行状况复杂。不同方向、不同速度的车辆在交叉口中汇集,并交互完成跟驰、转向及避让等多种驾驶行为,车辆运动轨迹复杂且多样。有序或无序的轨迹特征可以反映交叉口的交通运行效率与安全,进而影响区域路网的交通运行质量。特别是近年来自动驾驶技术的不断进步,对车辆交互行为识别与轨迹预测精度提出了更高要求。因此,在车辆交互环境下,同时捕捉车辆间的空间相关性和时间依赖性,学习训练轨迹特征规律,精准预测车辆未来轨迹,尤为必要。
国内外的车辆轨迹预测方法可归纳为3类,分别是物理方法、机器学习方法和深度学习交互感知方法。早期研究主要基于物理方法,在车辆演化模型和统计模型基础上取得了进展,如运动学[1]、动力学[2]模型、汽车跟驰模型[3]、卡尔曼滤波[4]以及自回归整合移动平均统计模型[5]等方法。这些传统模型计算高效,适合实时应用,但忽略车辆时空相关性会导致长时段预测精度较低。
机器学习方法将道路、车型、物理运动等条件对驾驶行为的约束纳入考量,并将这些受限操作整合进轨迹预测中。为了同时强化短期与长期特征的表现力, Xie等[6]开发了物理与机动混合方法,生成了高精度轨迹。 Tran等[7]使用高斯过程回归模型来识别目标车辆机动,应用蒙特卡罗方法预测未来轨迹。其他机器学习模型涵盖了诸如支持向量机[8]、BP神经网络[9]、多层感知器[10]以及贝叶斯网络[11]等。尽管这些方法已展现出良好成效,但因始终未考虑周围车辆的交互影响而限制了自身的表征效能。
近年来深度学习交互感知方法备受关注。该类方法因克服了手工提取特征的不足并提供车-车交互信息,使得预测性能得以提升。对于欧式域内,长短时记忆网络(LSTM)和卷积神经网络(CNN)技术在模拟车辆间相互作用领域得到了广泛应用。门瑞[12]等构建了基于LSTM的轻量级车辆移动轨迹预测模型。二者融合的CNN-LSTM[13]并未事先设定空间网格尺寸,而是设计了能够动态适应车辆运动的网格,通过双层CNN结构来捕捉车辆间交互特征。Dai等[14]提出了时空LSTM来考虑距离最近的6辆车对目标车辆的动态影响。郭健等[15]建立了一种基于LSTM与注意力机制的跨海桥梁危化品车辆行驶轨迹预测模型。由于LSTM在欧氏域内建模,导致难以提取并描述交通网络的关键特征。相比之下,对于非欧式域内,图卷积网络(GCN)具有更好的处理拓扑结构,类似于交叉口场景中的多智能体交互,其出色性能已被证明。王梦茜[16]等针对RNN忽略车道结构等问题,利用GCN模型,引入高精地图车道拓扑提高预测准确性,实现精确道路结构与车辆轨迹交互建模。Carrasco等[17]构建了基于注意力的GNN,使用灵活且通用的场景表示交互建模图形,并预测混合交通条件下车辆和弱势道路使用者的社会一致性轨迹。袁静[18]等构建了STGACN模型,通过轨迹信息嵌入模块将车辆历史轨迹数据转换为时空图,利用时空卷积块提取并融合时序与空间特征,再由门控递归单元编码解码得到预测轨迹。Li等[19]提出GRIP模型,基于图结构考虑交互信息来预测轨迹。将邻接矩阵中所有元素设置为1作为基线,通过GCN学习道路使用者间复杂关系。Sheng等[20]构建了基于图的时空卷积网络(GSTCN)以预测周边车辆轨迹,利用GCN分析空间交互,CNN捕捉时间特性,并通过GRU对时空特征进行编码与解码,采用距离倒数来量化车辆间相互影响。为了并行预测多个车辆未来轨迹,最新研究采用了Transformer网络,得益于其强大的自注意力机制。王庆荣等[21]提出基于门控循环单元(GRU)和Transformer的车辆轨迹预测模型STGTF,通过双层多头注意力(MHA)机制提取车辆的时空交互特征,生成预测轨迹。 Singh等[22]提出多尺度图变换器注意力机制,关注道路代理间交互,定义动态障碍物轨迹为状态序列,结合图空间特征与Transformer网络,显著提升预测效果。田晟等[23]提出基于Transformer的车辆轨迹预测模型,融合运动、交互数据生成意图向量,与轨迹拼接后,经编码器提取特征,解码得未来轨迹分布。
现有研究表明,Transformer网络凭借其高度并行处理能力和自注意力机制,在多车预测中表现出色。受其启发,本研究拟进一步在时间维度上应用Transformer,以捕捉同一场景下车辆轨迹的时间依赖关系。具体做法是将过往时间段的特征映射至预测时间段,进而分析车辆轨迹演变规律。然而,以往研究在利用图卷积提取空间交互特征时,常将连接强度简化为节点间空间距离的函数,这种做法限制了模型的学习能力。实际上,交互的集中程度是一个动态变化量,它依赖于实际影响程度,不能仅凭空间距离来简单衡量。因此,本研究拟全面考虑车辆在每个时间步上的相对距离和速度关系。
鉴于此,本文将构建强化邻接图卷积网络(GCN-Transformer Network with Enhanced Adjacency Graph,EAG-GCN-T),通过EAG-GCN模块,学习并捕捉车辆间的空间依赖关系。利用Transformer编码器提取时间依赖。研究成果对轨迹预测理论的发展与延伸具有理论指导意义,对确保交叉口行车安全与通行效率具有实际应用价值。

2 研究方法

2.1 问题描述

针对城市交叉口多车交互场景中的多车轨迹开展预测。该问题可描述为,根据给定的历史轨迹序列,估计未来轨迹序列,同时预测所有邻居车辆的未来状态。将车辆简化为质点模型,由速度和位置定义,有助于高效精确构建轨迹预测模型,避免车形干扰。
定义车辆在历史观测时间t∈[t1, tobs]内的轨迹如式(1)。
X = { X 0 ,   X 1 ,   ,   X i ,   ,   X n }
式中: X为整个场景中的轨迹序列; t1为车辆的开始帧; tobs为结束帧; n为待预测的车辆总数; obs为观察点数量; Xi表示第i个车辆的历史轨迹点序列,如式(2)所示。
X ι = { X i t 1 ,   X i t 2 ,   ,   X i t m ,   ,   X i t o b s }
式中: X i t m为车辆i在历史时间步tm下的状态,如式(3)所示。
X i t m = ( x i t m ,   y i t m ,   v x i t m ,   v y i t m )
式中: ( x i t m ,   y i t m )表示车辆在时间戳tm时全局坐标系下的质心坐标; ( v x i t m ,   v y i t m )表示车辆在时间戳tm时的速度。
设车辆在未来待预测时间t∈[tobs+1, tobs+pred]中每一时间步的轨迹点序列,其中pred表示预测点数量,预测轨迹可表示为式(4)—式(6)所示。
Y = { Y 0 ,   Y 1 ,   ,   Y i ,   ,   Y n }
Y i = { Y i t o b s + 1 ,   Y i t o b s + 2 ,   ,   Y i t o b s + m ,   ,   Y i t o b s + p r e d }
Y i t o b s + m = x i t o b s + m ,   y i t o b s + m

2.2 模型构建

构建强化邻接图卷积网络(EAG-GCN-T)的体系结构,同时预测所有邻居车辆的未来轨迹分布。设计空间图卷积模块来学习车辆间的空间依赖关系。提出强化加权邻接矩阵以区分相邻车辆对各自的影响,并嵌入空间图卷积模块中。引入基于Transformer编码器的时间依赖模块,在时间维度上操作,利用Transformer解码器同时生成多个车辆的未来轨迹分布。模型框架如图1所示。
图1 EAG-GCN-T模型框架

Fig. 1 Framework of EAG-GCN-T model

2.2.1 强化邻接图卷积模块

为了捕捉其他车辆对目标车辆轨迹的交互影响,参考Sheng等[20]的工作。定义车辆空间交互图 G = { G t 1 ,   G t 2 ,   ,   G t m ,   ,   G T }来反映车辆间交互作用。G(t)={V(t), E(t)}是车辆在时刻t的空间图,其中V(t)t时刻节点特征矩阵,每一行对应一辆车,列则代表车辆属性。
V ( t ) = X 1 t X i t X n t = x 1 t ,   y 1 t ,   v x 1 t ,   v y 1 t x i t ,   y i t ,   v x i t ,   v y i t x n t ,   y n t ,   v x n t ,   v y n t
传统研究中,2个节点的交互边主要基于距离来分配权重,却忽略了车辆间的相对速度。如式(8)和式(9),本研究在边特征矩阵E(t)中同时考虑车辆的相对距离和速度,提出了强化节点间交互关系的新算法,其原理是生成强化加权邻接矩阵,调整边特征矩阵。
E ( t ) = Δ X - 11 t Δ X - 12 t Δ X - 1 n t Δ X - 21 t Δ X - 22 t Δ X - 2 n t Δ X - n 1 t Δ X - n 2 t Δ X - n n t
Δ X - q p t m = X - p t m - X - q t m
式中: E ( t ) R N t × N t × k表示时间步t的边特征矩阵;其中Nt为时间步t的车辆数目; k=1, 2, 3, 4是边特征的维度,包括 Δ x q p t ,   Δ y q p t ,   Δ v x q p t ,   Δ v y q p t Δ X - q p t表示车辆q与车辆p之间相对状态。
同时,边特征矩阵的构建考虑了车辆间的相互作用,即每辆车不仅受周围车辆的影响,也会影响周围车辆的行为。此外,为了使EAG-GCN能够有效处理场景的动态性,通过Padding(填充零)技术来处理车辆节点不一致的问题,保证训练过程中图结构的一致性。首先,需要确定一个最大车辆数Nmax(本文确定为27辆车),作为所有时间步的统一维度。在实际应用中Nmax可根据数据集中的最大车辆数或计算资源限制来设定。具体的,需要将 E ( t ) R N t × N t × k, Padding 为 E p a d ( t ) R N m a x × N m a x × k
在车辆交互中,不同车辆间的影响强度各不相同。为了反映这种差异,引入强化加权邻接矩阵 A a d j ( t ) R N m a x × N m a x来表示t时刻车辆间的相互作用强度。首先,标准化边特征矩阵为 E ^ ( t ) R N m a x × N m a x × k,然后将其与可训练注意力权重 W a t R 4 × f a t生成注意力邻接矩阵 A ˜ ( t ) R N m a x × N m a xfat为注意力滤波器的数量,最后通过注意力邻接矩阵 A ˜ ( t )与标准化后的边特征矩阵 E ^ ( t )的元素级乘法形成强化加权邻接矩阵 A a d j ( t ),每对车辆之间的交互影响(即边特征)会进行加权,得到更符合实际驾驶情况的交互信息。如果某辆车对目标车辆的影响较大,则其边特征会在最终计算中占据更大的权重,反之亦然。如式(10)和式(11)。
A ˜ i j ( t ) = k = 1 4 E ^ i j k ( t ) W a t W a t T E ^ i j k ( t ) T
A a d j ( t ) i j = A ˜ i j ( t ) E ^ i j k ( t )
由于不同交通场景中车辆数量、位置和特征差异较大,EAG-GCN模块能够在每个时间步动态生成邻接矩阵,根据车辆的相对位置和速度调整交互权重,适应场景变化。利用节点特征矩阵和强化加权邻接矩阵,通过图卷积运算将多个交互对的影响同时传播到整个交通场景。在提出的基于EAG-GCN的交互嵌入体系结构中,隐藏矩阵由每辆车的隐藏状态组成[24],如式(12)所示。
Z ( l + 1 ) = σ ( A a d j i j k Z ( l ) W g c n ( l + 1 ) ) Z 0 = X
式中: Z(l)表示l层顶点的隐含特征矩阵;σ(·)为激活函数,使用tanh; W g c n ( l ) R f g c n l × f g c n l + 1为第l层的可训练权矩阵; f g c n l为第l层的传播滤波器数量, f g c n 0 = 4;在第L个EAG-GCN层结束时,生成 Z i L,其行表示整个交通场景对车辆i的交互影响。

2.2.2 Transformer时间依赖模块

时间依赖模块按以下机制运行。利用Transformer解码器单独考虑每个车辆在时序上的独立关系。利用式(13)得到每个车辆的查询向量(Q)、键向量(K)及值向量(V)矩阵,再根据式(14)—式(16)计算每辆车的多头注意力[25]
Q = W Q I ,   K = W K I ,   V = W V I
A t t e n t i o n ( Q ,   K ,   V ) = S o f t m a x ( Q K T / d k ) V
h e a d i = A t t e n t i o n ( Q W i Q ,   K W i K ,   V W i K ) ,   i = 1 ,   2 ,   ,   h
M u l t i h e a d ( Q ,   K ,   V ) = C o n c a t ( h e a d i , h e a d h ) W
式中:WQ、 WK、 WV为训练过程中不断更新的权重矩阵; I为经嵌入层与位置编码处理后的编码器输入;比例因子dk规避了QK内积方差过大导致的训练困难; h是多头注意力机制中注意力头的数量; Concat表示将不同注意力头的输出矩阵拼接在一起; W为随网络一起训练的权重矩阵。将拼接后多个注意力头产生的输出矩阵映射到编码器最终输出矩阵。

2.2.3 轨迹预测模块

每个时间步的车辆特征通过EAG-GCN聚合与变换后,所有时间步的空间特征随后传入Transformer编码器,融合车辆随着时间而变换的空间特征。
对目标序列的每个时间步重复上述过程,并将编码结果连接为一个四维张量输入到Transformer解码器中,解码器会在每一步解码时使用该隐藏状态来生成下一个时间步的预测,并在最后处理全局时空依赖关系时,生成未来轨迹。利用式(17)在计算注意力权重时应用掩码(mask)机制,用于屏蔽无效的时间步,防止解码器在预测未来时间步时关注到无效的先前状态。
M a s k e d A t t e n t i o n ( Q ,   K ,   V ,   m a s k ) = S o f t m a x ( Q K / d k m a s k ) V
解码器的输出张量代表了模型对每个时间步的轨迹预测。最后经过线性层的线性变换,将特征从模型纬度转换为轨迹的实际坐标,输出预测结果,如式(18)。
y ^ t = W 0 h t + b 0
式中: W0是线性层的权重; b0是偏置; ht是解码器输出的隐藏状态; y ^ t即为预测的车辆轨迹坐标。
按上述方式设计模型,空间图卷积模块从输入中学习车辆间的空间依赖关系; Transformer时间依赖提取器进一步提取时间依赖关系。尽管这2个模块的操作在实现步骤上是连续的,但空间依赖和时间依赖并没有同时提取,这削弱了提取特征中包含的时空之间的相关性。因此利用了Transformer编码器,通过重复更新来加强相关性和时空依赖性,进而生成车辆未来预测轨迹。

2.2.4 模型参数与评估标准

在EAG-GCN-T模型中,首先包含2个EAG-GCN层,之后是批量归一化层,有2个超参数 [fgcn, fat], fgcnfat分别决定了下一层的节点特征的维度和注意力滤波器的数量。第一层的参数设置为[16,16],第二层为[32,16]。经过EAG-GCN处理后,通过tanh激活函数,并传入Transformer时间依赖模块。Transformer模块由4层编码器和4层解码器组成,嵌入维度为128,前馈神经网络的隐藏层维度为256,多头注意力机制的头数为8,使用ReLU激活函数。最后,模型通过2个线性层生成车辆的未来位置预测。
损失函数由式(19)—式(21)定义,基于加权均方误差(MSE)和漏检率(Miss Rate),并利用掩码(Mask)。漏检率 M R ( t )用来惩罚大误差的时刻。掩码 M m a s k ( t )有效忽略Padding部分的影响,确保填充部分不影响损失计算和梯度更新。
M a s k e d L o s s = t i = 1 N m a x M m a s k ( t ) [ i ] L o s s ( y ( t ) [ i ] ,   y ^ ( t ) [ i ] ) t i = 1 N m a x M m a s k ( t ) [ i ]
L o s s = t = 1 T w ( t ) ( y ( t ) [ i ] - y ^ ( t ) [ i ] 2 2 ) + λ t = 1 T M R ( t )
M R ( t ) = 1 ,         y ( t ) [ i ] - y ^ ( t ) [ i ] 2 δ 0 ,         y ( t ) [ i ] - y ^ ( t ) [ i ] 2 δ
式中: M m a s k ( t ) [ i ]为1表示车辆it时存在(非Padding),为0则不存在,增强了模型训练的稳定性和收敛性; y ( t ) [ i ] - y ^ ( t ) [ i ] 2为时间t车辆i的真实坐标y(t)[i]和预测坐标 y ^ ( t ) [ i ]的欧氏距离;加权因子wt根据时间步的重要性而调整; λ=5控制漏检率权重; δ=2 m为预设阈值;当预测误差超出阈值时, M R ( t )为1,表示该时间步预测失误较大,模型需要加强关注。训练采用16 G显存NVIDIA GTX 4060 Ti GPU,批量大小为128, Adam优化器优化参数,共300个epoch。初始学习率0.000 2,每80个epoch降低至十分之一,加速收敛。
使用平均位移误差(ADE)和最终位移误差(FDE)评价模型轨迹预测精度[26]。为了验证EAG-GCN-T模型是否能够在无地图输入情况下预测出合理的车辆轨迹,采用可行驶区域合规性(DAC)和轨迹点丢失率(MR)来进一步验证轨迹预测的合理性[27]
(1)平均位移误差(ADE):在所有时刻,真实轨迹坐标和预测轨迹坐标间的平均欧式距离,如式(22)所示。
A D E = i = 1 N t = h + 1 T Y t i - Y ^ t i 2 N × ( T - h )
(2)最终位移误差(FDE):在最终时刻,真实轨迹坐标和预测轨迹坐标间的平均欧式距离,如式(23)所示。
F D E = i = 1 N Y t i - Y ^ t i 2 N
式中: Y ^ t i Y t it时刻车辆i的预测坐标和真实坐标; N是测试集中的车辆总数。
(3)可行驶区域合规性(DAC): DAC值越高,表示车辆更有可能在实际道路环境中安全行驶,如式(24)所示。
D A C = N d / N t
式中:Nd表示位于可行驶区域内的预测轨迹数; Nt表示总的预测轨迹数。
(4)轨迹点丢失率(MR):某一帧预测坐标与真实坐标的距离大于2 m,认为轨迹点丢失,如式(25)所示。
M R = N m / N r
式中: Nr表示所有输入的真实轨迹点数量; Nm表示丢失的轨迹点数量。
在单车和多车预测性能中,通过监测模型在 1~5 s不同时间段的预测精度(ADE和FDE),能深入理解其时空依赖建模、稳定性及误差累积。短期预测(1~2 s)对紧急避障至关重要,确保快速响应;中长期预测(3~5 s)则助力车辆精确规划路径,有效规避障碍物及拥堵,为自动驾驶提供更详尽的环境描述和全面决策支持。
在车辆交互强度分析中,选择未来5 s预测区间的MR与DAC指标,以评估各机制模型的合理性;并依据不同时间域下的ADE与FDE,综合考量模型的整体预测精度及终端准确性。
在模型泛化能力评估中,选前2 s轨迹反映车辆当前状态和趋势,作为输入预测时间段;后3 s作为输出,既提供有价值路径信息,又避免预测难度过大。

3 实验设计及结果分析

3.1 数据来源与数据处理

利用公共数据集INTERACTION[28]训练模型。表1展示了驾驶场景信息,以3个字母前缀标识国家,2个字母后缀标记场景代码。数据集广泛覆盖高互动场景,涵盖城市快速路和高速匝道合流(⑨、⑩)、环形交叉口(①—⑤)以及无信号和信号控制交叉口(⑥—⑧、⑪)。每个场景均具备独特的交通流与车道结构,体现不同的交通互动。这些场景由“让行”、“停车”标志及优先权控制,车辆进出频繁,互动紧密。如图2所示的USA_Intersection_MA,9条车道全向停车路口,车辆竞相通行,争夺路权。参考前人研究[20],将采样处理后的原始数据集分成训练集、验证集和测试集,分别包含数据221 581条、71 517条和70 093条。图2为其中一个交叉口的几何构造。本实验依托无信号和信号交叉口的轨迹数据验证模型预测精度;应用环形交叉口和合流段验证模型泛化能力。
表1 不同国家各场景下的实验数据详情

Tab. 1 Detailed experimental data for various scenarios in different countries

场景 地点 视频时长/min 车辆数目/辆 视频总时长/min 车辆数/辆
环形交叉口 ① USA_Roundabout_SR 40.90 965 365.10 10 479
② CHN_Roundabout_LN 24.24 227
③ DEU_Roundabout_OF 55.04 1 083
④ USA_Roundabout_FT 207.62 7 496
⑤ USA_Roundabout_EP 37.30 708
无信号交叉口 ⑥ USA_Intersection_EP 66.53 1 367 433.33 14 867
⑦ USA_Intersection_MA 107.37 2 982
⑧ USA_Intersection_GL 259.43 10 518
合流区 ⑨ DEU_Merging_MT 37.93 574 132.55 10 933
⑩ CHN_Merging_ZS 94.62 10 359
信号交叉口 ⑪ TC_Intersection_VA 60.00 3 775 60.00 3 775
图2 交叉口结构

Fig. 2 Intersection structure

鉴于原始驾驶数据集存在一定误差和噪声,轨迹与速度信号抖动对预测精度影响较大,故首先采用S-G滤波器( Savitky-Golay)对原始数据进行滤波处理。处理后的数据与原始数据对比如图3所示。
图3 数据平滑效果对比

Fig. 3 Comparison of data smoothing effects

3.2 轨迹预测精度验证

将构建的EAG-GCN-T模型与传统基准模型分别用于车辆轨迹预测并计算误差指标。设计2类对比验证试验: ① 单车预测性能比较,基准模型为CV、ARIMA与CNN-LSTM; ② 多车预测性能比较,基准模型为GRIP。精度分析结果以ADE和FDE较低为优秀。
① CV (Constant Velocity):基于物体匀速运动假设的车辆轨迹预测方法。
② ARIMA(Autoregressive Integrated Moving Average model)[5]:自回归整合移动平均模型,用于预测时间序列数据中未来点的统计模型。
③ CNN-LSTM[13]:结合CNN和LSTM分析车辆间相互作用并预测轨迹序列。
④ GRIP[19]:通过图表示代理间的交互,使用卷积块捕获时空特征。
⑤ EAG-GCN-T(本文模型):EAG-GCN捕捉空间交互,Transformer提取时间依赖。
(1)单车预测性能
结合表2图4(a)所示。基于运动学的CV模型在短时预测(1 s内)的结果较好,这是由于大部分车辆在短时内基本维持原有的行驶状态;但CV在其他情形下综合表现最差,表明该方法难以处理复杂交互场景下多智能体轨迹的长时预测。深度学习模型(CNN-LSTM)的轨迹预测精度,比经典时间序列模型(ARIMA)略高。EAG-GCN-T在所有预测时段内误差最低。这得益于GCN与Transformer的结合, GCN擅长捕捉车辆间空间交互特征,而Transformer擅长提取时间特征,两者结合能深入提取车辆轨迹时空特征,提升预测精度。加之强化邻接交互模块通过强化车辆间连接,使模型更准确地捕捉车辆交互影响,进一步提升预测性能。轨迹可视化如图5(a)所示,所得出的预测轨迹(以绿色标识)与真实轨迹(以红色标识)呈现出最高程度的重叠性。
表2 单车&多车轨迹预测各时域误差(ADE/FDE)比较

Tab. 2 Comparison of errors (ADE/FDE) across temporal domain for single-vehicle and multi-vehicle trajectory predictions

预测视野/s 单车预测性能(ADE/FDE) 多车预测性能(ADE/FDE)
CV ARIMA CNN-LSTM EAG-GCN-T GRIP EAG-GCN-T
1 0.18/0.23 0.23/0.39 0.24/0.35 0.18/0.23 0.34/0.40 0.22/0.31
2 0.61/0.81 0.50/0.71 0.43/0.69 0.24/0.31 0.52/0.72 0.27/0.44
3 1.12/1.91 0.84/1.03 0.72/0.96 0.49/0.69 0.69/0.94 0.62/0.75
4 2.96/3.96 1.26/1.44 1.13/1.35 0.67/1.17 0.91/1.35 0.74/1.24
5 4.31/6.81 1.82/2.12 1.69/1.93 1.21/1.43 1.38/1.94 1.27/1.49
平均值 1.83/2.74 0.93/1.14 0.84/1.06 0.56/0.77 0.77/1.07 0.62/0.85
ADE/FDE降低值 69.4%/71.9% 39.8%/32.5% 33.3%/27.4% - 19.5%/20.6% -
图4 各时域预测精度对比

Fig. 4 Comparison of prediction accuracy in different time domains

图5 预测轨迹可视化

Fig. 5 Visualization of prediction trajectories

(2)多车预测性能
所有基准模型中,仅GRIP和EAG-GCN-T能同时预测所有车辆轨迹。多车预测结果误差如图4(b)表1所示,EAG-GCN-T在所有预测时域上精度更高,ADE降低19.5%,FDE降低18.3%。多车轨迹可视化如图5(b)所示,可见EAG-GCN-T有效地利用了周边车辆的行驶轨迹信息,得到与真实轨迹高度重合的轨迹。部分轨迹重合现象并非指同一时间点上的重叠,而是表现为后车的未来轨迹与前车的历史轨迹在时间上存在一定的滞后性重合,并不构成异常状态,反映了道路交通中车辆行驶的自然规律。

3.3 车辆交互强度分析

邻接矩阵中的权重是衡量节点间相互作用强度的关键指标,因此有必要充分考虑图网络模型的交互强度。为验证4.1节提出的强化加权邻接矩阵交互影响(EAG)机制,分析不同邻接关系对预测结果的影响,以证实EAG机制在提升预测精度方面的效果。
在数据集DR_USA_Intersection_MA场景下,利用各时域ADE和FDE, 5 s内DAC和MR作为模型评估指标。设置3个变体模型与EAG-GCN-T对比。 ① ONE-GCN-T:将邻接矩阵中所有元素设置为1作为基线; ② D-GCN-T:直接使用邻居车辆间直接距离作为权重; ③ RD-GCN-T:将单一距离的倒数作为权重; ④ EAG-GCN-T:考虑距离和速度的综合影响。
结合表3图6,EAG-GCN-T模型在所有时域范围内的ADEFDE都最小, MR值最小, DAC值最大,在道路交通车辆交互分析中性能优越,均值连接线的走向显著地体现了这一趋势。分析其他变体模型可知, ONE-GCN-T将邻接矩阵中所有元素设置为1,忽略了车辆间的实际交互差异;D-GCN-T仅使用邻居车辆间直接距离作为权重,未考虑速度影响; RD-GCN-T虽然以距离的倒数作为权重,但仍未全面考虑速度和相对距离的综合影响。EAG-GCN-T模型得益于对车辆间交互关系的精细捕捉和建模,同时考虑相对距离和速度来计算车辆间权重,强化车辆间交互关系。EAG-GCN-T模型能够精准预测车辆轨迹,从而在ADE、FDE、DAC和MR等评估指标上表现出色。
表3 不同交互机制误差对比

Tab. 3 Error comparison of different interaction mechanisms

基准模型 ADE/FDE /m MR/% DAC/%
1 s 2 s 3 s 4 s 5 s 平均值
ONE-GCN-T 0.45/0.81 0.83/1.23 1.65/2.04 2.53/3.71 3.66/2.97 1.82/2.15 0.365 0.812
D-GCN-T 0.31/0.44 0.49/0.78 0.81/1.02 1.18/1.36 2.01/2.83 0.96/1.29 0.291 0.886
RD-GCN-T 0.27/0.37 0.36/0.59 0.68/0.85 0.93/1.14 1.74/2.19 0.79/1.03 0.232 0.893
EAG-GCN-T 0.17/0.22 0.24/0.31 0.45/0.66 0.62/1.07 1.16/1.42 0.53/0.74 0.139 0.911
图6 不同交互机制ADEFDE对比

Fig. 6 Comparison of ADE and FDE of different interaction mechanisms

3.4 模型泛化能力分析

不同场景下的可迁移性是轨迹预测模型的重要性能。通过测试EAG-GCN-T与各基准模型在数据集不同场景下的轨迹预测效果,来验证其泛化能力。场景包括匝道出入口的合流与分流,环形交叉口的弧形转弯等行为。比较未来3 s的ADE和FDE, 结果如表4所示,EAG-GCN-T模型在测试场景下均表现优异,具有较高的泛化能力。
表4 模型泛化能力分析结果

Tab. 4 Analysis results of model generalization ability (m)

基准模型 上下匝道 环形交叉口
ADE FDE ADE FDE
CV 1.26 2.54 2.35 3.12
ARIMA 0.97 1.42 1.32 1.57
CNN-LSTM 0.41 0.69 0.84 1.05
GRIP 0.65 0.96 0.63 0.90
EAG-GCN-T 0.41 0.67 0.61 0.92

3.5 模型驾驶行为分析

参考前人研究[29],为了直观看到EAG-GCN-T模型在不同驾驶行为下的轨迹预测效果,选取了交叉口处典型驾驶行为,如跟驰、换道和避让,可视化分析轨迹特征。图7中的轨迹,紫色为历史真实,红色为未来真实,绿色为未来预测,黄色为周围他车轨迹。模型输入车辆前2 s轨迹数据,预测后5 s轨迹数据。
图7 不同行为轨迹预测可视化

Fig. 7 Visualization of different behavioral trajectory predictions

对于跟驰行为,模型能准确预判驾驶意图,后车能够根据前车的行为相应地调整速度和距离以保持安全跟驰,预测轨迹与真实轨迹几乎一致。在换道行为上,模型不仅精准预测了车辆即将变道的轨迹,还准确预测了目标车道后方车辆的减速行驶轨迹。对于避让行为,模型能正确识别驾驶意图和加减速行为,精准预测车辆轨迹,如左转车引起直行车提前减速避让。
EAG-GCN-T模型通过其内置的强化交互邻接机制,在复杂交叉口场景下车辆轨迹预测任务中展现出了非凡的性能。经由3种典型行为模式的深入分析,可证实该模型能够精确捕捉并有效利用多车间的交互信息,进而实现车辆未来轨迹的精准预测。尤为重要的是,EAG机制不仅为交互轨迹预测任务提供了高度鲁棒的解决方案,还在车辆行驶意图推断方面展现出不俗潜力,这进一步彰显了其在模型性能优化与功能拓展中的核心作用。

4 结论与讨论

4.1 结论

针对交叉口多车交互场景中的车辆轨迹预测问题,构建了基于强化邻接图卷积(EAG-GCN-T)轨迹预测模型。采用公共数据集INTERACTION并平滑处理数据噪声,开展模型对比验证试验。通过与不同基准模型比较误差评估指标,验证轨迹预测精度,对比交互能力,分析泛化能力与驾驶行为识别,得出以下结论。
(1)模型构造方面,构建的EAG-GCN-Transformer(EAG-GCN-T)模型通过将强化邻接图卷积网络(EAG-GCN)与Transformer模型结合,解决了交叉口多车交互场景中的轨迹预测问题。EAG-GCN模块考虑了相对速度与距离,超越了传统方法只关注距离的局限,通过强化加权邻接矩阵,精确建模车辆间的空间交互关系。Transformer模块通过其编码器捕捉时间依赖性,利用解码器生成未来轨迹。两者结合有效提高了模型的时空预测能力,尤其在多车交互和复杂场景中优势明显。
(2)预测效能方面,EAG-GCN-T模型在单车轨迹预测中表现优异,特别在长时段预测时保持了较低误差。在单车和多车交互预测中,与基准CV、ARIMA、CNN-LSTM和GRIP模型相比,EAG-GCN-T的平均位移误差(ADE)分别降低了69.4%、39.8%、33.3%、19.5%,最终位移误差(FDE)分别降低了71.9%、32.5%、27.4%、20.6%。与ONE-GCN-T、D-GCN-T、RD-GCN-T其他交互机制对比,EAG-GCN-T在所有时域下均表现出色,证明了EAG机制可更有效地捕捉车辆间动态交互信息。EAG-GCN-T模型在不同交通场景中的泛化能力也得到了验证,无论是匝道还是环形交叉口,模型都展现出了良好的适应性。
(3)驾驶行为方面,可视化的直观结果展示了EAG-GCN-T模型在预测交叉口中跟驰、变道、避让不同驾驶行为的效果。通过对比预测轨迹与真实轨迹,表明模型能够较好地适应复杂交互行为,精准预判各类驾驶行为及其对轨迹的影响,从而输出与真实轨迹高度一致的预测轨迹。尤其在车辆密集的交叉口(平均每分钟通行27.8辆),模型通过动态捕捉速度差异对行为决策的影响,相较于仅考虑单一距离的变体模型,EAG-GCN-T通过融合车辆距离与速度的交互机制,将MR从ONE-GCN-T的0.365%、D-GCN-T的0.291%大幅降至0.139%;同时, 5 s的DAC提升至91.1%,较RD-GCN-T模型提升1.8%,进一步验证了其在复杂交互场景下对驾驶行为意图及轨迹演变规律的综合推理能力。

4.2 讨论

尽管EAG - GCN - T模型在车辆轨迹预测上成果显著,却仍面临精度受限的问题。驾驶员个体差异极大,驾驶风格、反应速度与决策习惯各不相同,经验丰富和新手驾驶员在复杂路况下的表现迥异,致使统一模型难以精准捕捉所有驾驶员行为对车辆轨迹的作用。同时,模型构建时采用质点模型,虽能高效构建预测模型,但忽视了车辆自身复杂因素,如多样的加速模式、实际尺寸和形状,这些在密集交通场景中对安全距离和行驶空间影响重大,质点模型却无法体现。另外,交通规则动态变化、突发交通事故等特殊情况,也会干扰模型对车辆交互特征的捕捉,降低预测精度。
EAG - GCN - T 模型适用于交互频繁的复杂交通场景,但随着场景多样化,计算量需求攀升,尤其在交通密集、交互复杂处,计算成本大幅提高。为提升计算效率,可从优化图神经网络架构、精简数据处理流程以及利用硬件加速等方面入手。此外,融入实时交通信息和驾驶员行为等因素,能进一步增强模型的适应性与准确性,推动其在复杂交通场景中的广泛应用,为自动驾驶和智能交通给予更有力的理论支撑。
■ 本文图文责任编辑: 蒋树芳 黄光玉

利益冲突:Conflicts of Interest 所有作者声明不存在利益冲突。

All authors disclose no relevant conflicts of interest.

[1]
Xin M, Yin Y, Zhang K, et al. Continuous robust trajectory tracking control for autonomous ground vehicles considering lateral and longitudinal kinematics and dynamics via recursive backstepping[C]// 2021 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, 2021:8373-8380. DOI:10.1109/IROS51168.2021.9635920

[2]
Zha Y F, Deng J X, Qiu Y Y, et al. A survey of intelligent driving vehicle trajectory tracking based on vehicle dynamics[J]. SAE International Journal of Vehicle Dynamics, Stability, and NVH, 2023, 7(2):221-248. DOI:10.4271/10-07-02-0014

[3]
Sheng Z H, Xue S B, Xu Y W, et al. Real-time queue length estimation with trajectory reconstruction using surveillance data[C]// 2020 16th International Conference on Control, Automation, Robotics and Vision (ICARCV). IEEE, 2020:124-129. DOI:10.1109/ICARCV50220.2020.9305313

[4]
Abbas M T, Jibran M A, Afaq M, et al. An adaptive approach to vehicle trajectory prediction using multimodel Kalman filter[J]. Transactions on Emerging Telecommunications Technologies, 2020, 31(5):e3734. DOI:10.1002/ett.3734

[5]
Williams B M, Durvasula P K, Brown D E. Urban freeway traffic flow prediction: Application of seasonal autoregressive integrated moving average and exponential smoothing models[J]. Transportation Research Record: Journal of the Transportation Research Board, 1998, 1644(1):132-141. DOI:10.3141/1644-14

[6]
Xie G T, Gao H B, Qian L J, et al. Vehicle trajectory prediction by integrating physics- and maneuver-based approaches using interactive multiple models[J]. IEEE Transactions on Industrial Electronics, 2018, 65(7):5999-6008. DOI:10.1109/TIE.2017.2782236

[7]
Tran Q, Firl J. Online maneuver recognition and multimodal trajectory prediction for intersection assistance using non-parametric regression[C]// 2014 IEEE Intelligent Vehicles Symposium Proceedings. IEEE, 2014:918-923. DOI:10.1109/IVS.2014.6856480

[8]
祝俪菱, 刘澜, 赵新朋, 等. 基于支持向量机的车辆驾驶行为识别研究[J]. 交通运输系统工程与信息, 2017, 17(1):91-97.

[Zhu L L, Liu L, Zhao X P, et al. Driver behavior recognition based on support vector machine[J]. Journal of Transportation Systems Engineering and Information Technology, 2017, 17(1):91-97.] DOI:10.16097/j.cnki.1009-6744.2017.01.014

[9]
郭应时, 付锐, 赵凯, 等. 驾驶人换道意图实时识别模型评价及测试[J]. 吉林大学学报(工学版), 2016, 46(6):1836-1844.

[Guo Y S, Fu R, Zhao K, et al. Evaluation and test of real-time identification models of driver’s lane change intention[J]. Journal of Jilin University (Engineering and Technology Edition), 2016, 46(6):1836-1844.] DOI:10.13229/j.cnki.jdxbgxb201606011

[10]
Shou Z Y, Wang Z R, Han K, et al. Long-term prediction of lane change maneuver through a multilayer perceptron[C]// 2020 IEEE Intelligent Vehicles Symposium (IV). IEEE, 2020: 246-252. DOI:10.1109/iv47402.2020.9304587

[11]
邱小平, 刘亚龙, 马丽娜, 等. 基于贝叶斯网络的车辆换道模型[J]. 交通运输系统工程与信息, 2015, 15(5):67-73,95.

[Qiu X P, Liu Y L, Ma L N, et al. A lane change model based on Bayesian networks[J]. Journal of Transportation Systems Engineering and Information Technology, 2015, 15(5):67-73,95.] DOI:10.16097/j.cnki.1009-6744.2015.05.010

[12]
门瑞, 郭俊俊. 基于LSTM的车辆移动轨迹预测研究[J]. 专用汽车, 2024(6):70-72.

[Men R, Guo J J. Research on vehicle trajectory prediction based on LSTM[J]. Special Purpose Vehicle, 2024(6):70-72.] DOI:10.19999/j.cnki.1004-0226.2024.06.019

[13]
Mo X Y, Xing Y, Lv C. Interaction-aware trajectory prediction of connected vehicles using CNN-LSTM networks[C]// IECON 2020 The 46th Annual Conference of the IEEE Industrial Electronics Society. IEEE, 2020: 5057-5062. DOI:10.1109/iecon43393.2020.9255162

[14]
Dai S Z, Li L, Li Z H. Modeling vehicle interactions via modified LSTM models for trajectory prediction[J]. IEEE Access, 2019, 7:38287-38296. DOI:10.1109/ACCESS.2019.2907000

[15]
郭健, 杨淼禧, 骆成, 等. 基于LSTM的跨海桥梁危化品车辆行驶轨迹预测[J]. 安全与环境工程, 2023, 30(2):101-108.

[Guo J, Yang M X, Luo C, et al. Trajectory prediction of hazardous chemical vehicles for sea-crossing bridges based on LSTM[J]. Safety and Environmental Engineering, 2023, 30(2):101-108.] DOI:10.13578/j.cnki.issn.1671-1556.20220030

[16]
王梦茜, 蔡英凤, 王海, 等. 基于图卷积交互网络的车辆轨迹预测方法[J]. 汽车工程, 2024, 46(10):1863-1872.

[Wang M X, Cai Y F, Wang H, et al. Vehicle trajectory prediction method based on graph convolutional interaction network[J]. Automotive Engineering, 2024, 46(10):1863-1872.] DOI:10.19562/j.chinasae.qcgc.2024.10.013

[17]
Carrasco S, Llorca D F, Sotelo M A. SCOUT: Socially-COnsistent and UndersTandable graph attention network for trajectory prediction of vehicles and VRUs[C]// 2021 IEEE Intelligent Vehicles Symposium (IV). IEEE, 2021:1501-1508. DOI:10.1109/IV48863.2021.9575874

[18]
袁静, 夏英. 基于时空图注意力卷积神经网络的车辆轨迹预测[J]. 计算机科学, 2024, 51(12):157-165.

DOI

[Yuan J, Xia Y. Vehicle trajectory prediction based on spatial-temporal graph attention convolutional network[J]. Computer Science, 2024, 51(12):157-165.]

DOI

[19]
Li X, Ying X W, Chuah M C. GRIP: Graph-based interaction-aware trajectory prediction[C]// 2019 IEEE Intelligent Transportation Systems Conference (ITSC). IEEE, 2019: 3960-3966. DOI:10.1109/itsc.2019.8917228

[20]
Sheng Z H, Xu Y W, Xue S B, et al. Graph-based spatial-temporal convolutional network for vehicle trajectory prediction in autonomous driving[J]. IEEE Transactions on Intelligent Transportation Systems, 2022, 23(10):17654-17665. DOI:10.1109/TITS.2022.3155749

[21]
王庆荣, 谭小泽, 朱昌锋, 等. 基于门控循环单元和Transformer的车辆轨迹预测方法[J]. 汽车技术, 2024(7):1-8.

[Wang Q R, Tan X Z, Zhu C F, et al. Vehicle trajectory prediction method based on GRU and transformer[J]. Automobile Technology, 2024(7):1-8.] DOI:10.19620/j.cnki.1000-3703.20230877

[22]
Singh D, Srivastava R. Multi-scale graph-transformer network for trajectory prediction of the autonomous vehicles[J]. Intelligent Service Robotics, 2022, 15(3):307-320. DOI:10.1007/s11370-022-00422-w

[23]
田晟, 胡啸. 基于Transformer模型的车辆轨迹预测[J]. 广西师范大学学报(自然科学版), 2024, 42(3):47-58.

[Tian S, Hu X. Vehicle trajectory prediction based on transformer model[J]. Journal of Guangxi Normal University (Natural Science Edition), 2024, 42(3):47-58.] DOI:10.16088/j.issn.1001-6600.2023061203

[24]
Yu B, Yin H T, Zhu Z X. Spatio-temporal graph convolutional networks: A deep learning framework for traffic forecasting[EB/OL]. 2017: 1709.04875. https://arxiv.org/abs/1709.04875v4

[25]
Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[C]. Proceedings of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2017:6000-6010. DOI:10.48550/arxiv.1706.03762

[26]
Yu C J, Ma X, Ren J W, et al. Spatio-temporal graph transformer networks for pedestrian trajectory prediction[C]// Computer Vision - ECCV 2020. Cham: Springer International Publishing, 2020:507-523. DOI:10.1007/978-3-030-58610-2_30

[27]
Fang L J, Jiang Q H, Shi J P, et al. TPNet: Trajectory proposal network for motion prediction[C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2020:6796-6805. DOI:10.1109/cvpr42600.2020.00683

[28]
Zhan W, Sun L T, Wang D, et al. INTERACTION dataset: An INTERnational, adversarial and cooperative moTION dataset in interactive driving scenarios with semantic maps[EB/OL]. 2019: 1910. 03088. https://arxiv.org/abs/1910.03088v1

[29]
Wang Z N, Zhang J W, Chen J C, et al. Spatio-temporal context graph transformer design for map-free multi-agent trajectory prediction[J]. IEEE Transactions on Intelligent Vehicles, 2024, 9(1):1369-1381. DOI:10.1109/TIV.2023.3329885

文章导航

/