微空间场景与视频分析相结合的审讯室异常行为检测

  • 胡加佩 ,
  • 王小勇 ,
  • 刘学军*
展开
  • 南京师范大学虚拟地理环境教育部重点实验室,南京 210023
*通讯作者:刘学军(1965-),男,博士,教授,研究方向为视频GIS、视频监控、DEM及其地形分析等。E-mail:

作者简介:胡加佩(1986-),女,江苏无锡人,博士生,研究方向为影视GIS、视频监控与空间关系等。E-mail:

收稿日期: 2013-08-26

  要求修回日期: 2013-11-29

  网络出版日期: 2014-07-10

基金资助

“十二五”国家支撑计划项目“视频GIS与突发公共事件的感知控制系统”(2012BAH35B02)

江苏省高校自然科学重大基础研究项目“基于平面视频的可量测三维视频构建关键技术研究”(10KJA420025)

A Method of Abnormal Behavior Detection in Interrogation Room Based on Video Analysis Combined with Micro-spatial Environment

  • HU Jiapei ,
  • WANG Xiaoyong ,
  • LIU Xuejun*
Expand
  • Key Laboratory of Virtual Geographic Environment, Ministry of Education, School of Geographical Science, Nanjing Normal University, Nanjing 210023, China
*Corresponding author: LIU Xuejun, E-mail:

Received date: 2013-08-26

  Request revised date: 2013-11-29

  Online published: 2014-07-10

Copyright

《地球信息科学学报》编辑部 所有

摘要

行为检测是智能视频分析的研究热点。目前,行为分析主要是基于视频图像空间,而丰富的空间场景信息并未得到有效利用。事实上,个体行为与空间场景紧密关联,不同场景可能具有不同的行为表征。本文以审讯室的典型微空间场景为例,以刑讯逼供行为检测为研究内容,探究空间场景约束下的个体异常行为检测方法。首先,从行为变量的概念出发,解析了刑讯逼供的行为变量和行为类型;其次,分析了刑讯逼供行为变量的视频特征,并设计了相应的行为变量检测模型;再次,通过灭点计算实现了空间场景和视频图像的双向映射关系的解算,并在此基础上设计了顾及空间场景的刑讯逼供行为分级分类检测策略;最后,通过模拟实验对本文方法的可行性进行了分析验证。

本文引用格式

胡加佩 , 王小勇 , 刘学军* . 微空间场景与视频分析相结合的审讯室异常行为检测[J]. 地球信息科学学报, 2014 , 16(4) : 545 -552 . DOI: 10.3724/SP.J.1047.2014.00545

Abstract

The detection of anomalous human behaviors has received tremendous attention in the research of intelligent video analysis. However, most of existing methods for anomaly analysis are based on image space, and abundant information in the geographical space goes unused. In fact, human activities are closely related to geographical spaces, and different scenario types may correspond to different classes of human behaviors. So, in this paper we chose interrogation room as a representative of the micro-spatial environment and conducted a study on the anomaly detection of extorting confessions by torture, considering the spatial constraints. Firstly, the concept of behavioral variables has been stated, and then behavioral variables and their classes of extorting confessions by torture have been deeply analyzed. Secondly, the video characters of behavioral variables of extorting confessions by torture have been discussed and their corresponding detection models have further been designed. Plus, a bi-directional mapping model between the geographical space and the image space has been constructed according to vanishing points. This proposed mapping method can effectively avoid the calculation of intrinsic and extrinsic camera parameters. Based on above, a hierarchical and classified strategy for anomaly detection of extorting confessions by torture has been developed, considering the spatial constraints to human behaviors without learning and training processes. At last, the presented method in this paper is tested and verified by a series of simulated experiments.

1 引言

随着GIS在公共安全、应急救援、视频监控等领域的日益普及,微空间场景(Micro-Spatial Environments),已成为GIS关注的研究对象之一。微空间场景泛指室内场景[1],大多为相对密闭的公共空间,是抢劫、盗窃、施暴等违法犯罪行为的高发地。微空间场景按结构特征可分为两类:一类是结构复杂的人员聚集场所,如商场、地铁站、体育馆等;另一类是结构简单的相对封闭场所,如自动柜员机、电梯、审讯室等。目前,研究重点较多关注前者,如微空间场景的3D建模[2-3]、室内群体疏散模拟[4]、室内目标跟踪[5]等。
审讯室是司法人员提审犯罪嫌疑人的场所,是典型的结构简单、封闭的微空间场景。近年来,我国的司法文明程度日益改善,但刑讯逼供现象仍然屡禁不止。如何遏制刑讯逼供事件的发生,维护司法公正、保护犯罪嫌疑人的合法权益,成为当前司法监督部门亟需解决的重大难题。2013年8月中央政法委出台了首个防止冤假错案指导意见,提出“充分借用科技力量等手段防范冤假错案”。随着审讯室的标准化、数字化建设,基于微空间场景的智能视频分析技术有望监督和预防刑讯逼供的发生。
通过视频分析实现对审讯室刑讯逼供行为的检测与识别,其本质是人的异常行为分析与理解问题。异常行为分析是计算机视觉研究的热点问题之一,目前,国内外学者已提出多种检测方法,如图像统计处理法[6-8]、时空特征模式分析法[9-11]、人体结构分析法[12-14]等,这些方法的共同特征是以图像空间为信息中心,以目标行为作为研究对象。实际上,个体行为与空间场景紧密关联,空间场景的类型对个体行为具有约束作用。相同行为在不同场景下可能具有不同的涵义,在某一场所的异常行为在另一场所并不一定为异常。本文以审讯室这一微空间场景为约束,以刑讯逼供行为检测为研究内容,探究空间场景约束下的个体异常行为探测方法,一方面,满足司法部门对预防刑讯逼供等非法取证行为的实际需求,另一方面,探索GIS与视频分析相结合的空间分析技术思路,以丰富GIS时空分析方法。

2 刑讯逼供行为特征与表达

2.1 刑讯逼供行为变量与行为类型

2.1.1 刑讯逼供行为变量
任何行为的实施是由基本变量(因素)构成的,行为变量是行为分析建模的基础。一般地,行为是指人类与其他动物的动作、行动方式,以及对环境与其他生物体或物体的反应[15]。从这一定义可看出,一个行为主要包含4个基本要素,即行为主体(人)、行为过程(方式)、行为环境(环境、其他生物体/物体),以及行为结果(反应)等。基于此,可将一个行为过程定义为4个变量组成:行为主体变量、行为过程变量、行为环境变量,以及行为结果变量。就刑讯逼供行为而言,如果将审讯室的物体(如椅子、警棍等可能进行暴力实施的物品)归结为环境类,则刑讯逼供的4个变量为:(1)主体变量,司法人员;(2)过程变量,实施刑讯逼供的方式,如殴打、用物体砸等暴力行为;(3)环境变量,审讯室场景和室内物品,如椅子、灯光等;(4)结果变量,嫌疑人的姿势变化及伤害程度。
2.1.2 刑讯逼供行为类型
根据行为分析变量,刑讯逼供的行为主体为司法人员,其行为分析就集中在人与人、人与物的交互上。按照方式、过程、结果,以及刑讯逼供的司法定义,刑讯逼供行为可分为3类:肉刑,如殴打、捆绑、吊起、强暴、用物体砸/抽;变相肉刑,如罚站、罚趴、罚饿、强光照射等;精神折磨,如威胁、恐吓、辱骂、车轮战等[16]。考虑到行为结果的严重程度和实施方式的剧烈程度,本文根据暴力程度对刑讯逼供行为进行了如下分类(图1):
重暴力:殴打与其他。其中,殴打包括徒手殴打、手持物体殴打、用物体砸/抽、用警棍电击等,其他包括捆绑、性骚扰/强暴等。
轻暴力:光照改变、嫌犯位置形态变化与其他类别。光照改变包括罚晒、强光照射等;嫌犯位置形态变化包括吊起、俯卧撑、罚站/跑/趴/蹲等;其他包括罚饿/冻/渴等。
软暴力:指精神折磨,包括不让睡觉、车轮战、威胁、辱骂等。
进一步地,又可将重暴力行为分为接触性重暴力和非接触性重暴力2类,轻暴力中嫌疑人位置形态变化分为下蹲型轻暴力和吊起型轻暴力两类。目前,暴力行为是公安机关、司法监督部门防范和检测的重点,是及时防止出现死伤的刑讯逼供、袭警等事件的关键。因此,重暴力、轻暴力等刑讯逼供方式是本文研究的重点。
Fig.1 Behavior types of extorting confessions by torture

图1 刑讯逼供行为类型

2.2 刑讯逼供行为变量的视频特征与建模

2.2.1 行为变量视频特征
视频是时间轴上二维图像的集合,不但反映了目标对象的二维几何特征,也记录了目标对象运动特性。针对刑讯逼供,其行为变量在视频特征表现为:
(1)主体变量和结果变量。视频图像上目标(主体-审讯人员,受体-犯罪嫌疑人)投影轮廓发生变化,如审讯人员由于实施刑讯、嫌疑人受到外部干扰等而引起的姿态变化,包括轮廓形状、几何特征等;
(2)过程变量。主体变量和结果变量的行为描述。对于重暴力如打、砸、抽等行为,具有速度快、动作激烈等特点,其视频特征为像元运动的瞬时速度快,区域运动总动能大,像元运动方向紊乱;而轻暴力事件如吊起、卧倒等,则表现为目标轮廓区域中心位置的改变;
(3)环境变量。行为发生时周边环境的变化,如强光照射,其视频特征可表现为视频图像灰度、颜色等发生剧烈变化。
2.2.2 行为变量检测模型
(1)主体/结果变量检测模型
目标轮廓(目标在视频图像上的多边形)是三维目标姿态通过透视投影生成的二维剪影,刻画了目标的瞬时姿态特征。对此变量进行检测的主要步骤为:①目标轮廓提取,可采用背景减除法;②轮廓去噪处理,形成完整的目标轮廓;③轮廓特征计算与描述。其中,背景减除法、轮廓去噪处理参见文献[17-18]。
轻暴力事件中的嫌犯位置形态变化表现为图像上轮廓区域中心的变化。经过去噪处理的轮廓区域是一连通二值区域[19],其中心坐标(xc,yc)为:
x c = 1 N S x y c = 1 N S y (1)
式(1)中,S为目标轮廓区域;NS为轮廓中的像元个数。如果没有异常行为发生,则目标轮廓中心坐标稳定变化;若有异常发生,则轮廓中心坐标发生突变。在刑讯逼供中,这类异常表现为轻暴力,如吊起、蹲下、趴下、双手举起等。
(2)过程变量检测模型
图像光流包含了像元点的瞬时运动矢量信息,用以描述目标的运动趋势。运动动能是区域光流的一种描述方式,可表述运动目标的强度,动能越大表示运动越激烈,越小表示运动越平和。对于像元I(x, y),其光流和动能为:
V 2 ( x , y ) = V x 2 ( x , y ) + V y 2 ( x , y ) E = 0.5 M V 2 ( x , y ) (2)
式(2)中,V为像元光流,VxVyxy方向的光流分量,其求解可参考文献[20-21]。M为像元质量,一般为1。对于轮廓区域,设其所包含像元个数为m,则该区域的动能总和为:
E = 0.5 ( w ( x , y ) V 2 ( x , y ) ) (3)
式(3)中,w (x, y)为像元权重。式(3)只考虑了运动目标的强度,其方向因素并未考虑。依异常行为的视频特征,即异常行为发生,目标像元越混乱,故像元的运动方向可作为权重。
k-1帧图像中像元I(x, y)的速度方向值为Dk-1(x, y),k帧图像对应位置处的速度方向值为Dk (x, y),则权值w (x, y)为:
w ( x , y ) = D k ( x , y ) - D k - 1 ( x , y ) / π (4)
像元I(x, y)处的速度方向值为:
D ( x , y ) = t g - 1 ( V x ( x , y ) / V y ( x , y ) ) (5)
如果没有异常行为发生,则主体变量、结果变量的运动能量稳定;如果有异常如殴打、抽、砸等行为发生,则主体变量、结果变量的目标区域运动能量发生突变。因此,可通过目标区域运动能量的变化来检测是否有异常发生。
(3)环境变量检测模型
背景光照改变,直接导致视频图像上的颜色、亮度发生改变,这时可通过原有背景和改变后背景的灰度直方图比较来检测,主要用于轻暴力事件中的强光、罚晒等行为识别。

3 场景引导的行为检测策略

针对审讯室刑讯逼供行为,本文设计了一种分级分类的异常行为检测策略,分级是指在场景中设置不同级别的报警区域,分类则为运动目标进入最高警戒区域时启动的行为类型检测程序。

3.1 分级检测策略

分级检测是对审讯室场景进行区域划分,并按照不同区域设置不同报警级别。如图2所示,黄色警戒线将审讯室场景分为审讯人员和嫌疑人区域,此黄色警戒线为警告线,如果检测到嫌疑人以外的运动目标越过该线,说明有目标向犯罪嫌疑人靠近,有刑讯逼供嫌疑,这时响应警告信息。其次在嫌疑犯周围构建警戒包围区(红色区域)为报警区,若检测到有目标入侵该区域,立即启动分类检测识别功能,并根据检测结果进行报警。
Fig.2 Alert area options in interrogation room

图2 审讯室场景警戒区域设置

警戒线的设置,既可在视频图像上直接设置,也可以通过场景2D/3D模型交互设置,前者简单但位置与方位感欠缺,后者通过2D/3D场景模型设置,不但位置清晰、方位感强,同时也可进行目标的几何特征量测。本文采用后者,其问题是3D空间到2D视频空间的映射,其本质是映射关系的求解。考虑到审讯室场景的几何特征,本文通过灭点计算[22]实现了空间映射关系的解算,该方法可有效避免相机内外参数的求解。具体方法如下:
任选审讯室的一个墙角为坐标原点O,相互垂直的3个墙角线为坐标轴XYZ,基准平面XOY为地面,构建物方坐标系O-XYZ,图像坐标系为常规o-xy平面坐标系。则空间点P的齐次坐标为(X,Y,Z,1)与视频图像上对应点p(x,y,1)关系为:λp=MP=K(R,T)P,其中,λ为比例系数,M为3×4投影矩阵,K为相机内参矩阵,R为旋转矩阵,T为平移矩阵。
XYZ 3个坐标轴在视频图像上的灭点坐标为,vX=(xX,yX,1)T,vY=(xY,yY,1)T,vZ=(xZ,yZ,1)T,其对应的O-XYZ坐标系下的坐标,即3个坐标轴与无穷远平面的交点为单位阵:VX=(1,0,0,0)T,VY=(0,1,0,0)T,VZ=(0,0,1,0)T,则令λp=MP=(MX,MY,MZ,MO)P,有:
λ X v X = M X λ Y v Y = M Y λ Z v Z = M Z λ O v O = M O (6)
其中,MXMYMZMO为投影矩阵M的列向量,λX、λY、λZ、λO为不同方向比例系数。由摄影几何可知,式(6)中前3式满足(MX,MY,MZ)=KR,改写为:
λ X 0 0 0 λ Y 0 0 0 λ Z x X x Y x Z y X y Y y Z 1 1 1 = ( M X , M Y , M Z ) = KR (7)
由于 ( KR ) ( KR ) T = KR R T K T = K K T ,并顾及K= f x 0 x o 0 f y y o 0 0 1 , f x f y x o y o 分别为焦距和主点坐标,一般的 f x = f y = f ,则式(7)可变为:
x X x Y x Z y X y Y y Z 1 1 1 λ X 2 0 0 0 λ Y 2 0 0 0 λ Z 2 x X y X 1 x Y y Y 1 x Z y Z 1 = f 0 x o 0 f y o 0 0 1 f 0 0 0 f 0 x o y o 1 (8)
通过(8)式可求解6个未知数即 λ X λ Y λ Z f x o y o
结合所求3个方向的灭点和式(8)所求参数,由式(6)可计算投影矩阵的前3列。式(6)中的第4式为O-XYZ坐标系坐标原点O在视频影像上的投影,λO为比例系数,可通过交互方式在视频图像上确定O的坐标(xO,yO),λO可通过指定实际一段距离并通过该距离和影像对应距离之比计算得到。至此投影矩阵M即可求出。
投影矩阵的确定,一方面使得分级检测区域可灵活设置,如在2D平面图设置检测线、检测区域,可通过投影矩阵将其投影至影像,如果在影像上设置,则可将其投影至2D平面以分析设置是否合理;另一方面可以对室内任何目标(如嫌犯身高、重心、步长等)进行几何量测,辅助审讯过程。图3为从2D平面场景到影像的映射结果。
Fig.3 Mapping results from geographical space to image space

图3 场景到视频映射结果

3.2 分类检测策略

分类检测是以视频实现刑讯逼供的行为识别过程。基于前述分析,实现对接触性重暴力、非接触性重暴力、下蹲型轻暴力,以及吊起型轻暴力等4类异常行为的分类检测。需要说明的是,用物体砸、抽等非接触型重暴力行为可视为一类对抛物的检测,在审讯室中这些抛物可能是水杯、笔筒等重物。然而不论何种抛物,此类运动目标外形一般都较小,属于微小目标,导致目标像元面积很小、目标信噪比过低,因此,通常的运动目标检测算法失效。运动历史图像能够利用抛物目标的运动特性,提取抛物目标的运动信息,通过对目标的运动轨迹的记录,可用于微小运动目标的检测[23]。因此,本文采用运动历史图像特征对审讯室抛物进行检测,进而实现对用物体砸/抽等非接触型重暴力行为的检测和识别。

4 行为检测算法的实现与结果分析

4.1 算法流程

根据上述检测策略,审讯室刑讯逼供行为探测算法流程如图4所示。主要步骤为:
(1)2D空间与视频数据映射关系确定:基于分级检测方法,构建投影矩阵,并交互设置检测线、检测区域;
(2)运动目标检测与分类:采用方向梯度直方图特征对空间映射处理后的视频图像进行运动目标检测,然后采用背景减除法提取前景轮廓并计算其质心的空间坐标,包括审讯人员、嫌疑人等,并通过警戒线中点的相对位置,实现审讯人员、嫌疑人分类;
(3)轻暴力行为检测:计算嫌疑人轮廓质心坐标,判断轮廓质心的位置变化,如果发现突变,则表明犯罪嫌疑人的姿态出现异常,若突变大于稳定值为吊起型轻暴力,反之为下蹲型轻暴力;
(4)重暴力行为的分级检测:先进行警戒线越界检测,然后启动行为检测功能。若越界,则响应一级警告信息;若进入红色警戒区域,则进行光流和动能计算;若动能发生突变,则报警犯罪嫌疑人遭受接触型重暴力侵害,否则为非接触型重暴力侵害。
Fig.4 Flow chart of anomaly detection in interrogation room considering spatial constraints

图4 顾及场景约束的审讯室异常行为检测算法流程图

4.2 实验结果与分析

为了测试本文算法的有效性,在模拟场景进行了测试。视频数据中包含徒手殴打、持物殴打、抛物砸人、犯罪嫌疑人被吊起、蹲下、趴下等多种异常行为,格式为avi,分辨率1440×1080,帧率为25 f/s。测试环境为Windows 7系统,处理器为Intel® Core(TM)i5-2400 CPU @3.10 GHz,编程环境为Visual Studio 2010和OpenCV 3.2函数库。
对于轻暴力检测,嫌疑人姿态的异常主要体现在人体轮廓质心位置的变化。一般地,人体坐立时的正常高度在0.75~1.0 m之间,故人体轮廓质心浮动区间为0.375~0.5 m,本实验中采用的阈值范围设置为0.3~0.5 m。对于重暴力检测,主要体现在动能的变化上。动能阈值的设定与具体环境有关,经过测试本实验中的阈值设置为5000。
图5、6分别为系统主界面和检测功能启动界面,图7为重暴力行为检测结果,图8为轻暴力行为检测结果。
Fig.5 User interface of our system

图5 系统主界面

Fig.6 Startup interface of the behavioral recognition

图6 行为识别启动界面

Fig.7 Recognition results of serious violence

图7 重暴力行为识别结果

Fig.8 Recognition results of mild violence

图8 轻暴力行为识别结果

5 结语

本文提出的顾及空间场景的刑讯逼供行为检测方法,从行为变量的角度,解析了行为变量视频特征及检测模型,构成行为分析建模的理论基础;通过灭点计算构建了空间场景和视频图像的双向映射模型,形成行为状态检测的技术基础;顾及审讯室场景信息,设计了分级分类的刑讯逼供行为检测策略。通过实验可得到如下结论:
(1)刑讯逼供行为主要由主体变量、过程变量、结果变量和环境变量构成,不同变量具有不同的视频特征和检测模型;
(2)行为状态的检测需要考虑空间场景约束,一方面,不同场景具有不同的行为表征,另一方面,场景信息也可为行为识别提供几何度量等辅助信息;
(3)空间场景与视频图像的映射问题是实现3D/2D空间交互及目标几何度量的基础,通过灭点计算恢复映射关系的方法可有效避免相机内外参数的求解;
(4)本文提出的分级分类的检测策略,不仅可以实现同一算法对多种异常行为的识别,并且无需学习和训练,算法方便易实现。
本文主要尝试将GIS与视频分析相结合,所述的分析方法主要针对2D场景,而视频与3D场景相结合的分析方法是本文后续主要研究内容。

The authors have declared that no competing interests exist.

[1]
Li K J.Indoor space: A new notion of space[C]. Proc. 8th International Symposium on Web and Wireless Geographical Information Systems (W2GIS), 2008,5373:1-3.

[2]
Worboys M.Modeling indoor space[C]. Proc. Third ACM SIGSPATIAL International Workshop on Indoor Spatial Awareness (ISA), 2011,1-6.

[3]
Lee J, Kwan M P.A combinatorial data model for representing topological relations among 3D geographical features in micro-spatial environments[J]. International Journal of Geographical Information Science, 2005,19(10):1039-1056.

[4]
Song Y, Gong J, Li Y, et al. Crowd evacuation simulation for bioterrorism in micro-spatial environments based on virtual geographic environments[J]. Safety Science, 2013(53):105-113.

[5]
Li X, Zhang X, Lu T.Assisting video surveillance in micro-spatial environments with a GIS approach[J]. Geospatial Information Technology and Applications. Proceedings of the SPIE, 2007(6754):675-402.

[6]
Masoud O, Papanikolopoulos N.A method for human action recognition[J]. Image and Vision Computing, 2003,21(8):729-743.

[7]
Ma G, Lin X.Typical sequences extraction and recognition[J]. Lecture Notes in Computer Vision, 2004,3058: 60-71.

[8]
杜鉴豪,许力.基于区域光流特征的异常行为检测[J].浙江大学学报:工学版,2011,45(7):1161-1166.

[9]
Weinland D, Ronfard R, Boyer E.Free viewpoint action recognition using motion history volumes. Computer Vision and Image Understanding, 2006,104(2):249-257.

[10]
Yilmaz A, Shah M.Actions sketch: a novel action representation[C]. Proc. Computer Society Conference on Computer Vision and Pattern Recognition(CVPR), 2005,984-989.

[11]
胡芝兰,江帆,王贵锦,等.基于运动方向的异常行为检测[J].自动化学报,2008,34(11):1348-1357.

[12]
Lu C, Ferrier N J.Repetitive motion analysis: Segmentation and event classification[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2004,26(2):258-263.

[13]
Yilmaz A, Shah S.Recognizing human actions in videos acquired by uncalibrated moving cameras[C]. Proc. 10th IEEE International Conference on Computer Vision, 2005:150-157.

[14]
李豪杰,林守勋,张勇东.基于视频的人体运动捕捉综述[J].计算机辅助设计与图形学学报,2006,18(11):1645-1651.

[15]
李道增. 环境行为学概论[M].北京:清华大学出版社,1999,12-20.

[16]
蔡世鄂,谭明.论新刑诉法对刑讯逼供的遏制[J].湖北民族学院学报(哲学社会科学版),2013,31(1):101-106.

[17]
赵海勇,刘志镜,张浩.基于轮廓特征的人体行为识别[J].光电子·激光,2010,21(10):1547-1551.

[18]
朱齐丹,李科,张智,等.采用剪影描述的人类行为识别方法[J].华中科技大学学报:自然科学版,2010,38(5):68-71.

[19]
赵海勇,刘志镜,张浩.基于模板匹配的人体日常行为识别[J].湖南大学学报:自然科学版,2011,38(2):88-92.

[20]
靳海燕,熊庆宇,石欣,等.基于角点动能模型的电梯轿厢内异常行为检测[J].计算机应用研究,2012,29(2):775-779.

[21]
汤一平,陆海峰.基于计算机视觉的电梯内防暴力智能视频监控[J].浙江工业大学学报,2009,37(6):591-597.

[22]
Kalantari M, Jung F, Guedon J.Precise, automatic and fast method for vanishing point detection[J]. The Photogrammetric Record, 2009,24(127):246-263.

[23]
何亮明,胡茂林,刘海涛.周界视频监控中抛物检测算法[J].天津大学学报,2011,44(3):242-247.

文章导航

/