随着“和谐社会”、“平安城市”建设的不断深入,全国进入了安防设施建设的高潮期,监控摄像头已遍布中国大地的每个街头,昼夜不停地监视和录像。然而,有了相关视频不等于就找到了目标信息,查找视频、分析视频的工作常常会耗用大量的时间和人力。如何在海量视频中更方便、更省力地查找到相关信息呢?现在,随着安防智能化需求越来越强烈,视频检索技术也得以快速发展。
随着视频监控系统在公安、交通等敏感领域的大规模应用,电子眼帮助破案的报道时有耳闻。一方面,这些事例从正面体现了视频监控系统的社会价值;另一方面,也引发了更多的关于视频检索的深层次需求。在实际应用的过程中,用户常常希望可以快速地从海量的数以万计的摄像头视频录像中,方便地找到一些有明显特征的人或物。传统的基于预设告警和时间的视频检索方式,对于这类深层次的需求往往无能为力,常有“隔靴搔痒”之憾,因而如何快速准确地进行智能的检索就成为大型视频监控系统需要解决的重要课题。
视频监控检索是针对视频监控平台,为用户查找视频监控信息的检索。用户通过录入相关监控事件的检索信息,由系统运算并返回检索结果。
视频监控检索关注的数据以视频为主,主要目的是定位查找某个事件的起因和关联的发展过程,事件的关键信息数据包含:时间、地点、主导事件的人或物、图像和声音信息。检索条件传递的信息越丰富,定位越精准,检索的算法也就越简单;相反,检索条件传递的信息越简单,定位就越模糊,想要精确定位时,检索算法的难度也就越大。一般来说,用户期望检索条件简单,同时也能定位精准。
常见的视频检索技术主要分为两大类:选中码流和选中时间。对于选定码流,可以是直接通过摄像机的名称、编号等进行检索,选中感兴趣的码流。因此可引伸出来一些具体的应用:如,知道地理位置,在设备资源分级里进行检索;知道设备编号,进行编号的快速查找;知道名称,对名称进行的模糊检索以确定具体码流;也可借助电子地图,知道设备的大概位置,在地图上进行查看,从而选定码流。而对于选中时间,常常是在选中码流的基础上进行的,可以是选定一路或者多路的码流,精确到以秒为单位的检索;也可以是所有的码流,关注在某一时间点开始的视频,对应的是多路同时同步回放检索。目前较为主流的切片检索、快照检索、基于时间轴的拖动快速预览检索均是属于这一类,先选中码流,再选中时间。
切片检索,指使用者知道具体感兴趣的物体、人或车在哪一位置,对应的是哪一路码流,但不确定是在什么时间发现变化,出现、消失或者其它的状态改变。切片检索可理解为二分法,将指定的码流在时间上进行等分,通过两两快照的对比,找到感兴趣的物体发生变化的那一时刻。快照检索,是基于先选定某一时刻,再选择一组码流或所有码流进行快照显示,通过快照的检索。这种应用主要解决知道某些人、车、物体等在某一时刻出现过,但在哪个位置出现,不清楚,通过快照检索,可以快速检索出来。基于时间轴的拖动检索,则是选定码流的基础,通过拖动时间轴,确定时间点的检索,优点是可以自由控制检索的速率,快速完成对选定码流的检索。
因为安防监控具有对象不可预测、系统多方联动等固有属性,因此,基于图像识别技术检索和基于事件检索便成为安防监控视频检索的左膀右臂。
基于图像识别技术检索
作为安防视频监控,事故的发生往往是不可预见的。对过往的录像视频,常常会需要针对具体的事故去按照指定的一些条件,重新设定一些规则,提取出感兴趣的视频数据。这类条件,主要分为两类,一类是基于行为的,如越线、逆行、丢失、遗留物、徘徊、区域入侵、人数统计、车速测试、烟感等功能的分析,另一类是基于识别的,如人脸识别、车牌识别等技术。以上两类都是基于图像分析,在事后对具体的视频数据设定感兴趣区域,设定规则,进行图像分析的检索技术。此类技术对图像分析的算法要求较高。
基于事件检索
安防监控系统往往不会是单一的视频监控,会结合一些第三方的系统,如门禁、报警、消防等系统,也会结合一些生产业务相关的系统,又或者是一些前端或后端的智能分析系统。这些系统结合起来形成立体式的安防系统,安全等级高。而当这些系统报警时的视频往往是用户最为关注的。对于这类的检索,可归纳为基于事件的检索。这类检索的特点是,用户事先设定好一些条件或者规则,当视频符合这些条件或规则后,会判定为一类事件,再把这个事件对应的码流和时间一一对应,保存下来。对于这种基于事件的检索,事后只需要根据事件的一些条件,即可把相关视频检索出来。此类检索的特点是可快速地把具体的符合某一类规则事件的视频检索出来,针对性强。
为了更准确地找到确定的事件,用户可以在检索的时候输入多个检索条件同时进行检索,称之为多维检索。多维检索能在用户知道多个条件的前提下,更精准地找到所需要的录像数据。多维检索看起来简单,但是实现多维检索必须有强大的检索引擎。这个是很多软件平台厂商都忽略的一个功能。
该文观点仅代表作者,本站仅提供信息存储空间服务,转载请注明出处。若需了解详细的安防行业方案,或有其它建议反馈,欢迎联系我们。