导航
当前位置:环球商报 > 财经 > 人民中科和中科院自动化所团队提出基于压缩域视频识别新方法

人民中科和中科院自动化所团队提出基于压缩域视频识别新方法

导读:本文是由网友投稿,经过编辑发布关于"人民中科和中科院自动化所团队提出基于压缩域视频识别新方法"的内容介绍。

近日,人民中科-中科院自动化所团队联合推出了面向高通量小样本条件下的基于压缩域视频识别新方法,相关成果已被人工智能国际权威学术会议IJCAI2022接受。此方法对昔日人海战术的视频标签,分类,审核是一项重要的技术突破。

随着视频技术、网络技术、5G的发展,尤其是短视频的发展,给传播模式、交流模式、沟通方式带来了根本性的变化。从几岁的小孩到老人都会刷短视频,我们的交流模式、传播模式越来越视频化。

内容无处不在,内容安全隐患就无处不在。伴随着视频的崛起、视频流量的快速增长,内容安全问题成为了视频网站头上挥之不去的阴影。用户每天都会观看、上传和分享海量的视频[5][6],随着平台用户基数不断扩大,视频内容的迸裂式暴增,审核不严带来的问题也日益凸显。

视频分类和识别在视频监控与检索、网络直播、推荐系统等行业中有着广泛的应用,是深度学习在视频分析领域中最底层的问题之一。基于先进的人工智能技术,精准识别各类视频场景中涉政、色情、暴恐、垃圾广告、Logo水印等违规内容,可以提前防御内容风险,提高审核效率,净化网络环境,提升用户体验。

然而,传统的视频识别方法面临两大挑战:一是处理效率低,对海量视频的计算成本高;二是当类别定义发生变化时需要收集大量数据重新训练,难以根据少量样本快速适应新类别。针对这些问题,人民中科与中科院自动化所国家模式识别实验室的研究团队提出了一种基于压缩域的小样本视频识别新方法。

人民中科和中科院自动化所团队提出基于压缩域视频识别新方法

图 1互联网上有海量的视频数据,且总量每天都在快速增长[5][6]

一.背景知识

研究团队要解决的第一个问题是海量互联网压缩视频的处理。为了节省空间和带宽,互联网视频几乎总是以压缩视频的形式存在。常见的压缩算法比如MPEG[3]和H.264[4]都以“运动预测”技术进行视频压缩编码。

视频的相邻几帧之间往往比较相似,如图2所示,压缩算法利用这一特点把视频划分为一系列图像群组(GOP),每个GOP内只保存第一帧(称为I帧)的RGB图像,同时记录后续的帧(称为P帧)相对于I帧的运动向量(MV)和残差。

MV描述P帧的像素块相对I帧最相似像素块的位移,残差则是这两个像素块的色彩差别。通过I帧、MV和残差就能完整恢复P帧RGB图像,这个过程称为全解码,I帧、MV和残差统称为压缩域信息。

人民中科和中科院自动化所团队提出基于压缩域视频识别新方法

图2一个图像群组(GOP)的示意图

传统视频识别方法需要完整解码I帧和P帧的RGB图像作为输入,研究团队此次提出的方法则只需要解码I帧、MV和残差作为输入,无需全解码,这个过程称为半解码。在很多应用中,视频编解码都是最耗时的部分,而在视频编解码过程中运动预测/补偿耗时占比可达60%-80%[1]。

相比全解码,半解码不需要运动补偿,因此能大大节省视频处理时间。然而半解码会得到多个模态的数据,需要在后续处理流水线中进行信息融合。

研究团队要解决的第二个问题是小样本视频分类。传统视频分类方法要求训练数据和测试数据具有相同的类别,如果类别发生改变则需要重新进行训练,而训练时需要大量数据。

在实际应用中,类别定义可能是动态的,并且每个类别能提供的示例很有限。当需求发生变化时,需要根据少量示例样本快速适应新需求,这一问题可以抽象为少样本分类问题:每类给出少量示例样本(称为支撑样本),对未知类别样本(称为查询样本)进行分类。

二.方法介绍

人民中科和中科院自动化所团队提出基于压缩域视频识别新方法

图3整体框架图

方法的总体框架如图3所示。第一部分是压缩域信息的提取。与传统方法不同,通过半解码从视频封装文件中取出I帧、MV和残差后,可以利用MV与运动的相关性,筛选最优最强运动的帧。在进一步输入网络之前,需要从I帧到被选取帧对MV和残差进行累积和对齐,获得更显著的特征,建立当前帧MV、残差与I帧像素的直接空间对应关系,得到如图4所示压缩域信息。

人民中科和中科院自动化所团队提出基于压缩域视频识别新方法

图4压缩域信息示意图

随后将提取的压缩域信息输入骨干网络进行融合、提取压缩域特征。以I帧和MV为例,分别采用分级结构的卷积网络(如ResNet-50与ResNet-18[2])提取特征,在每一级之间对I帧和MV特征进行融合交互。由于I帧和MV在同一GOP内具有最强的相关性,这样的交互仅发生在属于同一GOP的帧之间。

人民中科和中科院自动化所团队提出基于压缩域视频识别新方法

图5小样本分类模块示意图

最后,根据压缩域特征进行小样本分类。为了进行小样本分类,需要计算查询视频与支撑视频之间的距离度量,判断查询视频与哪类支撑视频最接近。首先通过视频内部自注意力对视频的特征进行长时融合。用查询视频的各帧对支撑视频的各帧计算自注意力,为每个支撑视频类别构造一个原型(prototype)作为这类支撑视频的代理,最后计算查询视频到这些原型的欧式距离,根据最近邻原则进行分类。

三.实验结果

上述方法设计了一套包含两个骨干网络以及一系列注意力机制的架构,比传统的单流RGB网络架构更复杂。但是,由于视频中表观信息存在很大的冗余性,连续数帧在外表上往往变化不大,因此可以通过输入少量I帧和较多的MV、残差,并对I帧使用大网络、对MV、残差使用小网络,实现计算量的减少。由于运动和变形信息能被中间帧的运动向量和残差捕捉,这一设置并不会带来精度的显著损失,并且在相同算力限制下可以堆叠更多的结构、取得更好的效果。

表1为多个数据集、多种支撑样本数量设置下的分类精度,可以看到研究团队提出的方法通过实验验证达到了当前最好的性能。

表1不同数据集、不同支撑样本数量设置下的分类精度

人民中科和中科院自动化所团队提出基于压缩域视频识别新方法

表2将压缩域信息与光流进行对比,将MV替换为光流后,性能出现下降,而且处理时间有数量级的增加,这一方面说明了压缩域信息的高效性,另一方面则说明针对压缩域信息特有GOP结构所提出的方法与传统双流网络结构是不同的,传统双流方法中的光流并不适应所提出的结构。

表2将MV替换为光流后的处理时间和分类精度

人民中科和中科院自动化所团队提出基于压缩域视频识别新方法

四.总结

研究团队提出了一种针对海量压缩视频的小样本分类方法,利用压缩域信息的高效性,针对压缩视频特有结构设计网络架构,取得了当前最好的小样本视频分类性能。与传统RGB信息相比,压缩域信息解码速度快,包含直接的运动预测信息,既能加快前端视频处理速度,也能降低中端网络计算量、在有限的算力下容许更多的结构,还能辅助后端分类,提高分类精度。

该成果目前也正逐步应用于人民中科跨模态搜索引擎“白泽”中,将极大地提高“白泽”对海量视频数据的识别效率,以及提升其对小样本视频的识别性能。网络信息化时代,内容安全至关重要。面对海量的非结构化内容,人海战术早已无能为力,“白泽”让我们看到了一条内容智能治理的康庄大道。

相关成果发表于:

W.  Luo, Y. Liu, B. Li*, W. Hu, Y. Miao, and Y. Li,"Long-Short Term  Cross-Transformer in Compressed Domain for Few-Shot Video  Classification," In International Joint Conference on Artificial  Intelligence, 2022.

参考文献:

1.  Li, Yufeng, Jufei Xiao, and Wei Wu."Motion Estimation Based on H. 264  Video Coding." In 2012 5th International Congress on Image and Signal  Processing, pp. 104-108. IEEE, 2012.

2.  He, Kaiming, Xiangyu Zhang, Shaoqing Ren, and Jian Sun."Deep Residual  Learning for Image Recognition." In Proceedings of the IEEE Conference  on Computer Vision and Pattern Recognition, pp. 770-778. 2016.

3.  Le Gall, Didier."MPEG: A Video Compression Standard for Multimedia  Applications." Communications of the ACM 34, no. 4 (1991): 46-58.

4.  Wiegand, Thomas, Gary J. Sullivan, Gisle Bjontegaard, and Ajay  Luthra."Overview of the H. 264/AVC Video Coding Standard." IEEE  Transactions on Circuits and Systems for Video Technology 13, no. 7  (2003): 560-576.

1.  Geyser, Werner."Tiktok Statistics – 63 Tiktok Stats You Need to Know  [2022 Update]." Influencer Marketing Hub, March 31, 2022.  

5."YouTube for Press." blog.youtube. Accessed May 25, 2022.



http://science.china.com.cn/2022-06/02/content_41990922.htm

http://www.xnnews.com.cn/zxsd25178/zxhyts/202206/t20220602_2649465.shtml

本文网址:http://hqshangbao.com/jijin/24442.html

声明:本站原创/投稿文章所有权归环球商报所有,转载务必注明来源;文章仅代表原作者观点,不代表环球商报立场;如有侵权、违规,可直接反馈本站,我们将会作删除处理。

相关阅读