声网 VQA:将实时互动中未知的视频画质用户主观体验变成可知

  • 来源: 搜狐   2022-06-23/15:05
  • 在实时互动场景中,视频画质是影响观众体验的关键指标,但如何实时评价视频的画质一直是个行业难题,需要将未知的视频画质用户主观体验变成可知。

    未知的部分往往是最需要攻克的,声网也一直在持续探索符合实时互动领域的视频画质评价方法,经过声网视频算法专家的持续钻研,正式推出了业内首个可运行于移动设备端的视频画质主观体验 MOS 分评估模型,利用先进的深度学习算法,实现对实时互动场景中视频画质主观体验MOS 分(平均主观意见分)的无参考评价,我们把这一评价体系叫做 声网 VQA (Video Quality Assessment)。

    声网 VQA 是一套“评价主观视频质量体验”的客观指标,在声网 VQA 推出前对于视频质量的评估业界已经有两种方法。第一种是客观的视频质量评估,这种方法主要应用在流媒体播放的场景中,并根据原始参考视频提供信息的多少来进行质量评价。第二种是主观的视频质量评估,传统的方法主要依赖人工观看视频并打分,虽然能一定程度上直观反映观众对视频质量的感受,但这种仍存在耗时费力、成本较高、主观观感存在偏差等问题。

    以上两种传统的视频质量评估方法都难以适用于实时互动的场景,为了解决以上问题,声网构建了大规模的视频画质主观评估数据库,并在此基础上训练了业内首个可直接在移动端运行的 VQA 模型,它利用深度学习算法实现对实时互动场景接收端视频画质主观体验 MOS 分的评估,解除了传统主观画质评估对人力评分的高度依赖,从而极大提高视频画质评估的效率,使实时的视频质量评估成为可能。

    简单来说就是,我们建立了一个视频画质主观评分的数据库,再通过深度学习算法建立了一个算法模型,并基于大量视频-MOS 分的信息进行训练,最终运用到实时互动的场景中,实现视频画质主观 MOS 分的精准模拟。但这其中的难点在于,1、如何收集数据集,即如何量化人对视频质量的主观评价;2、如何建立模型,使该模型能够运行在任何接收端,实时评估接收端画质。

    收集专业、严谨、可靠的视频画质数据集

    声网首先建立了一个画质主观评估数据库,并参照 ITU (国际电信联盟标准)搭建了一套打分系统收集评分员的主观打分,然后进行数据清洗,最后得到视频的主观体验 MOS 分。

    为了保证数据集的专业、严谨与可靠,声网首先在视频素材整理阶段,做到视频内容本身的来源丰富,避免评分员打分时的视觉疲劳,同时,在画质区间上尽量分布均衡,避免在有些画质区间的视频素材过多,有些画质区间的视频又过少,这样对后续打分的均值会有影响,下图为我们在某一期视频收集到的打分分布:

    其次,为了更符合实时互动场景,声网数据集的设计非常严谨,覆盖了多样化的场景视频损伤失真类型,包括:暗光多噪点、运动模糊、花屏、块效应、运动模糊(摄像头抖动)、色调、饱和度、亮点和噪声等。打分指标也设置了1-5分,以0.5分为一个画质区间,每个区间确到0.1,颗粒度更细并对应了详细的标准。

    最后,在数据清洗阶段,我们依照 ITU 标准成立≥15人的评分员组,先计算每个评分员和总体均值的相关性,剔除相关性较低的评分员后,再对剩余评分员的评价求均值,得出最后的视频主观体验MOS分。虽然不同的评分员对于“好”和“坏”的绝对区间定义,或者是对画质损伤的敏感程度都不尽相同,但是对“较好”和“较差”的判断还是趋同的。

    建立基于移动端的视频画质主观体验 MOS 分评估模型

    收集完数据,接下来需要基于数据库通过深度学习算法来建立视频主观体验 MOS 分评估模型,使该模型能够取代人工评分。由于在实时互动场景下,接收端无法获取无损的视频参考源,因此声网的方案是将客观 VQA 定义为接收端解码分辨率上的无参考评价工具,用深度学习的方法监控解码后的视频质量。

    模型设计的学术严谨性:在训练深度学习模型的过程中,我们也参考了多篇学术级的的论文(见文末的论文参考文献),例如在非端到端的训练中会对原始视频提取部分特征,我们发现视频空间上的采样对性能的影响最大,而进行时域上的采样与原视频的 MOS 相关性最高(参考论文文献1)。同时,影响画质体验的不光是空域的特征,时域上的失真也会有影响,其中有一个时域滞后效应(参考论文2)。该效应对应着两个行为:一是视频画质下降时主观体验立即降低,二是视频画质提升时观看者体验的缓慢提升。对此,声网在建模时也考虑了这种现象。

    移动端超小模型参数量减少99.1%:考虑到当前很多实时互动场景应用在移动端,声网针对性的设计了移动端更易应用的超小模型,模型相对大模型参数量减少99.1%,运算量减少99.4%。就算是低端手机接入后,也可以无压力的跑起来,进行端上视频画质的普查。同时,我们还实现了创新的深度学习模型压缩方法,在基于某个轻量化版本并且保持模型预测相关性情况下,进一步将模型参数量减少59%,运算量减少49.2%。可做为通用方法,推广应用到对其他深度学习任务的模型做简化,形成一个有效的通用简化办法。

    模型性能优于学术界公开大模型:一方面,声网 VQA 小模型的预测结果相关性与学术界公开的大模型保持相当,甚至略优于一些大模型的结果,我们选取了声网 VQA 的模型与学术界公开的IQA、BRISQUE、V-BLINDS以及VSFA等四种视频画质评估算法模型在两个大规模的公开数据集KoNViD-1k 、LIVE-VQC上进行了实验,实验结果如下图:

    另一方面,声网 VQA 的模型相比于学术界基于深度学习的大模型有着很大的运算优势,我们将声网 VQA 与VSFA 进行了模型的参数量和运算量对比,结果声网 VQA 的参数量与运算量都远远低于 VSFA 模型。而这种性能上的优势赋予了声网 VQA 在端上直接评估视频通话服务体验的可能性,在提供一定准确率保障情况下,大大提升了运算资源的节省。

    VQA 模型具备较好的泛化能力,在深度学习算法中,泛化能力指的是算法对新鲜样本的适应能力,简单来讲就是通过深度学习方法训练出来的模型,对已知的数据训练集性能表现良好,对未知的数据测试集经过训练后也能给出合理的结果。在前期,声网 VQA 模型主要针对内部的视频会议工具以及教育场景数据为优先进行打磨,但在后续对娱乐场景测试结果相关性达到84%以上。良好的泛化能力将为未来基于声网 VQA 打造行业认可的视频质量评价标准建立很好的基础。

    更适用于 RTE 实时互动场景:目前行业一些同类的 VQA 算法主要应用在非实时的流媒体播放场景,而且由于评估方法的局限性,最终的评测结果往往与用户真实的主观体验评分有一定差距,而声网的 VQA 算法模型可以适用实时互动的众多场景,并且最终评估的主观视频质量分和用户的真实感官体验吻合度高。同时,声网 VQA 模型的视频数据不需要上传到服务器,可直接在端上实时运行,不仅节省了资源,还有效为客户规避数据隐私问题。

    XLA 到 VQA 是 QoS 到 QoE 指标的进化

    在实时互动中,QoS服务质量主要反应了音视频技术服务的性能与质量,而QoE体验质量代表了用户对实时互动服务质量和性能的主观感受。声网此前推出了实时互动 XLA 体验质量标准,包含5s 登录成功率、600ms 视频卡顿率、200ms音频卡顿率、<400ms 网络延时这四项指标,每个指标的月度达标率均需超过99.5%,XLA 的四项指标主要反应了实时音视频的服务质量(QoS)。声网 VQA 可以更直观的反应用户对视频画质的主观体验质量(QoE),也代表着实时互动质量评估指标将实现从QoS到QoE的进化。

    而对于企业客户与开发者而言,声网 VQA 也可以赋能多重价值:

    1、企业选型避坑,很多企业与开发者在挑选实时音视频服务商时,会将几段音视频通话Demo的主观感受或者简单的接入测试作为选型标准,声网 VQA 的推出可以帮助企业在服务商选型时多了一种可量化的评价标准,更清晰地了解服务商的音视频质量在用户侧的主观体验评价。

    2、帮助ToB企业为客户提供视频质量评估工具,对于提供企业级视频会议、协作、培训,以及各类行业级视频系统的企业可以通过声网 VQA 有效量化视频画质,帮助企业更直观、可量化地展现自身产品服务的画质质量。

    3、助力产品体验优化,声网 VQA 将实时互动中原本未知的用户主观体验变成可知,无疑将帮助客户对产品端的体验评价、故障检测带来很大的帮助,只有更全面的了解客观的服务质量指标与主观的用户体验质量,才能进一步优化产品体验,最终提升用户端的体验。

    未来展望

    接下来,声网 VQA 还有很长的路要走,例如用于模型训练的 VQA 数据集,多由时长为 4~10s 不等的视频片段组成,而实际通话中需考虑近因效应,仅通过对视频片段线性追踪、打点上报的方式,或许无法准确拟合用户整体的主观感受,下一步我们计划综合考虑清晰度、流畅度、互动延时、音画同步等,形成时变的体验评价方法。

    同时,未来声网 VQA 也有望进行开源,我们希望与行业厂商、开发者一起推动 VQA 的持续演进,最终形成 RTE 行业认可的视频质量主观体验评价标准。

    目前声网 VQA 已在内部系统迭代打磨中,后续将逐渐开放,并计划同步在 SDK 集成在线评估功能,并发布离线测评工具。如您想进一步了解或体验声网 VQA ,可点击下方的阅读原文留下您的信息,我们将与您做进一步的沟通。

    附学术论文参考文献:

    [1] Z. Ying, M. Mandal, D. Ghadiyaram and A. Bovik, "Patch-VQ: ‘Patching Up’ the Video Quality Problem," 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Nashville, TN, USA, 2021, pp. 14014-14024.

    [2] K. Seshadrinathan and A. C. Bovik, "Temporal hysteresis model of time varying subjective video quality," 2011 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), Prague, Czech Republic, 2011, pp. 1153-1156.


    评论 {{userinfo.comments}}

    {{money}}

    {{question.question}}

    A {{question.A}}
    B {{question.B}}
    C {{question.C}}
    D {{question.D}}
    提交

    驱动号 更多