导读在动态环境中捕获的视频通常会受到运动模糊的影响。它降低了视频的感知质量,甚至降低了视觉识别任务的性能。当前的视频去模糊方法要么需要...
在动态环境中捕获的视频通常会受到运动模糊的影响。它降低了视频的感知质量,甚至降低了视觉识别任务的性能。当前的视频去模糊方法要么需要大量计算,要么会降低去模糊质量。
arXiv.org最近的一篇论文提出了一种视频去模糊框架,该框架减少了计算开销,但仍然提供了利用视频帧中的时间信息所需的足够性能。研究人员依靠一个轻量级的多任务单元,以和谐的方式最大化去模糊和运动补偿任务之间的网络共享。提出了堆叠架构以允许灵活控制去模糊质量和计算成本之间的权衡。
与具有类似去模糊的相应先前方法相比,所提出的模型显示出更快的运行时间,并实现了实时视频去模糊。
虽然运动补偿极大地提高了视频去模糊的质量,但单独执行运动补偿和视频去模糊需要巨大的计算开销。本文提出了一种实时视频去模糊框架,该框架由一个轻量级的多任务单元组成,以有效的方式支持视频去模糊和运动补偿。多任务单元专门设计用于使用单个共享网络处理两个任务的大部分,并由多任务细节网络和用于去模糊和运动补偿的简单网络组成。多任务单元最大限度地降低了将运动补偿纳入视频去模糊的成本,并实现了实时去模糊。此外,通过堆叠多个多任务单元,我们的框架在成本和去模糊质量之间提供了灵活的控制。30.99dB@30fps在DVD数据集中测得)。