FICCV 2021 | audi

FICCV 2021 | audi
文章插图

作者 | 张晨旭
编辑 | 王晔
本文是对发表于计算机视觉领域的顶级会议 ICCV 2021的论文“FACIAL: Synthesizing Dynamic Talking Face with Implicit Attribute Learning(具有隐式属性学习的动态谈话人脸视频生成)”的解读。
FICCV 2021 | audi
文章插图

论文链接:https://arxiv.org/pdf/2108.07938.pdf
视频简介:https://m.youtube.com/watch?v=hl9ek3bUV1E
作者:张晨旭(德克萨斯大学达拉斯分校);赵一凡(北京航空航天大学);黄毅飞(华东师范大学);曾鸣(厦门大学);倪赛凤(三星美国研究院);Madhukar Budagavi(三星美国研究院);郭小虎(德克萨斯大学达拉斯分校)。

1

研究背景
音频驱动的动态人脸谈话视频生成已成为计算机视觉、计算机图形学和虚拟现实中的一项重要技术。然而这一过程中,生成逼真的人脸视频仍然非常具有挑战性,这不仅要求生成的视频包含与音频同步的唇部运动,同时个性化、自然的头部运动和眨眼等属性也是十分重要的。动态谈话人脸合成所蕴含的信息大致可以分为两个不同的层次:
1)需要与输入音频同步的属性,例如,与听觉语音信号有强相关性的唇部运动;
2)与语音信号具有较弱相关性的属性,即与语音上下文相关、与个性化谈话风格相关的其他属性(头部运动和眨眼)。
归纳总结上述两种不同类型的属性,我们称第一类属性为显式属性,第二类为隐式属性。
FICCV 2021 | audi
文章插图
图 1 三种典型的音频引导的谈话人脸合成方法。
a)图像输入作为指导,不生成隐式属性,
b)视频输入作为指导,隐式属性是从原视频中复制得到,
c)本方法内容:以视频输入为指导,同时生成隐式和显式特征。
如图1所示,大多数现有生成方法只关注于人脸的显式属性生成,即通过输入语音,合成同步的唇部运动属性。这些方法合成的人脸结果要么不具有隐式属性[1,2](图1中a所示),要么复制原始视频的隐式属性[3,4](图1中b所示)。只有少部分工作[5,6]探索过头部姿势与输入音频之间的相关性。
尽管这些工作针对生成属性进行了不同侧面的探究,但是对这些属性的具体研究,仍存在以下问题:(1)显式和隐式属性如何潜在地相互影响?(2) 如何对隐式属性进行建模?例如头部姿势和眨眼等属性不仅取决于语音信号,还取决于语音信号的上下文特征以及与个体相关的风格特征。

2

方法介绍
FICCV 2021 | audi
文章插图
图 2 音频驱动的隐式-显式属性联合学习的谈话人脸视频合成框架。
如图2所示,我们提出了一个人脸隐式属性学习(FACIAL)框架来合成动态的谈话人脸视频。
(1)我们的 FACIAL 框架使用对抗学习网络联合学习这一过程中的隐式和显式属性。我们提出以协作的方式嵌入所有属性,包括眨眼信息、头部姿势、表情、个体身份信息、纹理和光照信息,以便可以在同一框架下对它们用于生成说话人脸的潜在交互进行建模。
(2) 我们在这个框架中设计了一个特殊的 FACIAL-GAN网络来共同学习语音、上下文和个性化信息。这一网络将一系列连续帧作为分组输入并生成上下文隐空间向量,该向量与每个帧的语音信息一起由单独的基于帧的生成器进一步编码。因此,我们的 FACIAL-GAN 可以很好地捕获隐式属性(例如头部姿势等)、上下文和个性化信息。