开发一个自己的数字人,FACEGOOD把语音驱动表情技术开源了( 二 )


第二阶段 , 主要是通过LPC对声音数据做处理 , 将声音数据分割成与动画对应的帧数据 , 及maya动画帧数据的导出 。
第三阶段就是将处理之后的数据作为神经网络的输入 , 然后进行训练直到loss函数收敛即可 。
开发一个自己的数字人,FACEGOOD把语音驱动表情技术开源了】最后来看两段效果展示视频: