MultiTalk 是中山大学深圳校区、美团和香港科技大学联合推出的新型音频驱动多人对话框架。框架根据多声道音频输入、参考图像和文本提示,生成包含人物互动且口型与音频一致的视频。框架推出 Label Rotary Position Embedding (L-RoPE) 方法,有效解决多声道音频与人物绑定的问题,借助部分参数训练和多任务训练策略,保留基础模型的指令跟随能力。MultiTalk 在多个数据集上表现出色,展示了强大的视频生成能力,适用生成卡通、歌唱及遵循指令的视频等多种场景。

MultiTalk – 音频驱动的多人对话视频生成框架  第1张
(图片来源网络,侵删)
MultiTalk – 音频驱动的多人对话视频生成框架  第2张
(图片来源网络,侵删)