project
SoulX-FlashTalk - Soul App开源的实时数字人生成模型
SoulX-FlashTalk 是 Soul App 旗下 AI 团队开源的首个 14B 参数实时数字人生成模型,实现了 0.87 秒亚秒级延迟和 32fps 高帧率。
SoulX-FlashTalk是什么
SoulX-FlashTalk 是 Soul App 旗下 AI 团队开源的首个 14B 参数实时数字人生成模型,实现了 0.87 秒亚秒级延迟和 32fps 高帧率。模型采用双向流式蒸馏与多步自纠正机制,实现无限时长稳定生成、全身动作交互及多语言驱动,适用 7×24 小时直播、虚拟客服、游戏 NPC 等场景,模型现已已跻身 HuggingFace I2V 趋势榜 TOP5,为商业级实时数字人应用提供开源解决方案。
SoulX-FlashTalk的主要功能
-
实时音视频生成:基于14B大模型实现0.87秒亚秒级延迟和32fps高帧率输出,满足直播级实时交互需求。
-
音频驱动数字人:支持接收语音或音频输入,精准驱动虚拟形象的口型、面部表情与肢体动作同步变化。
-
全身动作合成:支持全身肢体动态生成及高精细手部动作表现。
-
超长稳定生成:通过自纠正机制确保长时间生成过程中身份一致、画面稳定、画质无损。
-
多语言支持:模型采用中文优化的语音编码器和中英双语字幕编码器,支持跨语言数字人驱动。
-
无限流式生成:支持7×24小时连续不间断直播,系统运行稳定不崩溃、不卡顿。
-
多风格形象:兼容卡通与真人等多种视觉风格,满足不同应用场景的形象定制需求。
SoulX-FlashTalk的技术原理
- 双向流式蒸馏:通过在流式生成过程中保留块内双向注意力机制,有效维持时空相关性,同时显著简化训练流程,使模型仅需1000步监督微调和200步蒸馏即可收敛,相比传统方法实现23倍的训练效率提升,为大模型的实时化部署奠定基础。
- 延迟感知时空适配:作为第一阶段训练策略,针对低分辨率输入、短帧序列以及动态长宽比分桶进行专门优化,让14B参数的大模型首先适应快速推理的需求,在降低计算负担的同时保持生成质量,解决大模型参数量与推理速度之间的矛盾。
- 多步回顾自纠正机制:用于确保无限时长生成的稳定性,能在生成过程中实时检测、修正累积误差,防止误差随时间滚雪球式放大,保证长视频生成时身份特征一致、画面稳定流畅、视觉质量无损,实现真正意义上的”无限流式”输出。
- 3D VAE潜空间压缩:基于WAN2.1架构,对高分辨率视频进行高效的潜空间编码与解码,大幅降低实时生成的计算负担;配合14B DiT生成器的全3D注意力和多模态交叉注意力机制,以及条件编码器层对语音、图像、文本的多维度编码,构建完整的端到端实时数字人生成系统。
SoulX-FlashTalk的项目地址
- 项目官网:https://soul-ailab.github.io/soulx-flashtalk/
- GitHub仓库:https://github.com/Soul-AILab/SoulX-FlashTalk
- HuggingFace模型库:https://huggingface.co/Soul-AILab/SoulX-FlashTalk-14B
SoulX-FlashTalk的应用场景
-
7×24小时AI直播间:电商数字人主播可实现全天候不间断直播,实时读取并回复弹幕互动,大幅降低人力成本的同时保持自然流畅的直播体验。
-
AI虚拟导师与智慧客服:应用在银行柜员、在线教育等场景,提供类视频通话的面对面交互体验,支持实时语音问答与情感化反馈。
-
高质量短视频与短剧批量生产:仅需一段音频即可直接生成完整数字人视频,无需动作捕捉设备和后期制作,长视频输出质量稳定一致,大幅提升内容生产效率。
-
游戏中的实时NPC:模型支持语音驱动的非脚本式对话,实现情绪与动作的实时联动,为玩家提供更具沉浸感和动态性的交互体验。