JoyVASA

3个月前发布 1 00

JoyVASA是一种基于扩散模型的音频驱动人像动画技术,它通过分离动态面部表情和静态3D面部表示来生成面部动态和头部运动。这项技术不仅能够提高视频质量和唇形同步的准确性,还能扩展到动物面部动画,支持多语言,并在训练和推理效率上有所提升。JoyVASA的主要优点包括更长视频生成能力、独立于角色身份的运动序列生成以及高质量的动画渲染。

收录时间:
2025-05-30

JoyVASA是一种基于扩散模型音频驱动人像动画技术,它通过分离动态面部表情和静态3D面部表示来生成面部动态头部运动。这项技术不仅能够提高视频质量和唇形同步的准确性,还能扩展到动物面部动画,支持多语言,并在训练和推理效率上有所提升。JoyVASA的主要优点包括更长视频生成能力、独立于角色身份的运动序列生成以及高质量的动画渲染。

数据统计

相关导航

MEMO

MEMO

MEMO是一个先进的开放权重模型,用于音频驱动的说话视频生成。该模型通过记忆引导的时间模块和情感感知的音频模块,增强了长期身份一致性和运动平滑性,同时通过检测音频中的情感来细化面部表情,生成身份一致且富有表情的说话视频。MEMO的主要优点包括更真实的视频生成、更好的音频-唇形同步、身份一致性和表情情感对齐。该技术背景信息显示,MEMO在多种图像和音频类型中生成更真实的说话视频,超越了现有的最先进方法。
EchoMimicV2

EchoMimicV2

EchoMimicV2是由支付宝蚂蚁集团终端技术部研发的半身人体动画技术,它通过参考图像、音频剪辑和一系列手势来生成高质量的动画视频,确保音频内容与半身动作的连贯性。这项技术简化了以往复杂的动画制作流程,通过Audio-Pose动态协调策略,包括姿态采样和音频扩散,增强了半身细节、面部和手势的表现力,同时减少了条件冗余。此外,它还利用头部部分注意力机制将头像数据无缝整合到训练框架中,这一机制在推理过程中可以省略,为动画制作提供了便利。EchoMimicV2还设计了特定阶段的去噪损失,以指导动画在特定阶段的运动、细节和低级质量。该技术在定量和定性评估中均超越了现有方法,展现了其在半身人体动画领域的领先地位。
CyberHost

CyberHost

CyberHost是一个端到端音频驱动的人体动画框架,通过区域码本注意力机制,实现了手部完整性、身份一致性和自然运动的生成。该模型利用双U-Net架构作为基础结构,并通过运动帧策略进行时间延续,为音频驱动的人体动画建立了基线。CyberHost通过一系列以人为先导的训练策略,包括身体运动图、手部清晰度评分、姿势对齐的参考特征和局部增强监督,提高了合成结果的质量。CyberHost是首个能够在人体范围内实现零样本视频生成的音频驱动人体扩散模型。
SenseVoiceSmall

SenseVoiceSmall

SenseVoiceSmall是一款具备多种语音理解能力的语音基础模型,包括自动语音识别(ASR)、口语语言识别(LID)、语音情感识别(SER)和音频事件检测(AED)。该模型经过超过40万小时的数据训练,支持超过50种语言,识别性能超越Whisper模型。其小型模型SenseVoice-Small采用非自回归端到端框架,推理延迟极低,处理10秒音频仅需70毫秒,比Whisper-Large快15倍。此外,SenseVoice还提供便捷的微调脚本和策略,支持多并发请求的服务部署管道,客户端语言包括Python、C++、HTML、Java和C#等。

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...