[color=rgba(0, 0, 0, 0.9)]MOTM-X人类动作模拟器 MOTM-X能根据你给的文本或者视频,让数字人精确地模拟出人类的肢体动作。不管是在虚拟社交场合,还是制作视频内容,MOTM-X都能让数字人显得超级逼真,好像他们真的在跟你互动一样!①文本驱动
注意看,下方美女数字人根据动作提示词的变化,实时模拟渲染出适应的肢体动作,实现了实时适应性和可预测可控性。
[backcolor=var(--weui-BG-1)][color=rgba(0, 0, 0, 0.5)]以下视频来源于
[color=var(--weui-FG-0)]硅基智能
,时长01:00
[color=rgba(255, 255, 255, 0.8)]
[color=rgba(0, 0, 0, 0.9)]MOTM-X文本驱动数字人动作效果 ②样本视频驱动下方左侧为样本视频,右侧数字人实时模拟跟随样本肢体动作。
[backcolor=var(--weui-BG-1)][color=rgba(0, 0, 0, 0.5)]以下视频来源于
[color=var(--weui-FG-0)]硅基智能
,时长00:13
[color=rgba(255, 255, 255, 0.8)]
MOTM-X视频驱动数字人动作效果总结来说,MOTM-X数字人动作模型,能实现下面几个优点[color=rgba(0, 0, 0, 0.9)]除了技术效果的提升外,MOTM-X和EMOTE-X数字人模型采用最新深度优化算法,对算力要求极低,甚至不需要云端GPU,用本地手机或电脑算力,也能够运行。 数字人开源
目前,硅基智能的数字人开源模型及代码,已在GitHub上线,这是目前全球首个2D真人级别,且支持实时渲染的数字人模型代码。目前已经获得3500+Stars,必须得点个赞。[color=rgba(0, 0, 0, 0.9)]开源地址: [color=rgba(0, 0, 0, 0.9)]https://github.com/GuijiAI/duix.ai 能出个一键整合包吗?
|