b站直播虚拟形象怎么做 虚拟主播怎么弄


其实,做3D虚拟主播 无外乎以下几点:
一个3D模型,一个中之人,一套支持3D虚拟偶像做直播动画的技术 。
那么它们是如何结合的呢?
每一个虚拟偶像的背后都有一位表演者负责做动作,一位CV负责配音 。当然他们可以是同一个人 。
1:动作表演 表情匹配
需要表演者穿上动作捕捉设备,然后,每做一个动作,动捕后台都会记录下表演者的动作数据,表演完成,动作数据将会保存在一个文件里,我们将这些动作数据,同手动K好的表情数据,通过unity合成输出序列,此时的动作就携带有表情了 。最后,导出绿幕版的动作视频文件 。这些动作,就是我们在观看虚拟偶像节目中,虚拟主播表演的那些动作 。
2:配音
配音文件的获取,可以单独在录音棚看着动作素材配音,也可以在表演过程中,带上耳麦边做动作边将声音传输到录音设备中保存 。这个音频文件就是虚拟主播的配音 。
好啦~现在我们有绿幕的动作视频文件我,也有配音文件 。通过AE或者Pr,将以上素材剪辑加工,就是我们看到的虚拟偶像日常视频啦~
————————–
同理,虚拟偶像做直播,只用上半身,主体为面部表情,按传统的方法,表情需要手动K帧 。
不过以上,提及到技术层面,并非所有人都能一时学会这些专业的美术工具 。为了方便小白用户更好的解决这些技术问题,我们团队和其他做虚拟主播的小伙伴沟通后,研发一款方便小白用户轻松做3D虚拟主播的工具—-Live3D 通过傻瓜式操作,简单解决上述说的各种复杂技术问题 。
1:首先提到模型
(1)Live3D有自己的云端3D模型库,里面的模型均可免费使用
(2)支持自定义捏人,你可以通过捏人功能(捏脸,换装,捏身体)获得一个新的模型 。
(2)Live3D支持导入外部3D模型,目前支持FBX,PMX,VRM格式 。你可以将你的模型导入,开启虚拟主播之路 。
2:其次,提到面部表情,以往的方法,上述提到用“手动K帧”的方式,难度大,耗时长,同时和个人能力有很强的挂钩 。同样面部表情需要和动作结合,也需要通过unity 导出合成序列
针对面部表情:Live3D的解决方案–“面部捕捉”
面部捕捉实现的方式
(1)通过电脑摄像头捕捉 。
(2)通过ipho

    推荐阅读