0


基于SadTalker的AI主播,Stable Diffusion也可用

基于之前的AI主播的的学习基础 基于Wav2Lip的AI主播 和 基于Wav2Lip+GFPGAN的高清版AI主播,这次尝试一下VideoRetalking生成效果。

总体来说,面部处理效果要好于Wav2Lip,而且速度相对于Wav2Lip+GFPGAN也提升很多,也支持自由旋转角度,但是如果不修改源码的情况下,视频的部分截取稍微有点问题。

这个训练图片还好,如果是做视频的话还是比较吃GPU资源的 16G显存是个起步配置。

文章目录


本文转载自: https://blog.csdn.net/qq_20288327/article/details/129668067
版权归原作者 Mr数据杨 所有, 如有侵权,请联系我们删除。

“基于SadTalker的AI主播,Stable Diffusion也可用”的评论:

还没有评论