位置: IT常识 - 正文
推荐整理分享基于SadTalker的AI主播,Stable Diffusion也可用,希望有所帮助,仅作参考,欢迎阅读内容。
文章相关热门搜索词:,内容如对您有帮助,希望把文章链接给更多的朋友!
基于之前的AI主播的的学习基础 基于Wav2Lip的AI主播 和 基于Wav2Lip+GFPGAN的高清版AI主播,这次尝试一下VideoRetalking生成效果。
总体来说,面部处理效果要好于Wav2Lip,而且速度相对于Wav2Lip+GFPGAN也提升很多,也支持自由旋转角度,但是如果不修改源码的情况下,视频的部分截取稍微有点问题。
这个训练图片还好,如果是做视频的话还是比较吃GPU资源的 16G显存是个起步配置。
文章目录准备工作环境配置创建虚拟环境激活虚拟环境pip安装匹配版本模型预测对口型必要的数据准备图片、视频预测参数说明有趣的操作Stable Diffusion 使用方法准备工作上一篇:react——路由(react中路由有哪些常用组件)
下一篇:谁能真正替代你?AI辅助编码工具深度对比(chatGPT/Copilot/Cursor/New Bing)(谁能代替你啊)
友情链接: 武汉网站建设