狂飙一个虚拟人,AI作画+表情迁移+唇形合成

哈喽,大家好。

ChatGPT 爆火之后,最近大家又开始关注AI作画了,AI作画的出现比ChatGPT早,只不过没有形成全行业性的关注。

AI作画 现在用的比较多的是扩散模型​,二次元作画网站Novel AI​的模型泄漏,被爆出用的就是Stable Diffusion(稳定扩散模型)

狂飙一个虚拟人,AI作画+表情迁移+唇形合成

今天,教大家在本地搭建一个web版AI作画工具,可以生成自己的二次元图片,然后用 FOM​ 模型进行表情迁移,让人脸动起来,在用wav2lip让嘴唇随着声音动起来。

权重文件和测试数据已经打包好了,评论区获取。

首先,下载stable-diffusion-webui源码

https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

提示一下,安装步骤没必要按照官方的,官方的方式太死板了,反而制造更多麻烦。

安装 pytorch

狂飙一个虚拟人,AI作画+表情迁移+唇形合成

选择对应 cuda​ 版本和 pytorch 版本安装即可。

安装stable-diffusion-webui依赖包

cd stable-diffusion-webui

pip install -e requirements.txt

安装结束后,执行python launch.py命令,运行后,发现还要安装一些包,如:

狂飙一个虚拟人,AI作画+表情迁移+唇形合成

发现Installing open clip​一行,说明还需要安装open clip​,这个是从github​下载源码安装,但github经常访问不了,所以这里经常以失败告终。

不过,观察上面的信息,可以找他安装命令

"/ur/bin/python" -m pip install git+https://github.com/mlfoundations/open_clip.git@bb6e834e9c70d9c27d0dc3ecedeebeaeblffad6b --prefer-bina
ry

我们可以将github.com改为国内的镜像,手动安装这个包

python -m pip install git+https://kgithub.com/mlfoundations/open_clip.gitebb6e834e9c70d9c27de
dc3ecedeebeaeb1ffad6b
--prefer-binarv

狂飙一个虚拟人,AI作画+表情迁移+唇形合成

把github.com​改为kgithub.com,可以看到安装速度很快。

重复执行python launch.py命令,用同样的方式把依赖包都安装上即可。

最后,看到如下输出,说明stable-diffusion-webui成功启动了

狂飙一个虚拟人,AI作画+表情迁移+唇形合成

可以看到,这里自动下载的stable diffusion​模型是v1-5-pruned-emaonly。

我提供了novel ai​模型,效果更好,大家可以下载。覆盖models下Stable-diffusion目录即可。

狂飙一个虚拟人,AI作画+表情迁移+唇形合成

打开webui​,填入正面tag和反面tag就可以自动生成图片了。

分享一个地址 https://docs.qq.com/doc/DWHl3am5Zb05QbGVs

这里有大量tag可以直接使用

狂飙一个虚拟人,AI作画+表情迁移+唇形合成

也可以训练embedding​生成特定人物或风格的图片,比如:我训练两个一个高启强的embedding,生成的图片如下:

狂飙一个虚拟人,AI作画+表情迁移+唇形合成

接下来,我们就驱动图片动起来。

我是基于Paddle​实现的,首先安装Paddlehub

pip install --upgrade paddlehub

FOM 模型进行表情迁移

import paddlehub as hub

FOM_Module = hub.Module(name="first_order_motion")
FOM_Module.generate(
source_image="input_data/qiqiang2.png", # 输入图像
driving_video="input_data/ting.mp4", # 输入驱动视频
ratio=0.4,
image_size=256,
output_dir='./output/', # 输出文件夹
filename='qisheng_out2.mp4', # 输出文件名
use_gpu=True)

Wav2lip嘴唇动起来

W2F_Module = hub.Module(name="wav2lip")

W2F_Module.wav2lip_transfer(
face='output/qisheng_out2.mp4',
audio='wavs/ting.wav',
output_dir='./transfer_result/',
use_gpu=True)

 本文转载自微信公众号「 渡码」,可以通过以下二维码关注。转载本文请联系 渡码公众号。

狂飙一个虚拟人,AI作画+表情迁移+唇形合成

© 版权声明

相关文章