打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
Python+AI让静态图片动起来 || 开源
userphoto

2022.06.07 江苏

关注

原创 渡码 渡码 2022-06-07 09:00 发表于北京

收录于合集

#Python10
#人工智能3
#计算机视觉6
#开源项目3

哈喽,大家好。

大家在刷短视频的时候有没有刷到这样的视频,视频里一张静态的人物图片能动起来,如:歪歪头、眨眨眼。

类似于下面这种效果

最左侧的人物是原始的动作,上面是静态图片。通过AI技术便可以让最左侧人物的动作运用到上面的静态图片上,从而让张图都可以做出相同的动作。

这种技术一般是基于的GAN(生成对抗网络)来实现,今天我给大家分享一个开源项目,能够复现上面的效果,可以做些有趣的项目,也可以怀念故人。

1. 运行项目

项目地址:https://github.com/AliaksandrSiarohin/first-order-model

首先,git clone将项目下载到本地,进入项目安装依赖

git clone https://github.com/AliaksandrSiarohin/first-order-model.git
cd first-order-model
pip install -r requirements.txt

然后,在项目首页Pre-trained checkpoint标题下,找到模型下载链接,下载模型文件,模型有很多,我用的是vox-adv-cpk.pth.tar

准备好模型文件后,在项目根目录下执行下面命令即可

python demo.py  \
  --config config/vox-adv-256.yaml \
  --driving_video src_video.mp4 \
  --source_image src_img.jpg \
  --checkpoint weights/vox-adv-cpk.pth.tar

解释下参数:

  • --config:模型配置文件,在源文件中有
  • --driving_video:提供动作的视频
  • --source_image:需要加动效的静态图片
  • --checkpoint:刚刚下载的模型文件

运行完成后,会看到如下输入

该项目使用PyTorch搭建神经网络,支持GPUCPU运行,所以如果你的电脑只有CPU,运行会比较慢。

我是在CPU下运行的,从上图可以看到,driving_video只有 31 帧。如果你也是CPU运行,最好控制driving_video视频的时长,不然运行时长会比较长。

有了该项目,可以自己做些比较有意思的尝试

2. Python API

上面教大家按照官网在命令行运行该项目。

有些朋友可能想在Python项目中调用,所以我在demo.py中抽取了核心代码,封装了一个Pyhton API

有需要的朋友可以下载这个文件,放到与first-order-model同一级的目录下,按照下面代码调用即可

fom = FOM()
# 查看驱动视频,驱动视频最好裁剪为480 x 640 大小的视频
driving_video = ''
# 被驱动的画面
source_image = ''
# 输出视频
result_video = ''
# 驱动画面
fom.img_to_video(driving_video, source_image, result_video)

源代码和模型文件已经整理好了,在公众号回复 图片动起来 即可获取。

最后,感谢你的关注,我将持续分享优秀的 AI 项目。如果本文对你有用就点个 在看 鼓励一下吧。

确定

  • 不看此公众号

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
针对Python开发人员的10个“疯狂”的项目构想
手把手教学!AI真人图片和视频生成~
进化神速~用AI生成真人图片和视频!
Python视频深度学习:计算任意影片中所有演员出镜时间(代码)
【杂谈】什么是我心目中深度学习算法工程师的标准
视频教程【第5期】10行Python,搭建一个游戏人工智能
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服