浅谈人工智能之基于容器云进行图生视频大模型搭建
我们继续讲解图生视频大模型搭建。
引言
随着深度学习技术的不断发展,图生视频(image-to-video)大模型成为了计算机视觉和自然语言处理领域的一个研究热点。图生视频模型可以根据输入的文本描述生成高质量的视频,广泛应用于艺术创作、广告设计、虚拟现实等领域。本文将介绍如何搭建一个基于iic/Image-to-Video的文生视频大模型。
模型效果展示
我们首先看一下我们对搭建好的模型的效果进行展示,我们输入的图片如下:
## 环境搭建
基于上一篇文生图的模型搭建,我们进行文生视频的搭建。
第一步:依赖安装
bash
pip install modelscope==1.8.4
pip install xformers==0.0.20
pip install torch==2.0.1
pip install open_clip_torch>=2.0.2
pip install opencv-python-headless
pip install opencv-python
pip install einops>=0.4
pip install rotary-embedding-torch
pip install fairscale
pip install scipy
pip install imageio
pip install pytorch-lightning
pip install torchsde
第二步:模型下载调用
python
from modelscope.pipelines import pipeline
from modelscope.outputs import OutputKeys
pipe = pipeline(task="image-to-video", model='damo/Image-to-Video', model_revision='v1.1.0', device='cuda:0')
# IMG_PATH: your image path (url or local file)
output_video_path = pipe("/root/image.jpg", output_video='./output.mp4')[OutputKeys.OUTPUT_VIDEO]
print(output_video_path)
第三步:大概率情况下会提示没有安装ffmpeg提示
bash
2024-11-26 17:10:12,990 - modelscope - ERROR - Save Video Error with /bin/sh: 1: ffmpeg: not found
2024-11-26 17:10:12,996 - modelscope - WARNING - task image-to-video output keys are missing
第四步:安装ffmpeg
bash
sudo apt update
sudo apt install ffmpeg
第五步:再次跑py脚本,我就可以获得对应的输出视频了,如果上述跑脚本的时候提示缺少对应依赖,根据提示信息再对对应依赖进行安装部署。