利用现有模型处理面部视频获取特征向量(3)

下一步在没有conda的ubuntu装miniconda3

bash 复制代码
mkdir -p ~/miniconda3
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh -O ~/miniconda3/miniconda.sh
bash ~/miniconda3/miniconda.sh -b -u -p ~/miniconda3
rm ~/miniconda3/miniconda.sh

source ~/miniconda3/bin/activate
conda init --all

装完后,下载video_features的包,并创建虚拟环境

bash 复制代码
git clone https://github.com/v-iashin/video_features.git
cd video_features

conda env create -f conda_env.yml

启动虚拟环境,运行程序,为此我还把视频复制到服务器上面了。这样跑起来更方便。先来试个水

bash 复制代码
conda activate video_features
cd video_features 
python main.py \
    feature_type=r21d \
    device="cuda:0" \
    video_paths="[/home/ubuntu/short/0.mp4,/home/ubuntu/short/1.mp4,/home/ubuntu/short/2.mp4,/home/ubuntu/short/3.mp4,/home/ubuntu/short/4.mp4,/home/ubuntu/short/5.mp4,/home/ubuntu/short/6.mp4]"

但是还是被Killed了????

bash 复制代码
feature_type: r21d
model_name: r2plus1d_18_16_kinetics
stack_size: null
step_size: null
extraction_fps: null
device: on_extraction: print
output_path: ./output/r21d/r2plus1d_18_16_kinetics
tmp_path: ./tmp/r21d/r2plus1d_18_16_kinetics
keep_tmp_files: false
show_pred: false
config: null
video_paths:
- /home/ubuntu/short/0.mp4
- /home/ubuntu/short/1.mp4
- /home/ubuntu/short/2.mp4
- /home/ubuntu/short/3.mp4
- /home/ubuntu/short/4.mp4
- /home/ubuntu/short/5.mp4
- /home/ubuntu/short/6.mp4
file_with_video_paths: null

Device: cuda:0
The number of specified videos: 7
  0%|                                                                                      | 0/7 [00:00<?, ?it/s]
Killed

显示的原因还是out of memory,说是需要一百多个G。我才发现服务器的gpu就只有48g,我之前说的一个T,是硬盘内存,不是运行内存。1T的gpu,现在估计还没有这玩意儿吧?有的话得有多贵啊!!看来我把我们组想得太有钱了,富可敌国哈哈哈哈

师弟还帮我跑了一下,还是不行,果然还是视频有问题。视频有点大了,要么缩短时长,要么降低视频分辨率,要么两者都做一下,看一看会不会好一些。好了,师弟告诉我,只要把分辨率降低就能运行了。

我再附上缩短视频的代码,免得我忘记了,老是想要找可以免费剪辑视频的在线网页,但是通常没有免费又好使的。还是代码使得顺手。

python 复制代码
from moviepy import VideoFileClip, CompositeVideoClip
import os

input_os =  "C:/Users/DDDCY/Desktop/mp4"
##视频输入绝对路径
output_os = "C:/Users/DDDCY/Desktop/short"
##处理后的视频输出绝对路径
video_names = os.listdir(input_os)
for video in video_names:
    clip =CompositeVideoClip([VideoFileClip(input_os+"/"+video).subclipped(5,35)])
## (5,35)是想要截取的视频范围,也即截取5s~35s中的30s
    clip.write_videofile(output_os+"/"+video)

下面是降低视频分辨率的代码

python 复制代码
from moviepy import VideoFileClip
import os

input_os =  "C:/Users/DDDCY/Desktop/short"
output_os = "C:/Users/DDDCY/Desktop/low"

video_names = os.listdir(input_os)
for video in video_names:
    clip = VideoFileClip(input_os+"/"+video)
    new_clip = clip.resized((360, 640))
## (360,640)是希望得到的视频分辨率
    new_clip.write_videofile(output_os+"/"+video)

等处理完了我再在服务器上跑一跑

相关推荐
闻道且行之13 分钟前
LLaMA-Factory|微调大语言模型初探索(4),64G显存微调13b模型
人工智能·语言模型·llama·qlora·fsdp
造夢先森16 分钟前
Transformer & LLaMA
深度学习·transformer·llama
喝不完一杯咖啡20 分钟前
【AI时代】可视化训练模型工具LLaMA-Factory安装与使用
人工智能·llm·sft·llama·llama-factory
huaqianzkh1 小时前
理解构件的3种分类方法
人工智能·分类·数据挖掘
后端码匠1 小时前
Spring Boot3+Vue2极速整合:10分钟搭建DeepSeek AI对话系统
人工智能·spring boot·后端
用户231434978141 小时前
使用 Trae AI 编程平台生成扫雷游戏
人工智能·设计
神经美学_茂森1 小时前
神经网络防“失忆“秘籍:弹性权重固化如何让AI学会“温故知新“
人工智能·深度学习·神经网络
大囚长1 小时前
AI工作流+专业知识库+系统API的全流程任务自动化
运维·人工智能·自动化
阿_旭1 小时前
【超详细】神经网络的可视化解释
人工智能·深度学习·神经网络
Se7en2581 小时前
提升 AI 服务的稳定性:Higress AI 网关的降级功能介绍
人工智能