利用现有模型处理面部视频获取特征向量(3)

下一步在没有conda的ubuntu装miniconda3

bash 复制代码
mkdir -p ~/miniconda3
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh -O ~/miniconda3/miniconda.sh
bash ~/miniconda3/miniconda.sh -b -u -p ~/miniconda3
rm ~/miniconda3/miniconda.sh

source ~/miniconda3/bin/activate
conda init --all

装完后,下载video_features的包,并创建虚拟环境

bash 复制代码
git clone https://github.com/v-iashin/video_features.git
cd video_features

conda env create -f conda_env.yml

启动虚拟环境,运行程序,为此我还把视频复制到服务器上面了。这样跑起来更方便。先来试个水

bash 复制代码
conda activate video_features
cd video_features 
python main.py \
    feature_type=r21d \
    device="cuda:0" \
    video_paths="[/home/ubuntu/short/0.mp4,/home/ubuntu/short/1.mp4,/home/ubuntu/short/2.mp4,/home/ubuntu/short/3.mp4,/home/ubuntu/short/4.mp4,/home/ubuntu/short/5.mp4,/home/ubuntu/short/6.mp4]"

但是还是被Killed了????

bash 复制代码
feature_type: r21d
model_name: r2plus1d_18_16_kinetics
stack_size: null
step_size: null
extraction_fps: null
device: on_extraction: print
output_path: ./output/r21d/r2plus1d_18_16_kinetics
tmp_path: ./tmp/r21d/r2plus1d_18_16_kinetics
keep_tmp_files: false
show_pred: false
config: null
video_paths:
- /home/ubuntu/short/0.mp4
- /home/ubuntu/short/1.mp4
- /home/ubuntu/short/2.mp4
- /home/ubuntu/short/3.mp4
- /home/ubuntu/short/4.mp4
- /home/ubuntu/short/5.mp4
- /home/ubuntu/short/6.mp4
file_with_video_paths: null

Device: cuda:0
The number of specified videos: 7
  0%|                                                                                      | 0/7 [00:00<?, ?it/s]
Killed

显示的原因还是out of memory,说是需要一百多个G。我才发现服务器的gpu就只有48g,我之前说的一个T,是硬盘内存,不是运行内存。1T的gpu,现在估计还没有这玩意儿吧?有的话得有多贵啊!!看来我把我们组想得太有钱了,富可敌国哈哈哈哈

师弟还帮我跑了一下,还是不行,果然还是视频有问题。视频有点大了,要么缩短时长,要么降低视频分辨率,要么两者都做一下,看一看会不会好一些。好了,师弟告诉我,只要把分辨率降低就能运行了。

我再附上缩短视频的代码,免得我忘记了,老是想要找可以免费剪辑视频的在线网页,但是通常没有免费又好使的。还是代码使得顺手。

python 复制代码
from moviepy import VideoFileClip, CompositeVideoClip
import os

input_os =  "C:/Users/DDDCY/Desktop/mp4"
##视频输入绝对路径
output_os = "C:/Users/DDDCY/Desktop/short"
##处理后的视频输出绝对路径
video_names = os.listdir(input_os)
for video in video_names:
    clip =CompositeVideoClip([VideoFileClip(input_os+"/"+video).subclipped(5,35)])
## (5,35)是想要截取的视频范围,也即截取5s~35s中的30s
    clip.write_videofile(output_os+"/"+video)

下面是降低视频分辨率的代码

python 复制代码
from moviepy import VideoFileClip
import os

input_os =  "C:/Users/DDDCY/Desktop/short"
output_os = "C:/Users/DDDCY/Desktop/low"

video_names = os.listdir(input_os)
for video in video_names:
    clip = VideoFileClip(input_os+"/"+video)
    new_clip = clip.resized((360, 640))
## (360,640)是希望得到的视频分辨率
    new_clip.write_videofile(output_os+"/"+video)

等处理完了我再在服务器上跑一跑

相关推荐
hello_ejb32 分钟前
聊聊Spring AI Alibaba的SentenceSplitter
人工智能·python·spring
摸鱼仙人~2 小时前
机器学习常用评价指标
人工智能·机器学习
一点.点3 小时前
WiseAD:基于视觉-语言模型的知识增强型端到端自动驾驶——论文阅读
人工智能·语言模型·自动驾驶
fanstuck4 小时前
从知识图谱到精准决策:基于MCP的招投标货物比对溯源系统实践
人工智能·知识图谱
dqsh064 小时前
树莓派5+Ubuntu24.04 LTS串口通信 保姆级教程
人工智能·python·物联网·ubuntu·机器人
打小就很皮...4 小时前
编写大模型Prompt提示词方法
人工智能·语言模型·prompt
Aliano2175 小时前
Prompt(提示词)工程师,“跟AI聊天”
人工智能·prompt
weixin_445238125 小时前
第R8周:RNN实现阿尔兹海默病诊断(pytorch)
人工智能·pytorch·rnn
KingDol_MIni5 小时前
ResNet残差神经网络的模型结构定义(pytorch实现)
人工智能·pytorch·神经网络
新加坡内哥谈技术6 小时前
亚马逊推出新型仓储机器人 Vulcan:具备“触觉”但不会取代人类工人
人工智能