利用现有模型处理面部视频获取特征向量(3)

下一步在没有conda的ubuntu装miniconda3

bash 复制代码
mkdir -p ~/miniconda3
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh -O ~/miniconda3/miniconda.sh
bash ~/miniconda3/miniconda.sh -b -u -p ~/miniconda3
rm ~/miniconda3/miniconda.sh

source ~/miniconda3/bin/activate
conda init --all

装完后,下载video_features的包,并创建虚拟环境

bash 复制代码
git clone https://github.com/v-iashin/video_features.git
cd video_features

conda env create -f conda_env.yml

启动虚拟环境,运行程序,为此我还把视频复制到服务器上面了。这样跑起来更方便。先来试个水

bash 复制代码
conda activate video_features
cd video_features 
python main.py \
    feature_type=r21d \
    device="cuda:0" \
    video_paths="[/home/ubuntu/short/0.mp4,/home/ubuntu/short/1.mp4,/home/ubuntu/short/2.mp4,/home/ubuntu/short/3.mp4,/home/ubuntu/short/4.mp4,/home/ubuntu/short/5.mp4,/home/ubuntu/short/6.mp4]"

但是还是被Killed了????

bash 复制代码
feature_type: r21d
model_name: r2plus1d_18_16_kinetics
stack_size: null
step_size: null
extraction_fps: null
device: on_extraction: print
output_path: ./output/r21d/r2plus1d_18_16_kinetics
tmp_path: ./tmp/r21d/r2plus1d_18_16_kinetics
keep_tmp_files: false
show_pred: false
config: null
video_paths:
- /home/ubuntu/short/0.mp4
- /home/ubuntu/short/1.mp4
- /home/ubuntu/short/2.mp4
- /home/ubuntu/short/3.mp4
- /home/ubuntu/short/4.mp4
- /home/ubuntu/short/5.mp4
- /home/ubuntu/short/6.mp4
file_with_video_paths: null

Device: cuda:0
The number of specified videos: 7
  0%|                                                                                      | 0/7 [00:00<?, ?it/s]
Killed

显示的原因还是out of memory,说是需要一百多个G。我才发现服务器的gpu就只有48g,我之前说的一个T,是硬盘内存,不是运行内存。1T的gpu,现在估计还没有这玩意儿吧?有的话得有多贵啊!!看来我把我们组想得太有钱了,富可敌国哈哈哈哈

师弟还帮我跑了一下,还是不行,果然还是视频有问题。视频有点大了,要么缩短时长,要么降低视频分辨率,要么两者都做一下,看一看会不会好一些。好了,师弟告诉我,只要把分辨率降低就能运行了。

我再附上缩短视频的代码,免得我忘记了,老是想要找可以免费剪辑视频的在线网页,但是通常没有免费又好使的。还是代码使得顺手。

python 复制代码
from moviepy import VideoFileClip, CompositeVideoClip
import os

input_os =  "C:/Users/DDDCY/Desktop/mp4"
##视频输入绝对路径
output_os = "C:/Users/DDDCY/Desktop/short"
##处理后的视频输出绝对路径
video_names = os.listdir(input_os)
for video in video_names:
    clip =CompositeVideoClip([VideoFileClip(input_os+"/"+video).subclipped(5,35)])
## (5,35)是想要截取的视频范围,也即截取5s~35s中的30s
    clip.write_videofile(output_os+"/"+video)

下面是降低视频分辨率的代码

python 复制代码
from moviepy import VideoFileClip
import os

input_os =  "C:/Users/DDDCY/Desktop/short"
output_os = "C:/Users/DDDCY/Desktop/low"

video_names = os.listdir(input_os)
for video in video_names:
    clip = VideoFileClip(input_os+"/"+video)
    new_clip = clip.resized((360, 640))
## (360,640)是希望得到的视频分辨率
    new_clip.write_videofile(output_os+"/"+video)

等处理完了我再在服务器上跑一跑

相关推荐
袁庭新17 分钟前
全球首位AI机器人部长,背负反腐重任
人工智能·aigc
机器之心33 分钟前
谁说Scaling Law到头了?新研究:每一步的微小提升会带来指数级增长
人工智能·openai
算家计算1 小时前
AI配音革命!B站最新开源IndexTTS2本地部署教程:精准对口型,情感随心换
人工智能·开源·aigc
量子位1 小时前
马斯克周末血裁xAI 500人
人工智能·ai编程
算家计算1 小时前
OpenAI最强编程模型GPT-5-Codex发布!可独立编程7小时,编程效率提升10倍
人工智能·ai编程·资讯
聚客AI3 小时前
🌟大模型为什么产生幻觉?预训练到推理的漏洞全揭秘
人工智能·llm·掘金·日新计划
Juchecar3 小时前
一文讲清 nn.Sequential 等容器类
人工智能
阿里云云原生3 小时前
如何快速看懂「祖传项目」?Qoder 强势推出新利器
人工智能
美团技术团队4 小时前
LongCat-Flash:如何使用 SGLang 部署美团 Agentic 模型
人工智能·算法
程序员小袁5 小时前
基于C-MTEB/CMedQAv2-rerankingv的Qwen3-1.7b模型微调-demo
人工智能