编译支持cuda硬件加速的ffmpeg

本来以为很简单,因为印象中自己在windows机器上使用过。

目前的实在一个docker环境下的ubuntu系统里。

官方操作文档

按照官方操作文档Using FFmpeg with NVIDIA GPU Hardware Acceleration - NVIDIA Docs的描述,步骤很简单:

1、安装nv-codec-headers的头文件。

bash 复制代码
git clone https://git.videolan.org/git/ffmpeg/nv-codec-headers.git
cd nv-codec-headers && sudo make install && cd --

2、克隆ffmpeg源代码。

bash 复制代码
git clone https://git.ffmpeg.org/ffmpeg.git ffmpeg/

3、安装编译源代码需要的依赖库。

bash 复制代码
sudo apt-get install build-essential yasm cmake libtool libc6 libc6-dev unzip wget libnuma1 libnuma-dev

4、配置编译条件,进行编译安装。

bash 复制代码
./configure --enable-nonfree --enable-cuda-nvcc --enable-libnpp --extra-cflags=-I/usr/local/cuda/include --extra-ldflags=-L/usr/local/cuda/lib64 --disable-static --enable-shared

5、进行测试使用。

可能出问题的坑

但是这里隐含了几个前提条件。

1、nv-codec-headers是有版本对应的,需要根据目标机器上的驱动版本,选择对应的版本。

查看目标机器上的驱动版本可以执行nvidia-smi查看。

nv-codec-headers里的README文件里写了匹配的版本信息。

2、目标机器需要安装CUDA toolkit,这个文档里有写,可以执行nvcc --version查看是否安装成功。

3、配置ffmpeg编译条件的时候,里面包含了两个目录:

/usr/local/cuda/lib64和/usr/local/cuda/include。要确保这两个目录里确实有需要的文件。

笔者就发现目标机器上的/usr/local/cuda/lib64是空的,然后通过:

find / -name 'libcuda*' 命令找到了实际存在libcuda.so文件的目录是:/usr/lib/x86_64-linux-gnu/。

这样就需要替换掉编译条件里的目录。

4、启动docker的命令里需要把宿主机的视频能力赋予docker容器。

bash 复制代码
--gpus 'all,"capabilities=compute,video,utility"'

参考文档:https://www.cnblogs.com/azureology/p/18290262

User Guide --- container-toolkit 1.10.0 documentation

最后所有依赖和路径设置正确以后。执行./configure的完整命令。会输出完整支持的编码解码器信息,注意看是否包含h264_nvenc。如果包含了就证明设置正确了。

相关推荐
mortimer1 小时前
一键实现人声伴奏分离:基于 `uv`, `FFmpeg` 和 `audio-separator` 的高效解决方案
python·ffmpeg·音视频开发
Oxo Security3 小时前
【AI安全】提示词注入
人工智能·安全·网络安全·ai
中杯可乐多加冰3 小时前
基于网易CodeWave智能开发平台构建宝可梦图鉴
深度学习·低代码·ai·数据分析·数据采集·无代码·网易codewave征文
Elastic 中国社区官方博客7 小时前
使用 Mastra 和 Elasticsearch 构建具有语义回忆功能的知识 agent
大数据·数据库·人工智能·elasticsearch·搜索引擎·ai·全文检索
LilySesy8 小时前
ABAP+在select的时候,可以A=B A=C B=C这样子JOIN吗?
数据库·sql·ai·excel·sap·abap
胡耀超9 小时前
通往AGI的模块化路径:一个可能的技术架构(同时解答微调与RAG之争)
人工智能·python·ai·架构·大模型·微调·agi
逻极10 小时前
Spec-Kit 实战指南:从零到一构建“照片拖拽相册”Web App
人工智能·ai·agent·ai编程·web app
MaybeAI1 天前
构建可靠的 AI 工作流:我们在 MCP 架构下的实践与经验
ai·工作流·mcp·ai自动化·工作流自动化·无代码工作流·maybeai
Elastic 中国社区官方博客1 天前
如何使用 Ollama 在本地设置和运行 GPT-OSS
人工智能·gpt·elasticsearch·搜索引擎·ai·语言模型
Funny_AI_LAB1 天前
深度解析Andrej Karpathy访谈:关于AI智能体、AGI、强化学习与大模型的十年远见
人工智能·计算机视觉·ai·agi