安装tensorrt环境在linux上

在linux上输入命令

bash

cat /etc/os-release

命令查看系统版本

nvidia-smi命令后有内容弹出而没有报错,表明系统中安装了NVIDIA显卡驱动,并且该命令成功地显示了有关NVIDIA GPU的信息。

输入nvcc -V并且看到输出时,这表明您的系统中已经安装了NVIDIA的CUDA工具包,并且该命令成功地显示了CUDA编译器版本的信息

这里是租的ubuntu远程服务器gpu版本,所以nvidia的驱动和cuda都是安装上了。

输入which nvcc 或 where nvcc即可查看cuda的安装路径

可以看到cuda的安装路径是在/usr/local/cuda/bin/nvcc的路径下

除了cuda还需要cudnn

输入指令查看是否存在cudnn

cat /usr/local/cuda/include/cudnn_version.h | grep CUDNN_MAJOR -A 2

弹出以上内容说明cudnn是存在的,这样安装tensorrt的前置工作就完成了,接下来我们进行tensorrt的安装。

这里直接安装tensorrt相对应的版本即可,在官网地址下载:

Log in | NVIDIA Developer

我这里直接下载linux版本 不去区分ubuntu还是centos了,选择

基本可以支持所有的cuda11了。

安装包下载好后之间拖到服务器上。我这里的路径直接拖到/usr/local的路径下。

安装包拖过去后,输入命令完成解压。

tar -xvf /usr/local/TensorRT-8.6.0.12.Linux.x86_64-gnu.cuda-11.8.tar.gz

完成解压,如果没有权限 就在最前面加上sudo

开始解压

因为我们当前路径是在root下,所以解压的文件在root文件夹下

然后我们开始添加环境路径

export LD_LIBRARY_PATH=/root/TensorRT-8.6.0.12/targets/x86_64-linux-gnu/lib:$LD_LIBRARY_PATH

输入echo $LD_LIBRARY_PATH 查看环境路径

可以看到路径已经加载进来了

然后我们使用pip安装

当前已经是cd在了TensorRT-8.6.0.12的路径下了,

我们直接输入指令安装

pip install ./python/tensorrt-8.6.0-cp38-none-linux_x86_64.whl安装

然后输入以下指令

import tensorrt as rt

print(rt.version)

·正确打印出了tensorrt的版本号就是安装成功了。

相关推荐
我爱一条柴ya9 分钟前
【AI大模型】神经网络反向传播:核心原理与完整实现
人工智能·深度学习·神经网络·ai·ai编程
万米商云14 分钟前
企业物资集采平台解决方案:跨地域、多仓库、百部门——大型企业如何用一套系统管好百万级物资?
大数据·运维·人工智能
留不住丨晚霞17 分钟前
说说SpringBoot常用的注解?
java·开发语言
新加坡内哥谈技术17 分钟前
Google AI 刚刚开源 MCP 数据库工具箱,让 AI 代理安全高效地查询数据库
人工智能
慕婉030719 分钟前
深度学习概述
人工智能·深度学习
大模型真好玩20 分钟前
准确率飙升!GraphRAG如何利用知识图谱提升RAG答案质量(额外篇)——大规模文本数据下GraphRAG实战
人工智能·python·mcp
198921 分钟前
【零基础学AI】第30讲:生成对抗网络(GAN)实战 - 手写数字生成
人工智能·python·深度学习·神经网络·机器学习·生成对抗网络·近邻算法
6confim21 分钟前
AI原生软件工程师
人工智能·ai编程·cursor
阿里云大数据AI技术21 分钟前
Flink Forward Asia 2025 主旨演讲精彩回顾
大数据·人工智能·flink
i小溪22 分钟前
在使用 Docker 时,如果容器挂载的数据目录(如 `/var/moments`)位于数据盘,只要服务没有读写,数据盘是否就不会被唤醒?
人工智能·docker