NVIDIA Jetson AI边缘计算盒子

这里写自定义目录标题

烧录系统

选择一台Linux系统,或者VMware的电脑作为主机,烧录系统和后面安装Jetpack都会用到。

根据供应商的指令烧录的,暂时还没验证官方烧录(后续验证补充)。

安装Jetpack

  1. 在主机安装SDK Manager,去Jetson Download下载,千万不要下官方给的最新版本(因为他们文档是以前写的,下载他们这个版本登不上)。

  2. 安装指令

python 复制代码
sudo apt install ./sdkmanager_[version]-[build]_amd64.deb
  1. 启动
python 复制代码
sdkmanager
  1. 登录

输入NVIDIA Developer账户

  1. 按照以下步骤安装

安装cuda

python 复制代码
sudo apt install nvidia-jetpack -y

检查cuda版本

python 复制代码
# 不要使用nvidia-smi, 这个不准
nvcc -V

如果报错nvcc命令无法识别,需要将nvcc添加到环境变量

一般cuda安装在/usr/local/cuda/bin

python 复制代码
vim ~/.bashrc
python 复制代码
# 添加到~/.bashrc里面
export LD_LIBRARY_PATH=/usr/local/cuda/lib
export PATH=$PATH:/usr/local/cuda/bin
python 复制代码
source ~/.bashrc

安装Pytorch

python 复制代码
cd jetson-inference/build
./install-pytorch.sh

安装onnxruntime

为什么安装onnxruntime呢?

为了方便加载模型运行,可以先将torch模型转成onnx模型,再完成模型推理。

下载onnxruntime.whl,然后使用pip3 install onnxruntime_gpu-1.16.0-cp38-cp38-linux_aarch64.whl

GPU运行onnxruntime

python 复制代码
session = onnxruntime.InferenceSession(onnx_model, provider=['CUDAExecutionProvider'])

安装qv4l2

python 复制代码
# 安装驱动
sudo apt install qv4l2
python 复制代码
# 加载驱动
cd /etc/realtimes
sudo insmod cam_gmsl.ko
相关推荐
程序员清洒13 分钟前
CANN模型安全:从对抗防御到隐私保护的全栈安全实战
人工智能·深度学习·安全
island131417 分钟前
CANN ops-nn 算子库深度解析:神经网络计算引擎的底层架构、硬件映射与融合优化机制
人工智能·神经网络·架构
小白|20 分钟前
CANN与实时音视频AI:构建低延迟智能通信系统的全栈实践
人工智能·实时音视频
Kiyra21 分钟前
作为后端开发你不得不知的 AI 知识——Prompt(提示词)
人工智能·prompt
艾莉丝努力练剑24 分钟前
实时视频流处理:利用ops-cv构建高性能CV应用
人工智能·cann
程序猿追24 分钟前
深度解析CANN ops-nn仓库 神经网络算子的性能优化与实践
人工智能·神经网络·性能优化
User_芊芊君子27 分钟前
CANN_PTO_ISA虚拟指令集全解析打造跨平台高性能计算的抽象层
人工智能·深度学习·神经网络
初恋叫萱萱30 分钟前
CANN 生态安全加固指南:构建可信、鲁棒、可审计的边缘 AI 系统
人工智能·安全
机器视觉的发动机36 分钟前
AI算力中心的能耗挑战与未来破局之路
开发语言·人工智能·自动化·视觉检测·机器视觉
铁蛋AI编程实战39 分钟前
通义千问 3.5 Turbo GGUF 量化版本地部署教程:4G 显存即可运行,数据永不泄露
java·人工智能·python