NVIDIA Jetson AI边缘计算盒子

这里写自定义目录标题

烧录系统

选择一台Linux系统,或者VMware的电脑作为主机,烧录系统和后面安装Jetpack都会用到。

根据供应商的指令烧录的,暂时还没验证官方烧录(后续验证补充)。

安装Jetpack

  1. 在主机安装SDK Manager,去Jetson Download下载,千万不要下官方给的最新版本(因为他们文档是以前写的,下载他们这个版本登不上)。

  2. 安装指令

python 复制代码
sudo apt install ./sdkmanager_[version]-[build]_amd64.deb
  1. 启动
python 复制代码
sdkmanager
  1. 登录

输入NVIDIA Developer账户

  1. 按照以下步骤安装

安装cuda

python 复制代码
sudo apt install nvidia-jetpack -y

检查cuda版本

python 复制代码
# 不要使用nvidia-smi, 这个不准
nvcc -V

如果报错nvcc命令无法识别,需要将nvcc添加到环境变量

一般cuda安装在/usr/local/cuda/bin

python 复制代码
vim ~/.bashrc
python 复制代码
# 添加到~/.bashrc里面
export LD_LIBRARY_PATH=/usr/local/cuda/lib
export PATH=$PATH:/usr/local/cuda/bin
python 复制代码
source ~/.bashrc

安装Pytorch

python 复制代码
cd jetson-inference/build
./install-pytorch.sh

安装onnxruntime

为什么安装onnxruntime呢?

为了方便加载模型运行,可以先将torch模型转成onnx模型,再完成模型推理。

下载onnxruntime.whl,然后使用pip3 install onnxruntime_gpu-1.16.0-cp38-cp38-linux_aarch64.whl

GPU运行onnxruntime

python 复制代码
session = onnxruntime.InferenceSession(onnx_model, provider=['CUDAExecutionProvider'])

安装qv4l2

python 复制代码
# 安装驱动
sudo apt install qv4l2
python 复制代码
# 加载驱动
cd /etc/realtimes
sudo insmod cam_gmsl.ko
相关推荐
RoyLin2 分钟前
沉睡三十年的标准:HTTP 402、生成式 UI 与智能体原生软件的时代
人工智能
needn2 小时前
TRAE为什么要发布SOLO版本?
人工智能·ai编程
毅航2 小时前
自然语言处理发展史:从规则、统计到深度学习
人工智能·后端
前端付豪3 小时前
LangChain链 写一篇完美推文?用SequencialChain链接不同的组件
人工智能·python·langchain
ursazoo3 小时前
写了一份 7000字指南,让 AI 帮我消化每天的信息流
人工智能·开源·github
_志哥_6 小时前
Superpowers 技术指南:让 AI 编程助手拥有超能力
人工智能·ai编程·测试
YongGit7 小时前
OpenClaw 本地 AI 助手完全指南:飞书接入 + 远程部署实战
人工智能
程序员鱼皮8 小时前
斯坦福大学竟然开了个 AI 编程课?!我已经学上了
人工智能·ai编程
星浩AI9 小时前
Skill 的核心要素与渐进式加载架构——如何设计一个生产可用的 Skill?
人工智能·agent
树獭非懒9 小时前
告别繁琐多端开发:DivKit 带你玩转 Server-Driven UI!
android·前端·人工智能