NVIDIA Jetson AI边缘计算盒子

这里写自定义目录标题

烧录系统

选择一台Linux系统,或者VMware的电脑作为主机,烧录系统和后面安装Jetpack都会用到。

根据供应商的指令烧录的,暂时还没验证官方烧录(后续验证补充)。

安装Jetpack

  1. 在主机安装SDK Manager,去Jetson Download下载,千万不要下官方给的最新版本(因为他们文档是以前写的,下载他们这个版本登不上)。

  2. 安装指令

python 复制代码
sudo apt install ./sdkmanager_[version]-[build]_amd64.deb
  1. 启动
python 复制代码
sdkmanager
  1. 登录

输入NVIDIA Developer账户

  1. 按照以下步骤安装

安装cuda

python 复制代码
sudo apt install nvidia-jetpack -y

检查cuda版本

python 复制代码
# 不要使用nvidia-smi, 这个不准
nvcc -V

如果报错nvcc命令无法识别,需要将nvcc添加到环境变量

一般cuda安装在/usr/local/cuda/bin

python 复制代码
vim ~/.bashrc
python 复制代码
# 添加到~/.bashrc里面
export LD_LIBRARY_PATH=/usr/local/cuda/lib
export PATH=$PATH:/usr/local/cuda/bin
python 复制代码
source ~/.bashrc

安装Pytorch

python 复制代码
cd jetson-inference/build
./install-pytorch.sh

安装onnxruntime

为什么安装onnxruntime呢?

为了方便加载模型运行,可以先将torch模型转成onnx模型,再完成模型推理。

下载onnxruntime.whl,然后使用pip3 install onnxruntime_gpu-1.16.0-cp38-cp38-linux_aarch64.whl

GPU运行onnxruntime

python 复制代码
session = onnxruntime.InferenceSession(onnx_model, provider=['CUDAExecutionProvider'])

安装qv4l2

python 复制代码
# 安装驱动
sudo apt install qv4l2
python 复制代码
# 加载驱动
cd /etc/realtimes
sudo insmod cam_gmsl.ko
相关推荐
杨小扩5 小时前
第4章:实战项目一 打造你的第一个AI知识库问答机器人 (RAG)
人工智能·机器人
whaosoft-1435 小时前
51c~目标检测~合集4
人工智能
雪兽软件5 小时前
2025 年网络安全与人工智能发展趋势
人工智能·安全·web安全
元宇宙时间6 小时前
全球发展币GDEV:从中国出发,走向全球的数字发展合作蓝图
大数据·人工智能·去中心化·区块链
小黄人20256 小时前
自动驾驶安全技术的演进与NVIDIA的创新实践
人工智能·安全·自动驾驶
ZStack开发者社区7 小时前
首批 | 云轴科技ZStack加入施耐德电气技术本地化创新生态
人工智能·科技·云计算
X Y O8 小时前
神经网络初步学习3——数据与损失
人工智能·神经网络·学习
唯创知音8 小时前
玩具语音方案选型决策OTP vs Flash 的成本功耗与灵活性
人工智能·语音识别
Jamence8 小时前
多模态大语言模型arxiv论文略读(151)
论文阅读·人工智能·语言模型·自然语言处理·论文笔记
tongxianchao8 小时前
LaCo: Large Language Model Pruning via Layer Collapse
人工智能·语言模型·剪枝