使用lspci命令获取加速卡型号

文章目录


前言

新到的实验机器和加速卡,安装好之后发现lspci命令没有显示型号,这里记录下使用

Vendor ID和Device ID 通过网页查询获取加速卡具体型号的过程。


一、lspci -nn 获取具体厂商及设备ID

shell 复制代码
root@4090:~# lspci -nn |grep NVIDIA
01:00.0 VGA compatible controller [0300]: NVIDIA Corporation Device [10de:2684] (rev a1)

Vendor ID是10de

Device ID是2684

二、使用步骤

在对应网页内查询

https://admin.pci-ids.ucw.cz/read/PC?restrict=

点击10de进入设备列表页面

找到了对应的设备,是RTX4090,和机箱内显卡标识契合。



三、使用3080Ti再查询一下

shell 复制代码
root@node1:~# lspci -nn |grep NVIDIA
01:00.0 VGA compatible controller [0300]: NVIDIA Corporation GA102 [GeForce RTX 3080 Ti] [10de:2208] (rev a1)

没有问题

相关推荐
智星云算力1 天前
本地GPU与租用GPU混合部署:混合算力架构搭建指南
人工智能·架构·gpu算力·智星云·gpu租用
xingyuzhisuan1 天前
Blender渲染加速:4090服务器OptiX后端性能提升50%
运维·服务器·性能优化·gpu算力
xingyuzhisuan2 天前
LoRA微调实战:8卡4090服务器如何高效微调LLaMA?
运维·服务器·llama·gpu算力
yumgpkpm3 天前
华为昇腾910B上用Kubernetes(K8s)部署LLM和用Docker部署LLM的区别
docker·chatgpt·容器·stable diffusion·kubernetes·llama·gpu算力
小驴程序源8 天前
【OpenClaw 完整安装实施教程(Windows + Ollama 本地模型)】
gpt·langchain·aigc·embedding·ai编程·llama·gpu算力
xingyuzhisuan8 天前
给4090服务器配电源:8卡并行需要多少瓦才稳定?
服务器·网络·云计算·gpu算力
xingyuzhisuan9 天前
遇到GPU驱动冲突问题,云厂商通常提供怎样的技术支持?
大数据·人工智能·gpu算力
xingyuzhisuan10 天前
4090部署DeepSeek-V3:CPU卸载层数实测指南
运维·深度学习·gpu算力
xingyuzhisuan10 天前
怎么快速在云上部署一个Stable Diffusion环境?(实操落地版)
人工智能·stable diffusion·ai绘画·gpu算力
yumgpkpm11 天前
华为昇腾910B(Ascend 910B)+ LLaMA-Factory 对 Qwen3.5-32B 模型进行 LoRA 微调 的全流程操作指南
开源·prompt·copilot·embedding·llama·gpu算力·gitcode