技术栈
nvidia
fleaxin
12 分钟前
服务器
·
nvidia
·
pve
·
uos
·
统信
大华海光GPU服务器安装PVE和统信系统虚拟机
我使用的是大华的GPU专用服务器,型号为DH-GS2288S-G03,2颗Hygon C86 7360,128G内存,3块4T SAS硬盘,2个RTX 3060 12G显卡。打算1块硬盘安装PVE,2块硬盘做RAID0直通给虚拟机,GPU直通给虚拟机。
Rubin智造社
6 天前
google
·
nvidia
·
视频生成
·
ai芯片
·
ai助手
·
workspace
·
安全治理
04月23日AI每日参考:Google推出AI芯片挑战Nvidia,Workspace升级AI助手
今天AI圈有两件值得关注的事。其一,Google Cloud推出新一代AI芯片与Nvidia竞争,标志着AI芯片市场竞争加剧;其二,Google Workspace升级AI功能,让AI成为办公室"实习生",AI应用进入企业办公核心。10条精选资讯,带你快速掌握今日AI动态。
小陈99cyh
8 天前
运维
·
pytorch
·
docker
·
nvidia
安装NVIDIA Container Toolkit,让gpu容器环境跑通
在AI模型训练、深度学习推理或图形渲染等场景中,我们常常希望将应用打包在Docker容器中运行,以获得环境一致性和部署便利性。但默认情况下,Docker容器是无法“看见”宿主机的GPU资源的。
青Cheng序员石头
17 天前
后端
·
aigc
·
nvidia
龙虾运行时安全部署 | NVIDIA NemoClaw 深度研究报告
2026年3月16日,NVIDIA GTC大会的圣何塞会场人声鼎沸。Jensen Huang穿着他标志性的皮夹克站在讲台上,说出了这样一句话:"Claude Code与OpenClaw已经点燃了代理拐点——将AI从生成与推理延伸到了行动。"
d1z888
17 天前
服务器
·
显卡
·
nvidia
·
vllm
(十七)32天GPU测试从入门到精通-vLLM 部署与性能测试day15
vLLM 是目前最流行、最易用的 LLM 推理引擎,以其出色的性能和简洁的 API 赢得了广泛采用。自 2023 年发布以来,vLLM 迅速成为开源社区的首选,GitHub 星标数快速增长,被众多企业和研究机构采用。
明月醉窗台
18 天前
人工智能
·
算法
·
nvidia
·
cuda
·
jetson
[jetson] AGX Xavier 安装Ubuntu18.04及jetpack4.5
以下是详细的操作步骤:主机 (Host PC): 一台安装了 Ubuntu 18.04 或 20.04 的台式机或虚拟机(建议实体机,更稳定),
飞翔的SA
18 天前
开发语言
·
c++
·
python
·
nvidia
·
cuda
全程 Python:无需离开 Python 即可实现光速级 CUDA 加速,无需c++支持
目录一、当前痛点二、思维导图三、详细总结1. 演讲背景与目标2. 核心性能挑战:SAXPY基准测试3. 现有Python GPU库的局限
初遇见
20 天前
大数据
·
网络
·
spark
·
nvidia
【DGX Spark v3.0:基于多智能体交互网络与 Alpaca 实盘集成的企业级量化交易系统】
团队名称: [无限token队] 项目演示地址: http://106.13.186.155:8081 关键词: 多智能体协同、Alpaca 券商 API、SQLite 持久化、NVIDIA 加速、模拟实盘切换
晨欣
22 天前
google
·
openai
·
nvidia
·
vllm
·
llama.cpp
·
gpt-oss-20b
·
gemma4
单卡 48GB 实测:Gemma 4 26B A4B、Gemma 4 31B、gpt-oss-20b 三模型部署与并发对比
关键词: Gemma 4、gpt-oss-20b、MoE、Dense、llama.cpp、vLLM、GGUF、单卡部署、长上下文、并发测试、L20 48GB
d1z888
1 个月前
gpu
·
nvidia
·
nccl
NCCL 测试完全指南:从概念到性能调优
📅 版本:2026-03-30 🎯 目标:全面掌握 NCCL 测试方法,从入门到精通 📚 NCCL 版本:基于 NCCL 2.29.7 ⏱️ 预计阅读时间:3-5 小时 💻 适用对象:AI 工程师、HPC 开发者、系统管理员
cnbestec
1 个月前
nvidia
·
英伟达
·
manus
·
manus数据手套
·
gtc2026
GTC 2026重磅:NVIDIA开源Isaac Teleop,Manus数据手套成官方标配,机器人数据采集迎来标准化时代
在刚刚结束的GTC 2026上,NVIDIA宣布开源Isaac Teleop——一个统一的高保真自我中心与机器人数据采集框架。这一消息在机器人研究圈内引发震动,因为这可能是解决机器人学习“数据荒”问题的关键突破。
AI小译
1 个月前
nvidia
·
triton
·
language
Triton - 官方文档介绍
https://triton-lang.org/main/getting-started/tutorials/index.html
诶尔法Alpha
1 个月前
pytorch
·
nvidia
·
jetson
·
torchvision
jetson设备上自己手动编译适配版本的pytorch全过程,及报错的解决方法
在jetson设备上不可以直接用pip install torch来安装pytorch,必须要去nvidia官网下载编译好的whl文件进行pip install,这有更直接一点的地址来安装jetpack对应的whl,很可惜最高只支持jetpack6.1,这意味着超过6.1版本的必须自己从pytorch官网进行来下载源码编译,那么就开始正题。 首先获取源码:
HelloTonyGo
1 个月前
gpu
·
nvidia
·
cuda
·
openclaw
个人游戏笔记本免费“养龙虾”(二)用显卡GPU运行OpenClaw,CUDA的安装与配置
系列文章: 1. 个人游戏笔记本免费“养龙虾”(Win10+WSL2+OpenClaw 部署与配置指南)
吴佳浩
1 个月前
人工智能
·
pytorch
·
nvidia
GPU 编号错乱踩坑指南:PyTorch cuda 编号与 nvidia-smi 不一致
本文记录一次多 GPU 服务器上,PyTorch 的 cuda 设备编号与 nvidia-smi 显示编号不一致导致的性能问题,以及排查和解决的完整过程。本篇是系列第一篇,聚焦问题的发现、根因分析、解决方案与常见错误汇总。
cnbestec
1 个月前
nvidia
·
gtc
·
ur协作机器人
·
优傲
GTC 2026现场手教UR机器人!——优傲发布AI训练器,打造工业级物理智能训练平台
各位具身智能研发者、自动化工程师们,你是否也曾深陷这些困境 :●数据失效: 实验室里的“玩具级”数据,一进真实工厂就“哑火” 。
诶尔法Alpha
1 个月前
nvidia
·
onnxruntime
·
jetson
jetson设备上自己手动编译适配版本的onnxruntime全过程,及报错的解决方法
原来我的jetpack版本较低,可以直接从jetson zoo中找到对应本版编译好的ort:————————————————————————————————————————————————————————