技术栈
nvidia
视***间
10 小时前
边缘计算
·
nvidia
·
算力
·
ai算力
·
视程空间
方寸之间,算力之巅 视程空间—EDG SC6N0-S T5X 超算计算机以 Jetson AGX Thor 重构个人计算边界
当 “超算” 还停留在数据中心冰冷机柜的想象中时,视程空间EDG SC6N0-S已带着 NVIDIA Jetson AGX Thor 的澎湃算力,将万亿次 AI 性能压缩进你的桌面 -这不是未来科技的预演,而是此刻可触及的生产力革命。
万俟淋曦
2 天前
人工智能
·
ai
·
汽车
·
nvidia
·
智能汽车
·
driveos
·
driveworks
NVIDIA DriveOS 推动新一代智能汽车实现突破
机器人、人工智能相关领域 news/events (专栏目录)NVIDIA DRIVE OS 是专为在基于 DRIVE AGX 的硬件上开发和部署自主应用程序而设计的参考操作系统及相关软件栈。NVIDIA DRIVE OS 为安全关键型应用程序提供安全可靠的执行环境,并提供安全启动、安全服务、防火墙和空中升级等功能。
安全二次方security²
3 天前
nvidia
·
cuda
·
c/c++
·
device
·
cuda编程
·
architecture
·
compute unified
CUDA C++编程指南(1)——简介
AI-安全-功耗 CUBE 博客目录导读目录1. 简介1.1. 使用GPU的优势1.2. CUDA®:通用并行计算平台与编程模型
算家计算
8 天前
人工智能
·
nvidia
·
芯片
英伟达亮出最强AI芯片!性能暴增3倍,算力竞赛迎来新节点
一场关于AI算力的竞赛再次刷新纪录,这一次,英伟达将推理性能推向了新的高度。在刚刚召开的GTC 2025大会上,英伟达CEO黄仁勋首次向世界展示了下一代Vera Rubin超级芯片。这款芯片以著名天文学家命名,正定义下一代计算模式。
扫地的小何尚
10 天前
大数据
·
人工智能
·
spark
·
llm
·
gpu
·
nvidia
·
dgx
AI创新的火花:NVIDIA DGX Spark开箱与深度解析
长久以来,拥有数据中心级的AI算力似乎是少数顶尖实验室和大型企业的专属。然而,NVIDIA通过一款颠覆性的产品,彻底改变了这一格局。今天,我们怀着无比激动的心情,为大家带来NVIDIA DGX Spark的独家开箱评测。这款被称为“全球最小AI超级计算机”的设备,将一PetaFLOP的AI性能浓缩于一个精致的桌面级包装中,预示着一个AI全民化、创新遍地开花的全新时代已经到来。
扫地的小何尚
12 天前
开发语言
·
人工智能
·
chrome
·
bash
·
gpu
·
nvidia
一小时内使用NVIDIA Nemotron创建你自己的Bash计算机使用智能体
想象一下,如果你能和你的电脑对话,让它通过Bash终端执行任务,而你却无需编写任何一条命令,那会是怎样一种体验?借助NVIDIA Nemotron Nano v2,你可以在一小时内,用大约200行Python代码,从零开始轻松构建一个自然语言Bash智能体,并且依赖极少。
安全二次方security²
13 天前
gdb
·
nvidia
·
cuda
·
调试
·
cuda-gdb
·
autostep
·
mpi cuda
CUDA-GDB(11)——调试示例演练
安全二次方(security²)博客目录导读目录11.1. 示例:bitreverse11.1.1. 代码演练
BothSavage
20 天前
linux
·
服务器
·
ubuntu
·
gpu
·
nvidia
·
cuda
·
nvcc
Ubuntu-8卡H20服务器升级nvidia驱动+cuda版本
看到qwen3-vl-30b开源了,想测试下性能+资源占用,奈何部署sglang需要12.7版本的cuda?我目前手里的H20的服务器cuda版本最高只支持12.2所以需要升级驱动以及cuda版本,随使用官方.run还有apt install xx进行升级。之前用的火山官方ubuntu镜像,默认驱动535,后升级驱动550,570,580后,cuda也对应升级后,cuda都无法使用无论是在conda中,还是直接在宿主机上测试,最后发现是nvidia-fabricmanager问题,NVIDIA-Fabri
mortimer
24 天前
python
·
github
·
nvidia
在 Windows 上部署 NVIDIA Parakeet-TDT 遇到的坑
Parakeet-TDT 是 NVIDIA NeMo 工具包中的一个语音识别模型,基于 Transformer 架构,适合转录英文语音到文字。它最大的优点是模型体积小,精度不错,速度也快,即使在纯 CPU 环境下也能正常运行,适合学习或小型项目。NeMo 提供预训练模型,配置简单,普通开发者也能快速上手。
扫地的小何尚
25 天前
arm开发
·
人工智能
·
学习
·
自然语言处理
·
机器人
·
gpu
·
nvidia
Isaac Lab 2.3深度解析:全身控制与增强遥操作如何重塑机器人学习
NVIDIA Isaac Lab 2.3的发布,标志着机器人学习领域,特别是人形机器人和灵巧操作,迈出了革命性的一步。这个早期开发者预览版不仅极大地提升了机器人的全身控制能力和运动性能,更通过一系列创新的遥操作和数据生成工具,为机器人学习流程的简化和加速开辟了新途径。本文将深入探讨Isaac Lab 2.3的核心新特性,并通过丰富的代码示例,展示如何利用这些功能来构建更智能、更强大的机器人系统。
攻城狮7号
1 个月前
人工智能
·
nvidia
·
开源模型
·
audio2face
NVIDIA开源Audio2Face模型与SDK,数字人表情迎来“灵魂”时刻
目录引言:我们都见过的“假”数字人一、Audio2Face究竟是什么“黑科技”?二、“免费”与“开源”:一字之差,天壤之别
Jzzzzzzzzzzzzzz
1 个月前
ubuntu
·
nvidia
·
显卡驱动
NVIDIA-SMI has failed because it couldn‘t communicate with the NVIDIA driver.
(base) jzzz@jzzz-System-Product-Name:~$ nvidia-smi NVIDIA-SMI has failed because it couldn't communicate with the NVIDIA driver. Make sure that the latest NVIDIA driver is installed and running.
深度学习机器
1 个月前
pytorch
·
llm
·
nvidia
解密vLLM:基于nano-vllm源码剖析其推理加速之道
vLLM对于部署过大模型的人来说应该都不算陌生, 它能极大提升LLM的服务吞吐量,显著降低推理成本。vLLM成功的核心秘诀在于一项名为 PagedAttention 的技术及其配套的调度策略,对于不熟悉底层的人来说,这些概念可能非常晦涩难懂。幸好,DeeoSeek一位研究员开源了一个学习项目,nano-vLLM,仅使用约1200行Python代码就实现了vLLM的核心功能,相比原生的vLLM来说更容易学习其核心思想。得益于轻量化的设计,nano-vLLM在Qwen3的推理速度上比vLLM更快。
扫地的小何尚
1 个月前
开发语言
·
人工智能
·
深度学习
·
机器学习
·
缓存
·
llm
·
nvidia
NVIDIA Dynamo深度解析:如何优雅地解决LLM推理中的KV缓存瓶颈
随着大语言模型(LLM)的规模和复杂性不断增长,一个核心挑战日益凸显:推理过程中的内存管理。特别是,用于存储注意力机制中间数据的键值缓存(Key-Value Cache, KV Cache),正成为一个主要的性能瓶颈。KV缓存的大小与输入序列的长度成正比,在处理长上下文、多轮对话或深度研究等任务时,其对GPU显存的占用会急剧膨胀,从而限制了模型的吞吐量、增加了延迟和运营成本。
扫地的小何尚
1 个月前
arm开发
·
人工智能
·
自然语言处理
·
gpu
·
nvidia
·
jetson
·
nvidia thro
CUDA 13.0深度解析:统一ARM生态、UVM增强与GPU共享的革命
随着NVIDIA CUDA Toolkit 13.0的发布,嵌入式和边缘计算领域正迎来一场深刻的变革。专为搭载NVIDIA Blackwell GPU架构的Jetson Thor SoC优化,此版本不仅带来了前所未有的性能提升,更通过一系列革命性的更新,重塑了开发者的工作流。从统一的ARM平台CUDA工具包,到完全硬件一致性的统一虚拟内存(UVM),再到多进程服务(MPS)和绿色上下文等GPU共享功能,CUDA 13.0正在为边缘AI应用开启一个更快、更高效、更通用的新时代。
扫地的小何尚
1 个月前
神经网络
·
r语言
·
机器人
·
llm
·
gpu
·
nvidia
R²D²深度解析:NVIDIA三大神经网络突破如何变革机器人学习
尽管今天的机器人在受控环境中表现出色,但它们在面对现实世界的不可预测性、灵巧性以及与环境进行精细交互时,仍然显得力不从心。无论是组装精密的电子元件,还是像人一样自然地操作日常物品,都对机器人的学习和适应能力提出了极高的要求。
扫地的小何尚
1 个月前
人工智能
·
语言模型
·
llm
·
gpu
·
量子计算
·
nvidia
·
cuda
深度解析 CUDA-QX 0.4 加速 QEC 与求解器库
在通往大规模、容错量子超级计算机的征程中,量子纠错(Quantum Error Correction, QEC)既是最大的机遇,也是最严峻的挑战 。它将当今的含噪中等规模量子(Noisy Intermediate-Scale Quantum, NISQ)设备与未来的强大计算引擎区分开来。克服这一挑战需要的不仅仅是渐进式的改进,而是一场范式革命——从零散、受限于 CPU 的研究工具,转向一个紧密集成、大规模并行、端到端的开发平台。
阿里云大数据AI技术
1 个月前
人工智能
·
nvidia
阿里云 PAI 携手 NVIDIA 提供端到端物理 AI 解决方案
9月24日,2025云栖大会上,阿里云智能集团副总裁、阿里云大数据AI平台负责人汪军华携手 NVIDIA 机器人与边缘 AI 副总裁 Deepu Talla 宣布阿里云人工智能平台 PAI 与 NVIDIA Physical AI 软件栈进行全面集成。
放羊郎
2 个月前
nvidia
·
虚拟机
·
jetson
·
刷机
·
重装系统
·
xavier
配置Nvidia JETSON AGX Xavier
硬件连接:进入刷机模式(两种方式都可以):Xavier 链接至虚拟机: 进入Ubuntu虚拟机,输入lsusb命令,如果设备进入刷机模式,会显示NVIDIA Corp的设备记录,如果找不到,可以通过下面方式连接:
free-xx
2 个月前
nvidia
·
jetson
·
orin
AGX Orin平台RTC驱动导致reboot系统卡住问题调试
自制底板核心模组是 Jetson AGX Orin 64GSDK 是 Jetpack6.2 36.4.3