nvidia

算家计算12 小时前
人工智能·nvidia·芯片
芯片战打响!谷歌TPU挑战英伟达:AI算力战争背后的行业变局近日,谷歌凭借在TPU以及Gemini 3模型方面的突破,正直接挑战英伟达的主导地位。英伟达市值应声蒸发8000亿美元。AI算力战争已进入一个巨头竞逐、格局重塑的新阶段。
云雾J视界21 小时前
深度学习·神经网络·verilog·nvidia·ai芯片·卷积加速器
AI芯片设计实战:用Verilog高级综合技术优化神经网络加速器功耗与性能近年来,人工智能芯片市场呈现爆发式增长,边缘计算设备对能效比(TOPS/W)的要求日益严苛。以NVIDIA为例,其最新一代A100 GPU的INT8运算性能达到624 TOPS,而功耗仅为400W,能效比达到1.56 TOPS/W。这种高性能要求使得传统手工门级设计方法面临巨大挑战。
算家计算6 天前
人工智能·nvidia·资讯
黄仁勋马斯克罕见同台!定调AI未来三大关键词:算力、货币失效与泡沫未来金钱将失去意义?AI是否有泡沫?最近,黄仁勋对话马斯克,给出了他们的想法。在近日的美沙投资论坛上,特斯拉CEO埃隆·马斯克在与英伟达CEO黄仁勋同台交流,就AI、机器人和未来经济进行了对话。
人工智能训练11 天前
linux·运维·人工智能·ubuntu·docker·容器·nvidia
Docker中容器的备份方法和步骤在 Docker 中,容器的备份方法主要分为完整备份(保留容器状态和镜像元数据)和轻量备份(仅保存容器文件系统)两种,具体步骤和操作如下:
恋上钢琴的虫16 天前
nvidia
nvidia驱动安装(openEuler上安装T4驱动)1、网址:https://www.nvidia.cn/drivers/lookup/上找到相应卡和操作系统对应的驱动,cuda选择12.2以上的版本
hszmoran18 天前
电脑·nvidia·驱动
电脑关机重启时显示rundll32 内存不能为read解决方法该报错是nvidia驱动和win11新版本不兼容的问题导致,表现为打不开GeForce Experience,可以尝试卸载原有的nvidia驱动,从官网下载官方相应驱动,重装nvidia卡驱动即可恢复正常,如果还是异常就只能重装系统。
赞奇科技Xsuperzone20 天前
大数据·人工智能·gpt·spark·nvidia
DGX Spark 实战解析:模型选择与效率优化全指南自 DGX Spark 发布以来,这段探索之路挑战与收获并存。在成功完成软件移植的攻坚后,我们决定将这段时期的实战经验系统梳理,转化为一份关于模型选择与性能优化的实用指引,希望能助力更多团队高效利用 DGX Spark。
视***间21 天前
边缘计算·nvidia·算力·ai算力·视程空间
方寸之间,算力之巅 视程空间—EDG SC6N0-S T5X 超算计算机以 Jetson AGX Thor 重构个人计算边界当 “超算” 还停留在数据中心冰冷机柜的想象中时,视程空间EDG SC6N0-S已带着 NVIDIA Jetson AGX Thor 的澎湃算力,将万亿次 AI 性能压缩进你的桌面 -这不是未来科技的预演,而是此刻可触及的生产力革命。
万俟淋曦23 天前
人工智能·ai·汽车·nvidia·智能汽车·driveos·driveworks
NVIDIA DriveOS 推动新一代智能汽车实现突破机器人、人工智能相关领域 news/events (专栏目录)NVIDIA DRIVE OS 是专为在基于 DRIVE AGX 的硬件上开发和部署自主应用程序而设计的参考操作系统及相关软件栈。NVIDIA DRIVE OS 为安全关键型应用程序提供安全可靠的执行环境,并提供安全启动、安全服务、防火墙和空中升级等功能。
安全二次方security²24 天前
nvidia·cuda·c/c++·device·cuda编程·architecture·compute unified
CUDA C++编程指南(1)——简介AI-安全-功耗 CUBE 博客目录导读目录1. 简介1.1. 使用GPU的优势1.2. CUDA®:通用并行计算平台与编程模型
算家计算1 个月前
人工智能·nvidia·芯片
英伟达亮出最强AI芯片!性能暴增3倍,算力竞赛迎来新节点一场关于AI算力的竞赛再次刷新纪录,这一次,英伟达将推理性能推向了新的高度。在刚刚召开的GTC 2025大会上,英伟达CEO黄仁勋首次向世界展示了下一代Vera Rubin超级芯片。这款芯片以著名天文学家命名,正定义下一代计算模式。
扫地的小何尚1 个月前
大数据·人工智能·spark·llm·gpu·nvidia·dgx
AI创新的火花:NVIDIA DGX Spark开箱与深度解析长久以来,拥有数据中心级的AI算力似乎是少数顶尖实验室和大型企业的专属。然而,NVIDIA通过一款颠覆性的产品,彻底改变了这一格局。今天,我们怀着无比激动的心情,为大家带来NVIDIA DGX Spark的独家开箱评测。这款被称为“全球最小AI超级计算机”的设备,将一PetaFLOP的AI性能浓缩于一个精致的桌面级包装中,预示着一个AI全民化、创新遍地开花的全新时代已经到来。
扫地的小何尚1 个月前
开发语言·人工智能·chrome·bash·gpu·nvidia
一小时内使用NVIDIA Nemotron创建你自己的Bash计算机使用智能体想象一下,如果你能和你的电脑对话,让它通过Bash终端执行任务,而你却无需编写任何一条命令,那会是怎样一种体验?借助NVIDIA Nemotron Nano v2,你可以在一小时内,用大约200行Python代码,从零开始轻松构建一个自然语言Bash智能体,并且依赖极少。
安全二次方security²1 个月前
gdb·nvidia·cuda·调试·cuda-gdb·autostep·mpi cuda
CUDA-GDB(11)——调试示例演练安全二次方(security²)博客目录导读目录11.1. 示例:bitreverse11.1.1. 代码演练
BothSavage1 个月前
linux·服务器·ubuntu·gpu·nvidia·cuda·nvcc
Ubuntu-8卡H20服务器升级nvidia驱动+cuda版本看到qwen3-vl-30b开源了,想测试下性能+资源占用,奈何部署sglang需要12.7版本的cuda?我目前手里的H20的服务器cuda版本最高只支持12.2所以需要升级驱动以及cuda版本,随使用官方.run还有apt install xx进行升级。之前用的火山官方ubuntu镜像,默认驱动535,后升级驱动550,570,580后,cuda也对应升级后,cuda都无法使用无论是在conda中,还是直接在宿主机上测试,最后发现是nvidia-fabricmanager问题,NVIDIA-Fabri
mortimer1 个月前
python·github·nvidia
在 Windows 上部署 NVIDIA Parakeet-TDT 遇到的坑Parakeet-TDT 是 NVIDIA NeMo 工具包中的一个语音识别模型,基于 Transformer 架构,适合转录英文语音到文字。它最大的优点是模型体积小,精度不错,速度也快,即使在纯 CPU 环境下也能正常运行,适合学习或小型项目。NeMo 提供预训练模型,配置简单,普通开发者也能快速上手。
扫地的小何尚1 个月前
arm开发·人工智能·学习·自然语言处理·机器人·gpu·nvidia
Isaac Lab 2.3深度解析:全身控制与增强遥操作如何重塑机器人学习NVIDIA Isaac Lab 2.3的发布,标志着机器人学习领域,特别是人形机器人和灵巧操作,迈出了革命性的一步。这个早期开发者预览版不仅极大地提升了机器人的全身控制能力和运动性能,更通过一系列创新的遥操作和数据生成工具,为机器人学习流程的简化和加速开辟了新途径。本文将深入探讨Isaac Lab 2.3的核心新特性,并通过丰富的代码示例,展示如何利用这些功能来构建更智能、更强大的机器人系统。
攻城狮7号2 个月前
人工智能·nvidia·开源模型·audio2face
NVIDIA开源Audio2Face模型与SDK,数字人表情迎来“灵魂”时刻目录引言:我们都见过的“假”数字人一、Audio2Face究竟是什么“黑科技”?二、“免费”与“开源”:一字之差,天壤之别
Jzzzzzzzzzzzzzz2 个月前
ubuntu·nvidia·显卡驱动
NVIDIA-SMI has failed because it couldn‘t communicate with the NVIDIA driver.(base) jzzz@jzzz-System-Product-Name:~$ nvidia-smi NVIDIA-SMI has failed because it couldn't communicate with the NVIDIA driver. Make sure that the latest NVIDIA driver is installed and running.
深度学习机器2 个月前
pytorch·llm·nvidia
解密vLLM:基于nano-vllm源码剖析其推理加速之道vLLM对于部署过大模型的人来说应该都不算陌生, 它能极大提升LLM的服务吞吐量,显著降低推理成本。vLLM成功的核心秘诀在于一项名为 PagedAttention 的技术及其配套的调度策略,对于不熟悉底层的人来说,这些概念可能非常晦涩难懂。幸好,DeeoSeek一位研究员开源了一个学习项目,nano-vLLM,仅使用约1200行Python代码就实现了vLLM的核心功能,相比原生的vLLM来说更容易学习其核心思想。得益于轻量化的设计,nano-vLLM在Qwen3的推理速度上比vLLM更快。