nvidia

chinamaoge2 天前
nvidia·大模型推理·tensorrt-llm
NVIDIA大模型推理框架:TensorRT-LLM软件流程(三)trtllm-serve启动流程–HTTP Request流程图:我有出现过修改C++ 代码,python3 ./scripts/build_wheel.py编译不生效的问题,编译过程中都出现修改报错,但是就是没有生效。 最好的方式是先pip unistall tensorrt_llm,然后再pip install ./build/tensorrt_llm*.whl, 直接安装会因为版本相同可能没有安装的情况
闻道且行之4 天前
linux·运维·ubuntu·nvidia·p40
Ubuntu 20.04 下 NVIDIA Tesla P40 驱动安装指南(核显桌面 + 计算卡分离方案)NVIDIA Tesla P40 作为一款定位专业计算的 GPU,硬件层面无视频输出能力,无法直接驱动图形化桌面。在 Ubuntu 20.04 系统中,若要同时实现核显输出桌面与P40 提供算力的需求,需采用 “驱动分离” 方案。 本指南针对 Intel 核显 + Tesla P40 硬件组合,解决传统驱动安装中 “启用 P40 则桌面黑屏,切换核显则 P40 失效” 的矛盾,通过驱动适配、内核模块配置、开机自启设置等步骤,实现两者协同工作。教程兼顾新手友好性与专业性,既保证图形界面正常运行,又能让 P4
AI视觉网奇7 天前
笔记·nvidia
NVIDIA 生成key访问正确的位置:登录 NVIDIA NGC 官网。AI构建项目 bash 进入个人设置:点击右上角你的个人头像,在下拉菜单中选择 “Setup”(设置)。
张火火isgudi7 天前
linux·运维·视频编解码·nvidia
fedora43 安装 nvidia 驱动以及开启视频编解码硬件加速参考官网文档 Fedora Wiki Howto/NVIDIA,以及 Fedora WIKI 中关于视频编解码驱动安装 Hardware Video Acceleration.
AI大模型学徒15 天前
pytorch·nvidia·cudnn·nimiconda·5090驱动安装·cudatoolkit
5090NVIDIA、CUDAToolkit、cuDNN、Miniconda、PyTorch安装经查询从官网下载 RTX5090驱动报错没权限后显示🔹 建议(AI / GPU 开发场景)你做智能体开发、Docker + GPU、PyTorch / CUDA → 推荐用 .run 文件安装最新驱动(580 系)
驱动探索者17 天前
ai·nvidia
[缩略语大全]之[NVIDIA]篇了解一个领域最快的方式就是先了解一些缩略语,今天我们一起学习一下当下比较火热的NVIDIA相关的缩略语
扫地的小何尚19 天前
人工智能·深度学习·算法·llm·gpu·量子计算·nvidia
NVIDIA CUDA-Q QEC权威指南:实时解码、GPU解码器与AI推理增强容错量子计算机的实现离不开实时解码。通过使解码器与量子处理单元(QPU)并行低延迟运行,我们可以在相干时间内对设备应用纠错,从而防止错误累积,确保计算结果的有效性。这一过程既可以在线(使用真实量子设备)完成,也可以离线(使用模拟量子处理器)完成。
玄德公笔记1 个月前
docker·kubernetes·gpu·containerd·nvidia·runtime·fabricmanager
GPU节点接入k8s集群的处理修改/etc/containerd/config.toml 文件中:为了便于找到,贴出整段内容:还用注意:SystemdCgroup = true,如果你之前安装containerd没有修改,这里一定要改过来。
腾飞开源1 个月前
人工智能·nvidia·spring ai·聊天模型·llm api·openai客户端·配置属性
23_Spring AI 干货笔记之 NVIDIA 聊天NVIDIA LLM API 是一个代理 AI 推理引擎,提供来自各种供应商的广泛模型。Spring AI 通过复用现有的 OpenAI 客户端与 NVIDIA LLM API 集成。为此,您需要将基础 URL 设置为 https://integrate.api.nvidia.com,选择 NVIDIA 提供的一个 LLM 模型,并获取其 API 密钥。
TYUT_xiaoming1 个月前
nvidia
NVIDIA DGX Sparkhttps://mp.weixin.qq.com/s/-qnuiNVW_adxRlp3aT_4IgDGX Spark 具有以下特点:
tomeasure1 个月前
人工智能·pytorch·python·nvidia
INTERNAL ASSERT FAILED at “/pytorch/c10/cuda/CUDACachingAllocator.cpp“:983在使用GPU运行模型(有其他人也在用这个GPU)并使用同一条数据反复调用时,偶尔 会出现下面的异常:nvidia-smi无法正常使用。由于某些客观原因,服务器不能重启,也就无法使显卡驱动恢复正常。
破烂pan1 个月前
gpu·nvidia
NVIDIA 显卡架构清单说明:表里“Tensor(TFLOPS)”列若分 FP32/FP16/TF32/INT8,我用厂商公开标称值(若厂商只标称 Tensor Core 性能我会注明)。若某项无权威公开值则标“—”。参考来源见表末。
社会零时工1 个月前
qt·opencv·nvidia
NVIDIA Jetson开发板使用记录——开发环境搭建控制器开发板配置(Ubuntu 18.04 LTS(ARMv8架构,NVIDIA Tegra Xavier))
伟大的大威1 个月前
nvidia·jetson·orin nano
NVIDIA Jetson Orin Nano 刷机避坑指南:NVMe启动 + SDK Manager + 解决卡启动/红字报错最近在配置 NVIDIA Jetson Orin Nano 开发板,目标是将 JetPack 6.x 系统直接刷入 NVMe SSD(放弃速度慢且容量小的 SD 卡)。 整个过程踩了不少坑,包括 SDK Manager 权限报错、显示器卡死在启动界面、Oem-config配置失败等。本文总结了一套 “Pre-Config(预配置)” 的最佳实践方案,能够一次性跑通,避免各种图形界面引导失败的问题。
伟大的大威1 个月前
nvidia·fara
NVIDIA Jetson Orin Nano 大模型量化与部署指南 (Fara-7B)适用设备:NVIDIA Jetson Orin Nano (8GB) / Orin NX 系统环境:Ubuntu 22.04 (JetPack 6.x) 目标:将 Fara-7B 模型转换为 GGUF 格式并进行 Int4 量化,最终在 Ollama 中运行。
算家计算1 个月前
人工智能·nvidia·芯片
芯片战打响!谷歌TPU挑战英伟达:AI算力战争背后的行业变局近日,谷歌凭借在TPU以及Gemini 3模型方面的突破,正直接挑战英伟达的主导地位。英伟达市值应声蒸发8000亿美元。AI算力战争已进入一个巨头竞逐、格局重塑的新阶段。
云雾J视界1 个月前
深度学习·神经网络·verilog·nvidia·ai芯片·卷积加速器
AI芯片设计实战:用Verilog高级综合技术优化神经网络加速器功耗与性能近年来,人工智能芯片市场呈现爆发式增长,边缘计算设备对能效比(TOPS/W)的要求日益严苛。以NVIDIA为例,其最新一代A100 GPU的INT8运算性能达到624 TOPS,而功耗仅为400W,能效比达到1.56 TOPS/W。这种高性能要求使得传统手工门级设计方法面临巨大挑战。
算家计算2 个月前
人工智能·nvidia·资讯
黄仁勋马斯克罕见同台!定调AI未来三大关键词:算力、货币失效与泡沫未来金钱将失去意义?AI是否有泡沫?最近,黄仁勋对话马斯克,给出了他们的想法。在近日的美沙投资论坛上,特斯拉CEO埃隆·马斯克在与英伟达CEO黄仁勋同台交流,就AI、机器人和未来经济进行了对话。
人工智能训练2 个月前
linux·运维·人工智能·ubuntu·docker·容器·nvidia
Docker中容器的备份方法和步骤在 Docker 中,容器的备份方法主要分为完整备份(保留容器状态和镜像元数据)和轻量备份(仅保存容器文件系统)两种,具体步骤和操作如下:
恋上钢琴的虫2 个月前
nvidia
nvidia驱动安装(openEuler上安装T4驱动)1、网址:https://www.nvidia.cn/drivers/lookup/上找到相应卡和操作系统对应的驱动,cuda选择12.2以上的版本