nvidia

放羊郎4 天前
网络·nvidia·英伟达·游戏显卡·rtx
英伟达消费级RTX显卡配置表
nuczzz14 天前
kubernetes·k8s·gpu·nvidia·cuda
NVIDIA k8s-device-plugin源码分析与安装部署在《kubernetes Device Plugin原理与源码分析》一文中,我们从源码层面了解了kubelet侧关于device plugin逻辑的实现逻辑,本文以nvidia管理GPU的开源github项目k8s-device-plugin为例,来看看设备插件侧的实现示例。
Damon小智17 天前
深度学习·ai·边缘计算·树莓派·nvidia·开发板·orin nano
探索高性能AI识别和边缘计算 | NVIDIA Jetson Orin Nano 8GB 开发套件的全面测评随着边缘计算和人工智能技术的迅速发展,性能强大的嵌入式AI开发板成为开发者和企业关注的焦点。NVIDIA近期推出的Jetson Orin Nano 8GB开发套件,凭借其40 TOPS算力、高效的Ampere架构GPU以及出色的边缘AI能力,引起了广泛关注。本文将从配置性能、运行YOLOv5算法实测,以及与树莓派系列(Raspberry Pi 4B、Raspberry Pi 5)的横向对比三个维度,全面解析Jetson Orin Nano的实际表现,帮助开发者深入了解其在实时目标检测等AI任务中的优势和适
东锋1.318 天前
gpu·nvidia
NVIDIA(英伟达) GPU 芯片架构发展史CUDA 核心数量(个):决定了 GPU 并行处理能力,在 AI 等并行计算类业务下,CUDA 核心越多性能越好。
berryyan19 天前
nvidia
5090显卡安装与使用DiffSynth-Studio的经验分享(Windows 11环境)50系列通用大家好!今天我想聊聊我在Windows 11系统上安装和使用DiffSynth-Studio的经历。我的电脑用的是5090显卡,所以特别关注了CUDA的支持。希望我的经验能给你们一些参考,尤其是花了很多钱买了50系列显卡的朋友!
CIAS25 天前
ubuntu·nvidia
Ubuntu 22.04 安装Nvidia驱动加速deepseek
Yongqiang Cheng1 个月前
nvidia·nvcc·cuda compiler
NVIDIA CUDA Compiler Driver NVCChttps://docs.nvidia.com/cuda/cuda-compiler-driver-nvcc/
greenery1 个月前
debian·nvidia·飞牛
debian 12 安装 NVIDIA 390驱动记录我的显卡是 04:00.0 VGA compatible controller: NVIDIA Corporation GF119 [GeForce GT 620 OEM] (rev a1)
AlbertS1 个月前
python·ai·stable diffusion·nvidia·venv
Ubuntu20.04部署stable-diffusion-webui环境小记Ubuntu20.04部署stable-diffusion-webui环境小记Stable Diffusion web UI A web interface for Stable Diffusion, implemented using Gradio library.
幻想编织者2 个月前
linux·服务器·ubuntu·nvidia
Ubuntu实时核编译安装与NVIDIA驱动安装教程(ubuntu 22.04,20.04)运行上述命令后出现以下问题;使用以下命令获取密钥:一旦确定文件下载正确,就可以提取源代码并应用补丁:接下来复制当前启动的内核配置作为新实时内核的默认配置:
Damon小智2 个月前
人工智能·机器学习·金融·边缘计算·nvidia·dpu·doca
全面评测 DOCA 开发环境下的 DPU:性能表现、机器学习与金融高频交易下的计算能力分析本文介绍了我在 DOCA 开发环境下对 DPU 进行测评和计算能力测试的一些真实体验和记录。在测评过程中,我主要关注了 DPU 在高并发数据传输和深度学习场景下的表现,以及基本的系统性能指标,包括 CPU 计算、内存带宽、多线程/多进程能力和 I/O 性能,并测试了在机器学习应用下的潜在性能。此外,我重点结合了金融高频交易的应用场景,DOCA 展现出了其在低延迟、高吞吐量和高可靠性方面的卓越优势,进一步证明了其在高性能计算和实时数据处理中的广泛应用潜力。
业余敲代码2 个月前
ubuntu·docker·nvidia·ros2·jstson
NVIDIA 下 基于Ubuntun20.04下 使用脚本安装 ros2-foxy 和 使用docker安装 ros2-foxy本文主要采用两种方式在NVIDIA 下基于 Ubuntun20.04安装 ros2-foxy。 使用环境: NVIDIA 为 Jetson 系列下 Jetson Xavier NX; Ubuntun版本:20.04
gs801403 个月前
ubuntu·gpu·nvidia
ubuntu下 如何将 NVIDIA 内核驱动 升级到特定版本 如550.127要将 NVIDIA 内核驱动 升级到特定版本(例如 550.127),你需要按照以下步骤操作。这个过程通常涉及卸载现有的 NVIDIA 驱动程序并安装新版本的驱动程序。下面是一个逐步指南,适用于 Ubuntu 系统。
扫地的小何尚3 个月前
人工智能·语言模型·自然语言处理·机器人·gpu·nvidia
什么是大型语言模型大型语言模型 (LLM) 是一种深度学习算法,可以使用非常大的数据集识别、总结、翻译、预测和生成内容。
点云兔子3 个月前
wifi·ip·nvidia·nx·hotspot·nano
NX系列-使用 `nmcli` 命令创建 Wi-Fi 热点并设置固定 IP 地址在一些场景下,我们需要将计算机或嵌入式设备(例如 NVIDIA Orin NX)转换为 Wi-Fi 热点,以便其他设备(如手机、笔记本等)能够连接并使用该设备提供的网络连接。通过 nmcli 命令,我们可以在 Linux 系统中非常方便地创建一个无线 AP(Access Point)热点。
self-motivation3 个月前
硬件架构·gpu·nvidia·tensor·cuda
gpu硬件架构NVIDIA在视觉计算和人工智能(AI)领域处于领先地位;其旗舰GPU已成为解决包括高性能计算和人工智能在内的各个领域复杂计算挑战所不可或缺的。虽然它们的规格经常被讨论,但很难掌握各种组件的清晰完整的图景。
程序员非鱼4 个月前
人工智能·深度学习·神经网络·机器学习·nvidia·cuda
深入解析神经网络的GPU显存占用与优化显存(GPU Memory)是图像处理器(GPU)上的专用内存,用于存储和处理图形数据及其他需要高并行计算的数据。在深度学习中,显存主要用于存储神经网络的模型参数、输入数据、中间计算结果(激活值)和梯度信息等。
扫地的小何尚4 个月前
人工智能·aigc·llama·gpu·nvidia·cuda·英伟达
NVIDIA RTX 系统上使用 llama.cpp 加速 LLM适用于 Windows PC 的 NVIDIA RTX AI 平台提供了一个蓬勃发展的生态系统,其中包含数千种开源模型,供应用程序开发人员利用并集成到 Windows 应用程序中。值得注意的是,llama.cpp 是一款流行的工具,在撰写本文时拥有超过 65,000 个 GitHub 星标。这个开源存储库最初于 2023 年发布,是一个轻量级、高效的大型语言模型 (LLM) 推理框架,可在包括 RTX PC 在内的一系列硬件平台上运行。
布鲁格若门4 个月前
人工智能·pytorch·python·nvidia
AMD CPU下pytorch 多GPU运行卡死和死锁解决https://medium.com/@amitparekh/solving-ddp-deadlock-with-multiple-gpus-and-amd-cpus-442186632034
centurysee4 个月前
gpu·nvidia
【一文搞懂】GPU硬件拓扑与传输速度今天查询华为昇腾算力卡的时候发现了一个非常好的博客,讲述了英伟达GPU与华为NPU的一些基础概念,特分享如下。