nvidia

乌恩大侠15 小时前
人工智能·科技·5g·nvidia·6g·usrp
【东枫科技】AMD / Xilinx Alveo™ V80计算加速器卡AMD/Xilinx Alveo ™ V80计算加速器卡是一款功能强大的计算加速器,基于7nm Versal™ 自适应SoC架构而打造。 AMD/Xilinx Alveo V80卡设计用于内存密集型任务。 这些任务包括HPC、数据分析、网络安全、传感器处理、计算存储和金融科技。
落樱弥城14 天前
人工智能·ai·gpu·nvidia·gpgpu
Nvidia显卡架构演进显示卡(英语:Display Card)简称显卡,也称图形卡(Graphics Card),是个人电脑上以图形处理器(GPU)为核心的扩展卡,用途是提供中央处理器以外的微处理器帮助计算图像信息,并将计算机系统所需要的显示信息进行转换并提供逐行或隔行扫描信号给显示设备,是连接显示器和个人电脑主板的重要组件,是“人机交互”的重要设备之一。显卡有时被称为独立显卡或专用显卡,以强调它们与主板上的集成图形处理器(集成显卡)或中央处理器 (CPU) 的区别。   早期显卡主要用来进行图像显示,其主要应用场景为游戏渲染
Panesle18 天前
人工智能·语言模型·llama·nvidia
英伟达开源253B语言模型:Llama-3.1-Nemotron-Ultra-253B-v1 模型情况Llama-3.1-Nemotron-Ultra-253B-v1 是一个基于 Meta Llama-3.1-405B-Instruct 的大型语言模型 (LLM),专为推理、人类对话偏好和任务(如 RAG 和工具调用)而优化。该模型支持 128K 令牌的上下文长度,并可以在单个 8xH100 节点上进行推理。
Panesle20 天前
人工智能·语言模型·llama·nvidia
英伟达Llama-3.1-Nemotron-Ultra-253B-v1语言模型论文快读:FFN Fusion代表模型:Llama-3.1-Nemotron-Ultra-253B-v1本文介绍了一种名为 FFN Fusion 的架构优化技术,旨在通过识别和利用自然并行化机会来减少大型语言模型(LLMs)中的顺序计算。研究发现,移除特定注意力层后剩余的前馈网络(FFN)层序列通常可以并行化,且对准确性影响最小。通过将这些序列转换为并行操作,显著降低了推理延迟,同时保留了模型行为。作者将这种技术应用于 Llama-3.1-405B-Instruct,创建了一个名为 Llama-Nemotron-Ultra-253B-
mortimer1 个月前
github·gpu·nvidia
5090 装机后无法使用 GPU 加速?别急,这里有解决办法!很多喜欢本地部署 AI 项目的朋友,总是追着英伟达最新显卡跑。RTX 4090 刚出时,迫不及待换上,体验飞一般的算力。RTX 5090 发布后,又是一波抢购热潮。然而,装上 5090 后,悲剧出现了:程序跑不动 GPU 加速,速度慢得像乌龟,甚至直接报错崩溃,连启动都成问题!
kcarly1 个月前
ai·ai绘画·nvidia·tensorrt
TensorRT 有什么特殊之处TensorRT是NVIDIA推出的高性能深度学习推理优化器和运行时库,专注于将训练好的模型在GPU上实现低延迟、高吞吐量的部署。其主要功能包括:
天朝八阿哥1 个月前
debian·nvidia
Debian安装Nvidia驱动文章首发于个人博客系统安装完之后,默认的显卡驱动就能好好的工作,这点还是比较满意的,但用久了之后就会发现:看个高清视频啥的,CPU使用率就会蹭蹭上去,风扇呼呼的,总感觉N卡压根就没派上用场,所以就想换上Nvidia的闭源驱动看看效果。
扫地的小何尚1 个月前
c++·人工智能·深度学习·gpu·nvidia·cuda
NVIDIA TensorRT 深度学习推理加速引擎详解在当今人工智能和深度学习快速发展的时代,模型推理性能已成为实际应用中的关键瓶颈。无论是需要实时响应的自动驾驶系统,还是要处理海量数据的推荐引擎,亦或是资源受限的边缘设备上的AI应用,都对推理速度、延迟和能耗提出了严苛的要求。NVIDIA TensorRT作为一个高性能的深度学习推理优化器和运行时环境,正是为解决这些挑战而生。
放羊郎1 个月前
网络·nvidia·英伟达·游戏显卡·rtx
英伟达消费级RTX显卡配置表
nuczzz2 个月前
kubernetes·k8s·gpu·nvidia·cuda
NVIDIA k8s-device-plugin源码分析与安装部署在《kubernetes Device Plugin原理与源码分析》一文中,我们从源码层面了解了kubelet侧关于device plugin逻辑的实现逻辑,本文以nvidia管理GPU的开源github项目k8s-device-plugin为例,来看看设备插件侧的实现示例。
Damon小智2 个月前
深度学习·ai·边缘计算·树莓派·nvidia·开发板·orin nano
探索高性能AI识别和边缘计算 | NVIDIA Jetson Orin Nano 8GB 开发套件的全面测评随着边缘计算和人工智能技术的迅速发展,性能强大的嵌入式AI开发板成为开发者和企业关注的焦点。NVIDIA近期推出的Jetson Orin Nano 8GB开发套件,凭借其40 TOPS算力、高效的Ampere架构GPU以及出色的边缘AI能力,引起了广泛关注。本文将从配置性能、运行YOLOv5算法实测,以及与树莓派系列(Raspberry Pi 4B、Raspberry Pi 5)的横向对比三个维度,全面解析Jetson Orin Nano的实际表现,帮助开发者深入了解其在实时目标检测等AI任务中的优势和适
东锋1.32 个月前
gpu·nvidia
NVIDIA(英伟达) GPU 芯片架构发展史CUDA 核心数量(个):决定了 GPU 并行处理能力,在 AI 等并行计算类业务下,CUDA 核心越多性能越好。
berryyan2 个月前
nvidia
5090显卡安装与使用DiffSynth-Studio的经验分享(Windows 11环境)50系列通用大家好!今天我想聊聊我在Windows 11系统上安装和使用DiffSynth-Studio的经历。我的电脑用的是5090显卡,所以特别关注了CUDA的支持。希望我的经验能给你们一些参考,尤其是花了很多钱买了50系列显卡的朋友!
CIAS2 个月前
ubuntu·nvidia
Ubuntu 22.04 安装Nvidia驱动加速deepseek
Yongqiang Cheng2 个月前
nvidia·nvcc·cuda compiler
NVIDIA CUDA Compiler Driver NVCChttps://docs.nvidia.com/cuda/cuda-compiler-driver-nvcc/
greenery2 个月前
debian·nvidia·飞牛
debian 12 安装 NVIDIA 390驱动记录我的显卡是 04:00.0 VGA compatible controller: NVIDIA Corporation GF119 [GeForce GT 620 OEM] (rev a1)
AlbertS3 个月前
python·ai·stable diffusion·nvidia·venv
Ubuntu20.04部署stable-diffusion-webui环境小记Ubuntu20.04部署stable-diffusion-webui环境小记Stable Diffusion web UI A web interface for Stable Diffusion, implemented using Gradio library.
幻想编织者3 个月前
linux·服务器·ubuntu·nvidia
Ubuntu实时核编译安装与NVIDIA驱动安装教程(ubuntu 22.04,20.04)运行上述命令后出现以下问题;使用以下命令获取密钥:一旦确定文件下载正确,就可以提取源代码并应用补丁:接下来复制当前启动的内核配置作为新实时内核的默认配置:
Damon小智3 个月前
人工智能·机器学习·金融·边缘计算·nvidia·dpu·doca
全面评测 DOCA 开发环境下的 DPU:性能表现、机器学习与金融高频交易下的计算能力分析本文介绍了我在 DOCA 开发环境下对 DPU 进行测评和计算能力测试的一些真实体验和记录。在测评过程中,我主要关注了 DPU 在高并发数据传输和深度学习场景下的表现,以及基本的系统性能指标,包括 CPU 计算、内存带宽、多线程/多进程能力和 I/O 性能,并测试了在机器学习应用下的潜在性能。此外,我重点结合了金融高频交易的应用场景,DOCA 展现出了其在低延迟、高吞吐量和高可靠性方面的卓越优势,进一步证明了其在高性能计算和实时数据处理中的广泛应用潜力。
业余敲代码4 个月前
ubuntu·docker·nvidia·ros2·jstson
NVIDIA 下 基于Ubuntun20.04下 使用脚本安装 ros2-foxy 和 使用docker安装 ros2-foxy本文主要采用两种方式在NVIDIA 下基于 Ubuntun20.04安装 ros2-foxy。 使用环境: NVIDIA 为 Jetson 系列下 Jetson Xavier NX; Ubuntun版本:20.04