nvidia

GitLqr3 天前
openai·nvidia·lovable
一周AI | 国际:NVIDIA、OpenAI、MidJourney 等行业巨头的创新与布局本文为您整理了近期在人工智能领域引人注目的创新模型和工具,包括 NVIDIA 的 Canary-Qwen-2.5B 语音模型、OpenAI 的 ChatGPT Agent 与 macOS 录音功能、MidJourney 的企业 API 探索,以及瑞典 AI 新贵 Lovable 的快速崛起和 Windsurf 平台的模型合作。让我们一探这些技术背后的最新趋势与应用场景。
GitLqr5 天前
nvidia·deepseek·mcp
一周AI | 国内:黄仁勋访华,宇树上市辅导,12306 MCP,Kimi K2 赶超 DeepSeek ...今日为大家带来多项全球科技行业的重要动态,涵盖英伟达 CEO 黄仁勋对中国科技的高度评价、国产机器人公司宇树科技的 IPO 进展、开源火车票查询后端系统的发布、百度小度物联网创新以及国产大型模型 Kimi K2 的性能突破,此外还包括字节跳动联合香港大学等推出的强化学习训练方法 POLARIS。
云上小朱7 天前
nvidia
软件安装-在ubuntu24安装nvidia driver和cuda toolkit在ubuntu24操作系统部署nvidia driver和cuda toolkit。任意版本的安装。下载文件,部署软件,测试可用性。
羊八井14 天前
pytorch·python·nvidia
使用 Earth2Studio 和 AI 模型进行全球天气预测:太阳辐照太阳能作为一种关键的可再生能源,其稳定性和效率在很大程度上取决于对太阳辐照度的精确预测。本文将指导您如何利用 NVIDIA 的 Earth2Studio 框架,结合强大的 FourCastNet (SFNO) 天气预报模型和 SolarRadiationAFNO 诊断模型,轻松实现全球范围内的太阳辐照度(GHI)预测。
神也佑我橙橙15 天前
linux·ubuntu·nvidia
Ubuntu 22.04 安装英伟达驱动https://www.nvidia.cn/Download/index.aspx?lang=cn#可以通过 gcc -v 查看版本,切换 gcc 版本可以参考这篇文章Ubuntu 切换GCC版本_ubuntu切换gcc版本-CSDN博客
cnbestec1 个月前
机器人·nvidia·协作机器人·优傲机器人·关节扭矩控制·ur机器人
UR机器人解锁关节扭矩控制:利用英伟达Isaac Lab框架,推动装配自动化的Sim2Real迁移在工业制造领域,机器人装配长期依赖固定自动化模式,面临部署成本高、适配性差等挑战。多部件装配是制造业、汽车及航空航天等行业中的核心环节。传统装配系统通常针对特定任务设计,依赖大量人工工程部署,灵活性不足,难以应对多样化产品和动态生产需求。
nuczzz2 个月前
docker·kubernetes·k8s·gpu·nvidia
GPU虚拟化现有如下环境(注意相关配置:只有一个k8s节点,且该节点上只有一张GPU卡):在上述单节点的k8s环境中,我先用如下配置了使用GPU的yaml起一个pod:
乌恩大侠2 个月前
人工智能·科技·labview·nvidia·usrp
【东枫科技】使用LabVIEW进行NVIDIA CUDA GPU 开发CuLab 是一款非常直观易用的 LabVIEW 工具包,旨在加速 Nvidia GPU 上的计算密集型任务。CuLab
yangtzi2 个月前
nvidia·hyper-v·gpu-p·doracloud
Windows Server 2025开启GPU分区(GPU-P)部署DoraCloud云桌面本文描述在ShareStation工作站虚拟化方案的部署过程。 将服务器上部署 Windows Server、DoraCloud,并创建带有vGPU的虚拟桌面。
乌恩大侠3 个月前
大数据·人工智能·科技·spark·nvidia
【东枫科技】代理销售 NVIDIA DGX Spark 您的桌上有一台 Grace Blackwell AI 超级计算机。NVIDIA GB10 Grace Blackwell超级芯片 FP4 AI 性能达到 1,000 AI TOPS 128GB 一致、统一的系统内存 ConnectX-7 智能网卡 高达 4TB 存储空间 150毫米长 x 150毫米宽 x 50.5毫米高
乌恩大侠3 个月前
人工智能·科技·nvidia·6g·usrp
【东枫科技】代理英伟达产品:DPU400Gb/s 基础设施计算平台NVIDIA ® BlueField ® -3 数据处理单元 (DPU) 是第三代基础设施计算平台,使企业能够构建从云端到核心数据中心再到边缘的软件定义、硬件加速的 IT 基础设施。借助 400Gb/s 以太网或 NDR 400Gb/s InfiniBand 网络连接,BlueField-3 DPU 可以卸载、加速和隔离软件定义的网络、存储、安全和管理功能,从而显著提高数据中心的性能、效率和安全性。BlueField
乌恩大侠3 个月前
人工智能·科技·5g·nvidia·6g·usrp
【东枫科技】AMD / Xilinx Alveo™ V80计算加速器卡AMD/Xilinx Alveo ™ V80计算加速器卡是一款功能强大的计算加速器,基于7nm Versal™ 自适应SoC架构而打造。 AMD/Xilinx Alveo V80卡设计用于内存密集型任务。 这些任务包括HPC、数据分析、网络安全、传感器处理、计算存储和金融科技。
落樱弥城3 个月前
人工智能·ai·gpu·nvidia·gpgpu
Nvidia显卡架构演进显示卡(英语:Display Card)简称显卡,也称图形卡(Graphics Card),是个人电脑上以图形处理器(GPU)为核心的扩展卡,用途是提供中央处理器以外的微处理器帮助计算图像信息,并将计算机系统所需要的显示信息进行转换并提供逐行或隔行扫描信号给显示设备,是连接显示器和个人电脑主板的重要组件,是“人机交互”的重要设备之一。显卡有时被称为独立显卡或专用显卡,以强调它们与主板上的集成图形处理器(集成显卡)或中央处理器 (CPU) 的区别。   早期显卡主要用来进行图像显示,其主要应用场景为游戏渲染
Panesle3 个月前
人工智能·语言模型·llama·nvidia
英伟达开源253B语言模型:Llama-3.1-Nemotron-Ultra-253B-v1 模型情况Llama-3.1-Nemotron-Ultra-253B-v1 是一个基于 Meta Llama-3.1-405B-Instruct 的大型语言模型 (LLM),专为推理、人类对话偏好和任务(如 RAG 和工具调用)而优化。该模型支持 128K 令牌的上下文长度,并可以在单个 8xH100 节点上进行推理。
Panesle3 个月前
人工智能·语言模型·llama·nvidia
英伟达Llama-3.1-Nemotron-Ultra-253B-v1语言模型论文快读:FFN Fusion代表模型:Llama-3.1-Nemotron-Ultra-253B-v1本文介绍了一种名为 FFN Fusion 的架构优化技术,旨在通过识别和利用自然并行化机会来减少大型语言模型(LLMs)中的顺序计算。研究发现,移除特定注意力层后剩余的前馈网络(FFN)层序列通常可以并行化,且对准确性影响最小。通过将这些序列转换为并行操作,显著降低了推理延迟,同时保留了模型行为。作者将这种技术应用于 Llama-3.1-405B-Instruct,创建了一个名为 Llama-Nemotron-Ultra-253B-
mortimer4 个月前
github·gpu·nvidia
5090 装机后无法使用 GPU 加速?别急,这里有解决办法!很多喜欢本地部署 AI 项目的朋友,总是追着英伟达最新显卡跑。RTX 4090 刚出时,迫不及待换上,体验飞一般的算力。RTX 5090 发布后,又是一波抢购热潮。然而,装上 5090 后,悲剧出现了:程序跑不动 GPU 加速,速度慢得像乌龟,甚至直接报错崩溃,连启动都成问题!
kcarly4 个月前
ai·ai绘画·nvidia·tensorrt
TensorRT 有什么特殊之处TensorRT是NVIDIA推出的高性能深度学习推理优化器和运行时库,专注于将训练好的模型在GPU上实现低延迟、高吞吐量的部署。其主要功能包括:
天朝八阿哥4 个月前
debian·nvidia
Debian安装Nvidia驱动文章首发于个人博客系统安装完之后,默认的显卡驱动就能好好的工作,这点还是比较满意的,但用久了之后就会发现:看个高清视频啥的,CPU使用率就会蹭蹭上去,风扇呼呼的,总感觉N卡压根就没派上用场,所以就想换上Nvidia的闭源驱动看看效果。
扫地的小何尚4 个月前
c++·人工智能·深度学习·gpu·nvidia·cuda
NVIDIA TensorRT 深度学习推理加速引擎详解在当今人工智能和深度学习快速发展的时代,模型推理性能已成为实际应用中的关键瓶颈。无论是需要实时响应的自动驾驶系统,还是要处理海量数据的推荐引擎,亦或是资源受限的边缘设备上的AI应用,都对推理速度、延迟和能耗提出了严苛的要求。NVIDIA TensorRT作为一个高性能的深度学习推理优化器和运行时环境,正是为解决这些挑战而生。
放羊郎4 个月前
网络·nvidia·英伟达·游戏显卡·rtx
英伟达消费级RTX显卡配置表