cuda

码上飞扬4 天前
cuda
深入浅出:CUDA是什么,如何利用它进行高效并行计算在当今这个数据驱动的时代,计算能力的需求日益增加,特别是在深度学习、科学计算和图像处理等领域。为了满足这些需求,NVIDIA推出了CUDA(Compute Unified Device Architecture),这是一种并行计算平台和编程模型。本文将带你全面了解CUDA的基本概念、工作原理及其应用场景。
qxyywy4 天前
ide·visual studio·cuda
CUDA 安装 一直卡在Installing Nsight Visual Studio Edition最近在安装CUDA的时候,CUDA 安装 一直卡在Installing Nsight Visual Studio Edition,莫名的一直卡在安装进行中这儿,过很久都没进度,如图 后面重新下载了12.6的进行安装也是如此 无论是local还是network,都是这样。度娘找了一堆资料依旧如此,百度AI给的提示如
Eloudy11 天前
量子计算·cuda·量子力学
ubuntu 22.04 cuda12.x 上 cutensor 1.6.2 版本环境搭建ubuntu 22.04 cuda12.x 运行 cutensor 1.6.2 sample1.6.2 是比较久的cutensor 版本,但是nv对新的cuda 平台做了继续支持,故可以在cuda sdk 12上使用cutensor 1.6.2
软件开发和挖掘机技术22 天前
linux·运维·服务器·cuda·deepin
在深度Linux (Deepin) 20中安装Nvidia驱动文章创作不易,麻烦大家点赞关注收藏一键三连。在Deepin上面跑Tensorflow, pytorch等人工智能框架不是一件容易的事情。特别是如果你要使用GPU,就得有nvidia的驱动。默认情况下Deepin系统自带的是nouveau开源驱动。这是没办法用tensorflow的。下面内容是如何在Deepin 20.3中安装nvidia驱动。
Channing Lewis23 天前
电脑·cuda
电脑要使用cuda需要进行什么配置在电脑上使用CUDA(NVIDIA的并行计算平台和API),需要进行以下配置和准备:确保你的电脑拥有支持CUDA的NVIDIA显卡。 可以在NVIDIA官方CUDA支持显卡列表中查看显卡型号是否支持CUDA。
laugh123211 个月前
环境配置·tensorrt·cuda·c/c++
性能飞跃!TensorRT-YOLO 6.0 全面升级解析与实战指南TensorRT-YOLO 6.0 引入了创新的多Context共享引擎机制,允许多个线程共享同一个Engine进行推理,最大化硬件资源利用率,同时显著降低内存占用。这一设计使得多任务并发推理更加高效,尤其适合需要同时处理多路视频流或大规模数据推理的场景。
蛔虫在他乡1 个月前
pycharm·tensorflow·cuda·cudnn
tensorflow,cuda,cudnn,pycharm安装踩坑过程记录其实已经进入后半程了,那就是cuda安装卸载出现的版本过多冲突的问题,记录一下(毕竟总能配好环境的对吧?) 参考 参考 这里查看显卡类型,是因为我在看别人说nvidia显卡保留三个东西,剩下的全部删除,我发现我保留的那三个只有一个,也就需要重新下载一下nvidia显卡了 然后这里我们可以看到CUDA推荐下载版本是12.7呵呵呵呵呵 这个官网都没更新到12.7的对应版本,我当时就是傻乎乎的跟这个推荐下载了12.6,导致后面的一系列问题,之前在笔记本上(无GPU的时候用tensorflow2.9.0还是比较稳
DWQY1 个月前
cuda
ubuntu22.04降级安装CUDA11.3环境:主机x64的ubuntu22.04,原有CUDA12.1,但是现在需要CUDA11.3,本篇文章介绍步骤。
Little_Yuu1 个月前
cuda·cudnn
windows11(或centos7)安装nvidia显卡驱动、CUDA、cuDNN本文是我瞎搞时写的问题汇总及参考文献,记录了一些问题解决的进度及对问题的思考。首先,需要确保你的设备安装了最新的显卡驱动。
engchina2 个月前
人工智能·线性代数·cuda·cutlass
CUTLASS:高性能 CUDA 线性代数模板库详解在深度学习和高性能计算领域,GPU 加速的线性代数计算(如矩阵乘法、卷积等)是核心操作之一。为了充分发挥 GPU 的性能,NVIDIA 推出了 CUTLASS(CUDA Templates for Linear Algebra Subroutines and Solvers),这是一个高效、灵活的 CUDA C++ 模板库。本文将详细介绍 CUTLASS 的概念、用途、安装方法以及如何使用它来加速计算。
黄白柴柴2 个月前
cuda·cudnn
cudnn版本gpu架构nvcc --help 可以看 --gpu-architecture 写到的支持的架构NVIDIA 的 GPU 架构是按代次发布的,以下是这些架构的对应说明:
IT修炼家2 个月前
大模型·cuda·auto-gptq
auto-gptq安装以及不适配软硬件环境可能出现的问题及解决方式Auto-GPTQ 是一种专注于 量化深度学习模型 的工具库。它的主要目标是通过量化技术(Quantization)将大型语言模型(LLM)等深度学习模型的大小和计算复杂度显著减少,从而提高推理效率,同时尽可能保持模型的性能。
爱听歌的周童鞋2 个月前
tensorrt·cuda·deploy·mde·depth anything
Depth-Anything推理详解及部署实现(下)在 Depth-Anything推理详解及部署实现(上) 文章中我们有提到如何导出 Depth Anything 的 ONNX 模型,这篇文章就来看看如何在 tensorRT 上推理得到结果
因为风的缘故~2 个月前
pytorch·深度学习·tensorrt·cuda·anaconda·cudnn
Ubuntu22.04安装cuda12.1+cudnn8.9.2+TensorRT8.6.1+pytorch2.3.0+opencv_cuda4.9+onnxruntime-gpu1.18说来话长,我想配一个一劳永逸的环境,方便以后复用。省的以后反复查教程重新装了这块内容来自:https://docs.infini-ai.com/posts/install-cuda-on-devmachine.html
ai-guoyang2 个月前
深度学习·tensorflow·cuda·anaconda
tensorflow gpu版安装(直接anaconda虚拟环境中配置cuda,无需主机安装cuda、cudnn)cuda可以直接装到电脑上,但是安装步骤复杂,且失败率较高。选择anaconda虚拟环境安装,操作简单,且可以结合pytorch、tensorflow等深度学习框架的不同版本,安装不同的版本的cuda,各个虚拟环境互不干扰,也可以一键删除。
self-motivation2 个月前
硬件架构·gpu·nvidia·tensor·cuda
gpu硬件架构NVIDIA在视觉计算和人工智能(AI)领域处于领先地位;其旗舰GPU已成为解决包括高性能计算和人工智能在内的各个领域复杂计算挑战所不可或缺的。虽然它们的规格经常被讨论,但很难掌握各种组件的清晰完整的图景。
枫舞雪域2 个月前
linux·笔记·cuda·isaacsim·iassclab
Ubuntu22.04安装英伟达驱动目录1.1 禁用nouveau驱动1.2 安装必要的依赖项1.3 下载安装1.4 查看是否安装成功1.5 安装CUDA
爱串门的小马驹2 个月前
cuda
CUDA 计时功能,记录GPU程序/函数耗时,cudaEventCreate,cudaEventRecord,cudaEventElapsedTime为了测试GPU函数的耗时,可以使用 CUDA 提供的计时功能:cudaEventCreate, cudaEventRecord, 和 cudaEventElapsedTime。这些函数可以帮助你测量某个 CUDA 操作(如设置设备)所花费的时间。
程序员非鱼2 个月前
人工智能·深度学习·神经网络·机器学习·nvidia·cuda
深入解析神经网络的GPU显存占用与优化显存(GPU Memory)是图像处理器(GPU)上的专用内存,用于存储和处理图形数据及其他需要高并行计算的数据。在深度学习中,显存主要用于存储神经网络的模型参数、输入数据、中间计算结果(激活值)和梯度信息等。
kolaseen3 个月前
pytorch·python·深度学习·docker·gpu·cuda·ncu
NCU使用指南及模型性能测试(pytorch2.5.1)本项目在原项目的基础上增加了Nsight Compute(ncu)测试的功能,并对相关脚本功能做了一些健硕性的增强,同时,对一些框架的代码进行了更改(主要是数据集的大小和epoch等),增加模型性能测试的效率,同时完善了模型LSTM的有关功能。