CMAKE_CUDA_ARCHITECTURES set to ‘native’多版本与版本号矛盾问题,报错

CMAKE_CUDA_ARCHITECTURES set to 'native'多版本与版本号矛盾问题,报错

      • [1. 报错提醒如下图](#1. 报错提醒如下图)
      • [2. 原因本地安装多个cuda版本导致native寻找到多个版本,导致报错](#2. 原因本地安装多个cuda版本导致native寻找到多个版本,导致报错)
      • [3. 具体配置需要根据你的显卡型号来确认](#3. 具体配置需要根据你的显卡型号来确认)

1. 报错提醒如下图

2. 原因本地安装多个cuda版本导致native寻找到多个版本,导致报错

If automatic GPU architecture detection fails, (as can happen if you have multiple GPUs installed), set the TCNN_CUDA_ARCHITECTURES environment variable for the GPU you would like to use. The following table lists the values for common GPUs. If your GPU is not listed, consult this exhaustive list.

原先设置如下:

复制代码
-DCMAKE_CUDA_ARCHITECTURES=native -DCMAKE_CUDA_COMPILER="/usr/local/cuda-12.0/bin/nvcc"

修改后设置如下:

复制代码
-DCMAKE_CUDA_ARCHITECTURES=86 -DCMAKE_CUDA_COMPILER="/usr/local/cuda-12.0/bin/nvcc"

3. 具体配置需要根据你的显卡型号来确认

参考下面的表格:

再次设置如下,即可:

相关推荐
wei_shuo2 天前
GpuGeek 实操指南:So-VITS-SVC 语音合成与 Stable Diffusion 文生图双模型搭建,融合即梦 AI 的深度实践
人工智能·stable diffusion·gpu算力·gpuseek
九章云极AladdinEdu2 天前
GPU SIMT架构的极限压榨:PTX汇编指令级并行优化实践
汇编·人工智能·pytorch·python·深度学习·架构·gpu算力
wei_shuo4 天前
深度剖析 GpuGeek 实例:GpuGeek/Qwen3-32B 模型 API 调用实践与性能测试洞察
大模型·gpu算力·gpuseek
GpuGeek7 天前
一文走进GpuGeek | conda常用命令
人工智能·conda·gpu算力·云平台
搬砖的小码农_Sky7 天前
人形机器人:主控芯片
人工智能·机器人·硬件架构·硬件工程·gpu算力
九章云极AladdinEdu11 天前
算力经济模型推演:从中心化到去中心化算力市场的转变(区块链+智能合约的算力交易原型设计)
人工智能·机器学习·去中心化·区块链·智能合约·gpu算力·量子计算
乌旭14 天前
AIGC算力消耗白皮书:Stable Diffusion vs Midjourney的架构成本差异
人工智能·深度学习·stable diffusion·架构·aigc·midjourney·gpu算力
乌旭14 天前
算力经济模型研究:从云计算定价到去中心化算力市场设计
人工智能·深度学习·云计算·去中心化·区块链·gpu算力·risc-v
搬砖的小码农_Sky15 天前
AI大模型基础设施:主流的几款开源AI大语言模型的本地部署成本
人工智能·语言模型·开源·gpu算力
乌旭16 天前
RISC-V GPU架构研究进展:在深度学习推理场景的可行性验证
人工智能·深度学习·架构·transformer·边缘计算·gpu算力·risc-v