CMAKE_CUDA_ARCHITECTURES set to ‘native’多版本与版本号矛盾问题,报错

CMAKE_CUDA_ARCHITECTURES set to 'native'多版本与版本号矛盾问题,报错

      • [1. 报错提醒如下图](#1. 报错提醒如下图)
      • [2. 原因本地安装多个cuda版本导致native寻找到多个版本,导致报错](#2. 原因本地安装多个cuda版本导致native寻找到多个版本,导致报错)
      • [3. 具体配置需要根据你的显卡型号来确认](#3. 具体配置需要根据你的显卡型号来确认)

1. 报错提醒如下图

2. 原因本地安装多个cuda版本导致native寻找到多个版本,导致报错

If automatic GPU architecture detection fails, (as can happen if you have multiple GPUs installed), set the TCNN_CUDA_ARCHITECTURES environment variable for the GPU you would like to use. The following table lists the values for common GPUs. If your GPU is not listed, consult this exhaustive list.

原先设置如下:

复制代码
-DCMAKE_CUDA_ARCHITECTURES=native -DCMAKE_CUDA_COMPILER="/usr/local/cuda-12.0/bin/nvcc"

修改后设置如下:

复制代码
-DCMAKE_CUDA_ARCHITECTURES=86 -DCMAKE_CUDA_COMPILER="/usr/local/cuda-12.0/bin/nvcc"

3. 具体配置需要根据你的显卡型号来确认

参考下面的表格:

再次设置如下,即可:

相关推荐
智星云算力2 天前
本地GPU与租用GPU混合部署:混合算力架构搭建指南
人工智能·架构·gpu算力·智星云·gpu租用
xingyuzhisuan2 天前
Blender渲染加速:4090服务器OptiX后端性能提升50%
运维·服务器·性能优化·gpu算力
xingyuzhisuan2 天前
LoRA微调实战:8卡4090服务器如何高效微调LLaMA?
运维·服务器·llama·gpu算力
yumgpkpm3 天前
华为昇腾910B上用Kubernetes(K8s)部署LLM和用Docker部署LLM的区别
docker·chatgpt·容器·stable diffusion·kubernetes·llama·gpu算力
小驴程序源8 天前
【OpenClaw 完整安装实施教程(Windows + Ollama 本地模型)】
gpt·langchain·aigc·embedding·ai编程·llama·gpu算力
xingyuzhisuan8 天前
给4090服务器配电源:8卡并行需要多少瓦才稳定?
服务器·网络·云计算·gpu算力
xingyuzhisuan9 天前
遇到GPU驱动冲突问题,云厂商通常提供怎样的技术支持?
大数据·人工智能·gpu算力
xingyuzhisuan10 天前
4090部署DeepSeek-V3:CPU卸载层数实测指南
运维·深度学习·gpu算力
xingyuzhisuan10 天前
怎么快速在云上部署一个Stable Diffusion环境?(实操落地版)
人工智能·stable diffusion·ai绘画·gpu算力
yumgpkpm11 天前
华为昇腾910B(Ascend 910B)+ LLaMA-Factory 对 Qwen3.5-32B 模型进行 LoRA 微调 的全流程操作指南
开源·prompt·copilot·embedding·llama·gpu算力·gitcode