记录 | CUDA编程中用constexpr替代__host__&__device__

比如用 __host__ & __device__ 的情况如下:

复制代码
#include <cstdio>
#include <cuda_runtime.h>

__host__ __device__ void say_hello(){
    printf("Hello, world!\n");
}

__global__ void kernel(){
    say_hello();
}

int main(){
    kernel<<<1, 1>>>();
    cudaDeviceSynchronize();
    say_hello();
    return 0;
}
}

则可以用 constexpr 来替代 __host__ __device,替代后的代码如下:

复制代码
#include <cstdio>
#include <cuda_runtime.h>

constexpr const char* cuthead(const char* p){
    return p+1;
}

__global__ void kernel(){
    printf(cuthead("Gello, world!\n"));
}

int main(){
    kernel<<<1, 1>>>();
    cudaDeviceSynchronize();
    printf(cuthead("Cello, world!\n"));
    return 0;
}

● 这样相当于把 constexpr 函数自动变成修饰符 __host__ __device__ ,从而两边都可以调用;

● 因为 constexpr 通常都是一些可以内联的函数,数学计算表达式之类的,一个个加上太累了,所以产生了这个需求;

● 不过必须指定 --expt-relaxed-constexpr 这个选项才能用这个特性,咱们可以用 CMake 的生成器表达式来实现只对 .cu 文件开启此选项 (不然给到 gcc 就出错了);

复制代码
# 这个.cu用nvcc编译就是这样的 
nvcc demo.cu --expt-relaxed-constexpr

● constexpr里面没办法调用 printf,也不能用 __syncthreads 之类的 GPU 特有的函数,因此也不能完全替代 __host____device__

相关推荐
爱串门的小马驹5 天前
VScode编译调试debug,gpu的cuda程序,Nsight
vscode·gpu·cuda
阿巴阿阿巴巴巴巴7 天前
【深度学习相关安装及配环境】Anaconda搭建虚拟环境并安装CUDA、cuDVV和对应版本的Pytorch,并在jupyter notebook上部署
人工智能·pytorch·python·深度学习·jupyter·cuda
r0ysue_13 天前
5060显卡驱动PyCUDA开发环境搭建
cuda·驱动·5060ti
易·木13 天前
在Visual Studio中进行cuda编程
visual studio·cuda
chen_song_15 天前
CUDA的设备,流处理器(Streams),核,线程块(threadblock),线程,网格(‌gridDim),块(block)和多gpu设备同步数据概念
c++·人工智能·计算机视觉·数据挖掘·cuda编程·并行化计算·并行化计算与cuda编程
weixin_4284984916 天前
NVC++ 介绍与使用指南
c++·cuda
hjjdebug22 天前
constexpr 关键字的意义(入门)
c++·constexpr
秣厉科技22 天前
【秣厉科技】LabVIEW工具包——OpenCV 教程(21):CUDA 加速方案
opencv·labview·dnn·cuda·秣厉
csdnzzt23 天前
CUDA编程——性能优化基本技巧
性能优化·矩阵·cuda
Milton24 天前
3D Gaussian Splatting 查看工具 splatviz
cuda·3d gaussian splatting