CUDA编程入门系列(十一)CUDA程序优化技巧

优化原则:最大化并行执行

探索并行化:

优化线程块的规模

我们在设计CUDA程序的时候,要对线程块的个数进行考虑。因为GPU中流处理器SM的数量是相对固定的,所以我们应该尽量的将多个block放到同一个SM当中(至少保证每个SM中都有一个块),使得SM时刻处于活跃状态。但如果块所需资源过多,那么一个SM能够同时处理的块就比较少。

优化线程块的大小

因为SM是以warp为单位的,那么我们就要尽量的保证块的大小是32的倍数,使得所有的warp中所有的线程都处于活跃状态。如果块上的线程多的话,就可以隐藏一些内存的延迟。但是,如果一个块上的线程越多,每个线程拥有的寄存器大小就越小。

最大化Occupancy

基本策略

极小化CPU和GPU之间的数据传输

极大化使用共享内存

优化内存使用模式

全局内存:对齐与合并访问

共享内存:防止bank conflict

优化优先级

指令优化:原则

结论

相关推荐
奔跑吧邓邓子4 分钟前
DeepSeek 赋能智能教育知识图谱:从构建到应用的革命性突破
人工智能·知识图谱·应用·deepseek·智能教育
Mantanmu6 分钟前
Python训练day40
人工智能·python·机器学习
ss.li12 分钟前
TripGenie:畅游济南旅行规划助手:个人工作纪实(二十二)
javascript·人工智能·python
小天才才22 分钟前
前沿论文汇总(机器学习/深度学习/大模型/搜广推/自然语言处理)
人工智能·深度学习·机器学习·自然语言处理
l木本I26 分钟前
大模型低秩微调技术 LoRA 深度解析与实践
python·深度学习·自然语言处理·lstm·transformer
新加坡内哥谈技术1 小时前
Meta计划借助AI实现广告创作全自动化
运维·人工智能·自动化
西猫雷婶1 小时前
pytorch基本运算-导数和f-string
人工智能·pytorch·python
Johny_Zhao1 小时前
华为MAAS、阿里云PAI、亚马逊AWS SageMaker、微软Azure ML各大模型深度分析对比
linux·人工智能·ai·信息安全·云计算·系统运维
顽强卖力1 小时前
第二十八课:深度学习及pytorch简介
人工智能·pytorch·深度学习
述雾学java1 小时前
深入理解 transforms.Normalize():PyTorch 图像预处理中的关键一步
人工智能·pytorch·python