神经网络处理器优化设计(一)

神经网络处理器优化设计,涉及到一些特殊和通用处理流程,一是降低硬件成本,二是提高性能。

一 跨层流水线调度

这里主要针对深度可分离卷积,将Pointwise conv与Depthwise卷积并行处理,好处是,减小整体流水时延,增加吞吐量,同时隐藏中间层数据写入/读出DDR。需要平衡两者之间的缓存和吞吐速率。

二 输入通道聚合

通常,输入特征图第一层输入的通道一般是RGB三通道或者单通道(灰度图或者红外)。而我们自己在设计神经网络处理器的输入通道并行度Tn时,一般Tn远大于3或者1,因此会在计算第一层输入特征图的卷积计算时,导致计算单元利用率较低。如下图所示。

以Tn=32,Kernel=3*3为例,通道聚合前,第一层卷积计算过程中,一个时钟周期,计算引擎32个输入并行度仅有3个特征图通道参与有效计算,PE计算利用率仅有3/32,造成计算资源浪费;按照图b,对输入通道进行重排和聚合后,在一个时钟周期内,计算引擎可以并行计算27个通道的卷积计算(一个完整3*3卷积窗口重排聚合为27的并行像素),PE计算效率提升为27/32,极大提升加速器吞吐量。

接下来给出一种简化的通道聚合硬件实现方案。该方案以较小的资源消耗和代价,数据调度架构和控制和其他层处理复用相同逻辑,只是针对第一层特征图做一些预处理,即可完成通道融合处理。

三 多算子融合

待补充

相关推荐
弹简特几秒前
【AI辅助趣学SpringAI】03-聊天模型之SSE流式编程
人工智能·sse·springai
传说故事2 分钟前
【论文阅读】RoboCodeX: Multimodal Code Generation for Robotic Behavior Synthesis
论文阅读·人工智能·具身智能
桌面运维家13 分钟前
IDV云桌面vDisk机房建设方案如何查看分组使用统计
大数据·人工智能
前端摸鱼匠17 分钟前
【AI大模型春招面试题25】掩码自注意力(Masked Self-Attention)与普通自注意力的区别?适用场景?
人工智能·ai·面试·大模型·求职招聘
我是大聪明.20 分钟前
RAG检索增强生成技术深度解析
人工智能
沫儿笙21 分钟前
FANUC发那科机器人新能源车焊接节气装置
人工智能·机器人
2401_8322981022 分钟前
OpenClaw云服务器优化技巧:降本50%,性能提升3倍
人工智能
王莎莎-MinerU25 分钟前
MinerU + LangChain 实战:从 PDF 解析到 AI 问答全流程
人工智能·langchain·pdf·开源·产品运营·团队开发·个人开发
赋创小助手27 分钟前
RTX PRO 6000 vs RTX 5090:从一组230B模型测试数据谈企业级推理选型
服务器·人工智能·科技·深度学习·自然语言处理
尤老师FPGA29 分钟前
Framebuffer的讲解
fpga开发