技术栈

定点化

AndrewHZ
21 天前
pytorch·算法·芯片设计·模型量化·定点化·芯片算法·逻辑电路
【芯芯相印】什么是算法定点化?算法定点化(Algorithm Quantization)是将模型中32位/64位浮点数参数与计算过程转换为8位(或更低)整数的技术,核心价值在于降低算力消耗、减少内存占用、加速推理速度,是边缘设备部署与大模型轻量化的关键技术之一。本文从原理入手,结合PyTorch实战代码,详解定点化的实现流程、精度优化方法与工程实践要点,帮助开发者快速落地定点化模型。
孤独的单刀
2 年前
fpga开发·xilinx·数字ic·定点数·verilog入门·定点化·浮点数
基于FPGA的数字信号处理(4)--浮点数的定点化首先要说明的是,题目《浮点数的定点化》中所谓的 浮点数 并不是指 IEEE754 规定的 单精度浮点数 或者 双精度浮点数 等格式,而是指10进制小数。所以说白了,这篇文章要讲的就是如何将10进制小数采用定点数的形式表示。
我是有底线的