存内计算

存内计算开发者13 天前
人工智能·嵌入式硬件·深度学习·神经网络·开源·iot·存内计算
豆包大模型团队开源RLHF框架,破解强化学习训练部署难题1. 引言强化学习(Reinforcement Learning, RL)是与监督学习和无监督学习并列的一种机器学习方法,其用于描述和解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。
存内计算开发者14 天前
人工智能·深度学习·神经网络·学习·机器学习·ai·存内计算
ISSCC 34.9 面向塑性神经网络集片上自学习与推理一体ISSCC34.9《A Flash-SRAM-ADC-Fused Plastic Computing-in-Memory Macro for Learning in Neural Networks in a Standard 14nm FinFET Process》(一种基于14nmFinFET工艺制造,面向神经网络学习的Flash-SRAM-ADC混合可塑性存内计算核)本文由中科院微电子所和复旦大学联合投稿,面向塑性神经网络(Plastic Neural Network,PNN)介绍了一种集片上自学习、
存内计算开发者1 个月前
人工智能·嵌入式硬件·3d·硬件工程·iot·存内计算
3D-IC——超越平面 SoC 芯片的前沿技术“3D-IC”,顾名思义是“立体搭建的集成电路”,相比于传统平面SoC,3D-IC引入垂直堆叠芯片裸片(die)和使用硅通孔(TSV)等先进封装技术,再提高性能、降低功耗和增加集成度方面展现了巨大的潜力。
Sarapines Programmer2 个月前
人工智能·agi·数据处理·技术创新·存内计算·能效
【AG 创新工坊】探索存内计算的未来,共话 AGI 时代目录⚛️1. 会议详情☪️2. 会议回顾♋2.1 多模态时代,存内计算架构的应用与发展♏2.2 分布式环境下深度学习任务的高效可靠执行研究
存内计算开发者5 个月前
人工智能·神经网络·gpu算力·量子计算·智能硬件·存内计算
ISSCC论文详解2024 34.2——双端口设计实现高面积利用的浮点/整数存算本文将要介绍的文献主题为浮点存内计算,题目为《A 16nm 96Kb Integer/Floating-Point Dual-Mode-Gain-CellComputing-in-Memory Macro Achieving 73.3-163.3TOPS/W and 33.2-91.2TFLOPS/W for AI-Edge Devices》,下面本文将从文章基本信息与背景知识、创新点解析和现有工作对比三个方面进行论文详解。
存内计算开发者6 个月前
人工智能·深度学习·语言模型·架构·存内计算
国产五大模型之一MiniMax 使用国内首个MOE架构阿里被曝2024年面向AIGC的第二次大手笔投资来了——加注大模型赛道独角兽Minimax,领投至少6亿美元。
一见已难忘7 个月前
人工智能·语言模型·自然语言处理·大模型·存内计算·存内架构
新兴存内计算芯片架构、大型语言模型、多位存内计算架构——存内计算架构的性能仿真与对比分析探讨CSDN存内社区招募:https://bbs.csdn.net/forums/computinginmemory?
YoungerChina9 个月前
人工智能·架构·存内计算·近数据计算
内存计算研究进展-针对机器学习的近数据计算架构针对机器学习的近数据计算架构代表性工作有: Georgia Institute of Technology的BSSync (bounded staled sync) 和 Neurocube,Advanced Micro Devices 的 CoML,具体如下。
bluetata10 个月前
人工智能·科技·云计算·知存科技·存内计算
知存科技助力AI应用落地:WTMDK2101-ZT1评估板实地评测与性能揭秘随着当今数据迅速增长,传统的冯诺依曼架构内存墙正在成为计算性能进一步提升的阻碍。新一代的存内计算(IMC)和近存计算(NMC)架构有望突破这一瓶颈,显著提升计算能力和能源效率。本文将探讨存算一体芯片的发展历程、当前研究状态,以及基于多种存储介质(例如传统的DRAM、SRAM和Flash,以及新型的非易失性存储器如ReRAM、PCM、MRAM、FeFET等)的存内计算基本原理、优势与面临的挑战。通过对知存科技WTM2101量产芯片的深入解析与评测,重点展示存内计算芯片的电路结构及其应用现状。最后,将对存算一