模型压缩

IRevers1 天前
人工智能·深度学习·学习·算法·机器学习·剪枝·模型压缩
2024强化学习的结构化剪枝模型RL-Pruner原理及实践论文标题:使用强化学习进行结构化剪枝用于卷积神经网路压缩和加速机构:伊利诺伊大学厄巴纳-香槟分校论文链接:https://arxiv.org/pdf/2411.06463
AI算法-图哥7 天前
人工智能·pytorch·深度学习·文生图·模型压缩·量化
pytorch量化训练训练时量化(Quantization-aware Training, QAT)是一种在模型训练过程中,通过模拟低精度量化效应来增强模型对量化操作的鲁棒性的技术。与后训练量化不同,QAT 允许模型在训练过程中考虑到量化引入的误差,从而在实际部署时使用低精度进行推理时能够维持更高的性能。
AI-Seeker3 个月前
人工智能·语言模型·模型压缩
LLM 模型压缩之三: FoldGPT论文: FoldGPT: Simple and Effective Large Language Model Compression Scheme
老子云3D可视化4 个月前
人工智能·3d·模型压缩·模型格式转换·模型轻量化·模型减面
生成式AI、3D模型交易、模型轻量化、模型格式转换、3D可视化、数字孪生引擎等老子云3D可视化快速开发平台,集云压缩、云烘焙、云存储云展示于一体,使3D模型资源自动输出至移动端PC端、Web端,能在多设备、全平台进行展示和交互,是全球领先、自主可控的自动化3D云引擎。
老子云3D可视化6 个月前
3d·数字孪生·模型压缩·倾斜摄影·模型格式转换·模型轻量化·模型减面
3D轻量化的三大应用解决方案老子云平台https://www.laozicloud.com/01 单模型轻量化解决方案数字化时代,越来越多的C2M定制、文旅、电商等行业,为了开拓市场,提升企业竞争力,开始把目光投向产品的3D展示交互。
老子云平台7 个月前
3d·智慧城市·数字孪生·可视化·模型压缩·模型减面·数字孪生引擎
赋能智慧校园!A3D数字孪生可视化,轻量又高效!放假之后,学生们会逐步返学,大量人员出入校园,安全更是不容忽视,如何在短时间内对大批人员及设施进行智能监管?数字化转型是关键手段,我们可以融合线上线下数据,搭建3D立体的智慧校园,实现高效运维。
萤火架构7 个月前
剪枝·模型压缩·量化·蒸馏
扎克伯格说,Llama3-8B还是太大了,量化、剪枝、蒸馏准备上!扎克伯格说,Llama3-8B还是太大了,不适合放到手机中,有什么办法?量化、剪枝、蒸馏,如果你经常关注大语言模型,一定会看到这几个词,单看这几个字,我们很难理解它们都干了些什么,但是这几个词对于现阶段的大语言模型发展特别重要,它们就是将模型缩小的利器。这篇文章就带大家来认识认识它们,理解其中的原理。
老子云平台7 个月前
3d·可视化·模型压缩·模型轻量化·数字孪生引擎
8thWall vs. AR.js对于熟悉 JavaScript、WebGL 和 HTML5 等 Web 技术的数字创作者来说,8th Wall 提供了功能丰富且强大的 AR 开发平台,尽管价格较高。 然而,新手开发人员和专注于基于标记的 AR 的开发人员可能会发现 AR.js 更易于使用且更经济实惠。
清风20229 个月前
深度学习·transformer·剪枝·模型压缩
transformer剪枝论文汇总《Block Pruning For Faster Transformers》 《为更快的transformer进行块修剪》
卷心菜不卷Iris1 年前
大模型·llm·模型压缩
首篇大模型压缩论文综述首篇大模型压缩综述来啦!!!来自中国科学院和人民大学的研究者们深入探讨了基于LLM的模型压缩研究进展并发表了该领域的首篇综述《A Survey on Model Compression for Large Language Models》。
Isawany1 年前
论文阅读·蒸馏模型·distillation·soft target·模型压缩
论文笔记--Distilling the Knowledge in a Neural Network文章提出了一种将大模型压缩的新的思路:蒸馏distillation。通过蒸馏,可以将很大的模型压缩为轻量级的模型,从而提升推理阶段的速率。