央企牵头!这个AI开源社区要让大模型跑遍「中国芯」

「造芯」不易,「用芯」更难。

大模型加速落地,国产芯片需求日盛,但模型真正能在国产芯上「开箱即用」者寥寥无几------这关键的「最后一公里」,谁来铺路?

现在,有个社区牵头 「组队攻坚」 ,给出了一种解法。

6 月 30 日,百度文心大模型 4.5 系列正式开源,并同步登陆 AI 开源社区------魔乐社区( Modelers.cn )。

趁热打铁,魔乐社区同步正式发起「模型推理适配协作计划」(以下简称「适配计划」),集结开发者、算法团队、芯片厂商与推理工具伙伴,共建开源协同生态。

目标只有一个:让大模型跑遍中国芯。

开源模型如何跑遍中国芯?

先拆解一下「适配」这件事到底在适配什么。

一个大模型顺利实现推理应用落地,要跨越三道槛儿:

  • 适配推理引擎:先让引擎「读懂」模型,能解释其结构、识别其算子;

  • 适配计算平台:让芯片「听得懂」引擎分发的任务,高效完成各类操作;

  • 适配上层调度:让模型能被业务系统便捷接入调用,真正上线服务。

当前,业界已发展出多样化的工具来支持大模型推理和适配的各个环节。

比如,vLLM 等高性能推理引擎,CANN、MUSA 等计算架构,FastDeploy、FlagServing 等部署工具,以及众多开源的模型转换、量化、融合工具等...... 这些工具在各自领域都发挥了重要作用,整个工具链其实已经相对完整。然而,挑战在于如何有效连接和协同 这些分散的工具链与适配经验。因此,亟需一个跨环节的协作平台与机制,把这些资源组织起来,解决「最后一公里」的适配难题。

于是,魔乐社区推出「模型推理适配协作计划」,并动手做了几件事。

第一件事,是把原来的「镜像中心」升级为「工具中心」,位置也从「更多」菜单一跃来到首页 C 位,对标模型库、数据集 ------

这一调整绝非简单的位置迁移,而是将开放的工具链提升至与模型、数据同等重要的生态基座地位。

现在,开发和部署工具,与模型库、数据集并列首页「C 位」。

类似模型库的运作逻辑,「工具」中心将提供模型转换迁移工具,也将支持开发者上传自己适配好的推理镜像、工具链和运行环境,还可以对已有镜像进行更新。

每次发布需社区审核,确保质量稳定、可复用。

与此同时,「工具」依旧保留了代码托管能力,方便开发者在魔乐生态内实现适配共享。

换句话说,升级后的板块就是想让「环境跟着模型走」,将碎片化的适配经验沉淀为标准化、可复用的结构化基础设施,让后续开发者无需重复造轮子,直接站在已有成果上推进适配和性能优化,大幅降低协作成本。

另一件事,是把托管板块升级为协作空间。

以前,模型架构和权重文件一经上传,基本就「尘埃落定」。但像 Readme 文档、适配好的推理代码等内容,却得随着芯片、工具链适配进展不断更新。

比如,今天模型适配了一个芯片,明天又支持了另一种,这些信息和代码都得有人来更新和上传,并且不同开发者的适配成果可能分散在各处,难以汇总复用。

现在,在「协作空间」------

所有用户均可提交 PR(代码合并请求),共同参与文档撰写、适配代码开发与推理配置优化。

文档即代码:Readme 不再是静态说明,而是支持多人实时编辑的协作载体,适配进展、使用指南等信息实时同步。

比如,模型开发者上传了一个大模型到魔乐社区,不止模型权重,还有配套的推理工具链。一旦模型被标记为「基础模型」, 模型卡片就会自动开启「协作」入口。

这时候,开发者可针对不同芯片上传独立的适配代码分支,形成版本清晰的 「芯片适配库」。

例如,如果有工程师想将模型适配跑在某款芯片上(例如昇腾),只需要点开「协作」按钮,选择目标推理引擎,新建一个「Ascend」文件夹,提交适配后的推理代码,提个 PR,就能提交到社区。

社区会有审核机制,一旦验证通过,就能被正式合入模型项目中,成为社区认可的适配版本。

每一个适配版本,就是一个独立的子工程,版本分明,职责清晰,协作记录也都有迹可循。

除代码外,适配过程中产生的量化权重、优化配置等资产也可通过 PR 提交,形成完整的技术方案。

这种机制将分散的适配工作聚合到统一平台, 支持一键下载与二次开发, 避免了成果碎片化,让每一次适配进展都能沉淀为社区共享的资产。

为了让「适配计划」真正跑起来,魔乐社区广泛联动产业力量。

一方面联动壁仞科技、海光、华为(昇腾)、摩尔线程、沐曦、算能、燧原科技等国产算力厂商(按中文首字母排序,无先后顺序),为开发者提供硬件、工具和技术支持。

另一方面,整合多元化适配和推理软件生态,并联合工具伙伴,助力开发者快速掌握适配工具链,实现跨硬件平台与引擎组合的深度推理性能调优。

与此同时,还牵手伙伴共建教程、补文档、传经验,手把手帮开发者跑通流程、填平坑点。

**接下来,「适配计划」 将持续开放,持续吸纳更多芯片厂商、模型开发者与开发者加入;**SIG(特别兴趣小组)技术组也将进入常态化运作,聚焦适配技术攻坚与标准制定。

若此协作机制成功运转,将有望解决国产芯片生态最棘手的 「协同短板」------ 让模型与芯片的适配从 「零散突破」 走向 「体系化落地」,为国产 AI 算力生态的闭环构建提供关键支撑。

「适配计划」背后

很多人还记得,DeepSeek-R1 爆火出圈后,一件不太常见的事发生了:国产芯片厂商「组团发声」,纷纷宣布已完成对该模型的适配,并表示正在推进更多大模型的适配工作。

国产模型火了,国产算力也想借势出圈。背后的逻辑其实很直接------

只有模型真能在国产芯片上稳定跑起来,芯片才有机会真正用起来。

但现实却很尴尬:大模型加速落地,随着金融、政务、制造等重点行业对「自主可控」的需求越来越强,国产芯片的出场机会越来越多,然而,真正能做到「即拿即用」的大模型,依旧寥寥无几。

为什么会这样?

首先,这和开源模型本身的特点有关。

开源大模型不是一个「装好就能跑」的整包,它往往拆成模型架构、权重和推理代码三块。HuggingFace 这样的开源平台聚焦模型分发和训练等,并不侧重构建异构算力的协同适配机制。

其次,是技术层面的现实难题。

国产芯片之间架构差异大,很多都有自己独立的推理引擎。同一个模型,想让它在不同芯片上跑得通、跑得快,就得「量身定制」------专门做适配、调度、优化。

比如,有的芯片需要做量化来压缩模型体积,有的要进行算子融合来提速。

现在,这些活儿是谁在做?

一部分由模型厂商亲自下场,但资源有限,很少有团队会专门为不同国产芯片配专属工程师。

更多时候,是芯片厂商主动出击。随着大模型推理结构的日趋标准化、算子体系逐步统一,「自己动手」的门槛已显著降低。就像 DeepSeek 爆火之后,一些厂商为了尽快跑通,从芯片指令集到内存管理、数据传输都做了大幅调整。

还有一类,就是开发者出于兴趣或业务需求自发适配。但这类工作高度分散、重复投入严重,质量也参差不齐。

对比之下,为什么 Hugging Face 上的模型大多都能在英伟达 GPU 上开箱即用?靠的不是单一厂商的「单点突破」,而是整个生态高度打通,工具链成熟完善。

这也是魔乐社区「适配计划」要解决的核心问题------

不再单打独斗,通过构建统一的协作框架,串联模型开发者、芯片方、工具方与开发者,形成生态合力,一起把模型从「能发布」推到「即插即用」。

魔乐:AI 开源的「中国样本」

为什么是魔乐来牵头做这件事?

答案要从它的「出身」和「使命」说起。

2024 年 8 月,在央企巨头、中国电信天翼云的牵头下,魔乐社区正式上线。与很多主打「模型集市」的开源平台不同,魔乐从一开始就瞄准了另一个更现实、也更棘手的问题:

开源 AI 发展,要的不只是「代码开放」,还得「能协同、能落地」。

模型当然重要,但真正推动国产 AI 落地的,不只是一个个模型,而是支撑它们生长的底座系统------包括开源数据集、适配工具、部署引擎,乃至合规、调度、治理等基础能力。

因此,魔乐选择做一个中立、公益的开源社区,扮演「国产 AI 落地的基础设施」。

他们从零搭出一套覆盖模型、数据、工具、应用与算力五大板块的开源协作体系。

社区已汇聚 1000+ 优质大模型、涵盖 TeleChat、DeepSeek、Qwen、智谱等大模型,其中多数都已经适配好国产算力。

依托天翼云及「算力朋友圈」供给,社区可提供公益性国产化算力资源。

最直观的体现就是魔乐推出的「在线体验空间」:

基于社区提供的模型和算力,开发者可通过 Gradio 等主流 SDK 快速搭建 AI 应用,并一键部署、分享。

还有线上、线下的学习交流活动。

魔乐社区不只有在线平台,最近还正式成立了理事会,进一步规范社区管理与生态共建。

「中国样本」,步步为营

不到一年时间,魔乐就搭起了生态的基本盘------

已聚合超过 20 家深度合作伙伴,托管模型、数据、工具等各类开源项目累计突破 1 万个;

首发多个昇腾适配大模型,推动模型实现国产化原生适配;

模型、数据与工具融合共建,已上线 200 多个国产化 AI 应用。

更重要的是,这套生态始终围绕「产学研协同」展开,AI 落地的挑战正在被「共建、共享」的生态范式一点点瓦解。

魔乐社区致力于发掘、打造和推广好的项目。一方面,深耕高校等原生创新场景,定向发掘一批基于国产算力起步的潜力项目。

另一方面,通过「国产算力应用创新大赛」等机制,实战中筛选优质标的,推动它们与底层算力平台的深度适配与融合。

找到好项目只是起点,更关键的是------放大价值。

魔乐为项目提供从算力资源、工具链到调度框架、落地渠道的全栈支持,推动它们从 demo 走向产品、从实验室走向产业化,让每一个「跑得通」的应用都有「火出圈」的可能。

例如 Stable Diffusion WebUI、ComfyUI 虽在设计创作领域早已成名,但缺乏系统的国产适配支持。魔乐正加大力度,推动它们与国产工具链深度融合,加速落地,近期正式上线了 AIGC 专区,已实现基于国产算力的快速专业生图。

如今,全国已有多个有影响力的 AI 开源社区,都在不断推进国产 AI 能力的积累。

但这只是开始。

随着大模型快速普及、国产软硬件协同需求走强,AI 社区或将迎来真正的「井喷时刻」。

而魔乐选择了一条更难、但也更有价值的路------不止做模型的「集市」,更要做模型、算力、工具的协作平台。

坚持中立、公益、开放的定位,魔乐正推动大模型在「中国芯」上真正跑起来,成为国产 AI 算力生态自主可控与高效协同的重要支撑。

相关推荐
机器之心2 小时前
马斯克Grok这个二次元「小姐姐」,攻陷了整个互联网
人工智能
szxinmai主板定制专家2 小时前
基于光栅传感器+FPGA+ARM的测量控制解决方案
arm开发·人工智能·嵌入式硬件·fpga开发
Guheyunyi2 小时前
电气安全监测系统:筑牢电气安全防线
大数据·运维·网络·人工智能·安全·架构
三桥君2 小时前
在AI应用中Prompt撰写重要却难掌握,‘理解模型与行业知识是关键’:提升迫在眉睫
人工智能·ai·系统架构·prompt·产品经理·三桥君
semantist@语校2 小时前
日本语言学校:签证制度类 Prompt 的结构整理路径与策略
人工智能·百度·ai·语言模型·prompt·github·数据集
三花AI2 小时前
NSFW Grok 数字伙伴,只能说老马是懂用户的
人工智能
集成显卡3 小时前
基于 Node.js 的 API 方式接入深度求索Deepseek、字节跳动豆包大模型
前端·人工智能·node.js
嘗_3 小时前
机器学习/深度学习训练day1
人工智能·深度学习·机器学习
shelgi3 小时前
unsloth微调Qwen3实现知识总结
人工智能·aigc
菜鸡00013 小时前
存在两个cuda环境,在conda中切换到另一个
linux·人工智能·conda