GMI Cloud@AI周报 | MiniMax 叩响港股大门;智谱 GLM-4.7 开源

关键词:MiniMax 港股上市;

Giants

Meta 内部管理危机;英伟达 200 亿美元收购 Groq

++Meta 投入 7000 亿 AI 资本,内部管理危机加剧++

Meta 公司在 AI 领域投入 7000 亿资本支出,遭遇严重的内部管理危机。扎克伯格重组 AI 部门形成超级智能实验室(MSL),与 OpenAI、谷歌展开 AI 军备竞赛。然而,他的"窒息式"微管理让 Meta 内部乱成一锅粥。Scale AI 创始人 Alexandr Wang 对扎克伯格的"过度掌控"强烈不满,认为正在扼杀创新空间。过去一年 Meta 持续裁员,多位高管离职。图灵奖得主 Yann LeCun 对被要求向 Wang 汇报非常不满,成为他最终离开 Meta 的关键导火索。

++英伟达 200 亿美元收购 Groq,补齐推理短板++

英伟达与 AI 芯片初创公司 Groq 达成 200 亿美元重磅交易,这是英伟达史上最大的一笔"收购"。Groq 创始人 Jonathan Ross 曾在 Google 设计出第一代 TPU 芯片核心架构,2016 年带着 Google TPU 团队核心成员集体出走创立 Groq。Groq 的核心产品是专为 AI 推理设计的 ASIC 芯片 LPU,相比英伟达 GPU 在处理大语言模型推理时有延迟超低、吞吐量超高的优势。随着 AI 行业重心从训练侧转向推理市场,Groq 的 LPU 恰好针对推理场景优化,正是英伟达想要补齐的短板。黄仁勋表示要把 Groq 的低延迟处理器整合进 NVIDIA AI 工厂架构。

++LeCun 与 Hassabis 关于 AGI 路线的分歧++

图灵奖得主 Yann LeCun 在播客中"宣告"了大模型的"死刑",直接把当下最主流的 AI 路线骂成了"胡扯"。LeCun 认为通往超级智能的路线无非就是继续堆大语言模型、用更多合成数据喂模型、再雇成千上万的人在后训练阶段"教"系统,在他看来这条路根本不可能走得通。DeepMind 创始人 Hassabis 立刻反驳 LeCun 的观点,认为他混淆了"通用智能"与"普适智能"的概念。LeCun 宣布即将离开 Meta 后,决定创办研究型初创公司 AMI Labs,专注于构建"世界模型"。目前 AMI Labs 正在以 35 亿美元估值融资 5 亿欧元,意味着 LeCun 把自己后 Meta 的职业生涯都押注在与硅谷主流 AI 路线截然不同的方向上。

Models & Applications

OpenAI PT-5.2-Codex 模型登场;智谱 GLM-4.7 受硅谷青睐

++字节跳动 Seedance 1.5 pro 音视频创作模型正式发布++

字节跳动 Seed 团队正式发布新一代音视频创作模型 Seedance 1.5 pro,支持音视频联合生成。该模型能够执行从文本到音视频的合成以及图像引导的音视频生成等任务。Seedance 视频生成不再局限于视觉维度,而是自然融合了声音。Seedance 1.5 pro 在视听协同、视觉张力和叙事协调性等方面实现突破:精准音画同步与多语言、方言支持;电影级运镜控制与动态张力;语义理解与叙事协调性增强。模型原生支持多语种和特色方言口音,能够捕捉其独有的语音韵律与情感张力。在综合评测中,Seedance 1.5 pro 取得领先结果,各项关键能力处于业界前列。

++OpenAI++ ++最强编程模型 GPT-5.2-Codex 登场++

OpenAI 发布最新编程模型 GPT-5.2-Codex,该模型基于 GPT-5.2,对智能体编程能力进行了深度优化。GPT-5.2-Codex 融合了 GPT-5.1-Codex-Max 的前沿智能体编程与终端操作能力,专为复杂的现实软件工程和网络安全等专业领域设计。GPT-5.2-Codex 在 SWE-Bench Pro 基准测试中得分为 56.4%,超越 GPT-5.2 的 55.6%得分以及 GPT-5.1 的 50.8%得分;在 Terminal-Bench 2.0 基准测试中,GPT-5.2-Codex 得分为 64.0%,显著领先前代版本 GPT-5.1-Codex-Max 的 58.1%。然而,GPT-5.2-Codex 发布之前,谷歌刚宣布推出 Gemini 3 Flash。有网友让两者共同执行任务,结果 GPT-5.2-Codex 败下阵来。在对 50 个文件进行漏洞审查的任务中,Gemini 3 Flash 用时 1 分 2 秒发现 5 个问题,而 GPT-5.2-Codex 用时 4 分 48 秒仅发现 2 个问题。

++清华开源 TurboDiffusion,视频进入秒级时代++

清华大学 TSAIL 实验室携手生数科技,重磅发布并开源了视频生成加速框架 TurboDiffusion。这个框架让视频生成的速度直接飙升了 100--200 倍,AI 视频正式从"分钟级"生成进入"实时生成"时代。TurboDiffusion 在几乎不影响生成质量的前提下实现了惊人加速效果。以 1.3B 大小的模型生成 5 秒视频为例,使用标准官方实现需要 184 秒,TurboDiffusion 仅需 1.9 秒,速度提升约 97 倍。对于 14B 大小的图生视频模型生成 5 秒 720P 视频,TurboDiffusion 可以在单张 RTX 5090 几乎无损端到端加速 119 倍。

++智谱 GLM-4.7 开源,硅谷青睐的中国模型++

智谱作为"大模型第一股"赴港上市前夕,直接掏出了旗舰模型 GLM-4.7 并开源。GLM-4.7 以"Coding"能力提升为核心定位,直接对标全球顶尖编程模型 Claude Sonnet 4.5,在多个权威榜单上拿下开源第一,实现国产模型对硅谷顶尖闭源模型的贴身肉搏。在 Vals Index 上,GLM-4.7 出道即巅峰,直接空降开源模型第一名。在 Design Arena 中,GLM-4.7 高居第二,紧紧咬住谷歌的 Gemini 3 Pro Preview,甚至超过了 Claude Opus 4.5 和 GPT-5.2。备受海外用户欢迎的 Cline、Kilo、Vercel 等主流 AI 平台,纷纷在第一时间官宣接入。

++MiniMax 海螺视频团队首次开源 Tokenizer++

MiniMax 海螺视频团队首次开源视觉分词器预训练框架 VTP,揭晓了困扰行业已久的问题:为什么往第一阶段的视觉分词器里砸再多算力,也无法提升第二阶段的生成效果?VTP 首次展示了 Tokenizer 的 Scaling Law,即生成性能可以随预训练中投入的计算量、参数量和数据规模有效增长。仅从算力维度对比,在不改动下游 DiT 标准训练配置的前提下,单纯将 Tokenizer 的预训练计算量放大,VTP 就能为最终生成效果带来 65.8%的性能提升。VTP 用实验证明,如果只做重建的话,投入资源越多生成反而可能越差。而一旦注入"理解力",模型的生成质量会随着理解能力的提升而同步变好。

++英伟达 NitroGen 游戏 AI,看直播学会所有游戏++

英伟达发布了 NitroGen 新模型,它完全不按套路出牌。这个模型不是靠读游戏代码长大的,而是蹲在 YouTube 和 Twitch 上,硬生生"看"了 4 万个小时带有手柄画面的游戏实况。NitroGen 学习了超过 1000 款不同的游戏,就像个极其好学的"云玩家",通过观察人类怎么操作,直接学会了在各种游戏里该怎么走位、怎么平 A。测试数据显示,当把 NitroGen 丢进一款它从未见过的新游戏里时,它的表现比那些从零训练的模型强了 52%。NitroGen 是基于英伟达的 GR00T(机器人基础模型)构建的。

++AI 正在重新定义「好学校」,Alpha School 混合教学模式++

国外 K12 学校 Alpha School 正在尝试给出一种答案:当 AI 接管了知识和传授,学校和家长还能提供什么?该校采用 AI 助教机制,虽然每天仅陪学生学习 2 小时,但它知道这个孩子卡在哪,然后针对性的给出解决方案。Alpha School 学生在 MAP 测试中成绩稳居前 1%,SAT 平均分达到 1470 分,90%的学生在 AP 考试中获得最高分。更颠覆认知的是,学生每天只用 2 小时完成核心学科学习,剩余时间则专注于演讲、团队合作等技能培养。Alpha School 采用了 AI 助教的机制,AI 负责讲知识点、出练习题、追进度;人负责定目标、管纪律、在孩子卡住时拉一把。

++谷歌让 Agent Scaling 变成可预测科学++

谷歌近期发出两篇工作,第一次把 agent scaling 拆成了可预测、可度量的科学问题。第一篇论文"Budget-Aware Tool-Use Enables Effective Agent Scaling"解决了在"工具调用预算"约束下,如何让 agent 花得少、做得对的问题。第二篇论文"Towards a Science of Scaling Agent Systems"探讨了给定任务,能否提前算出最优 agent 数量与协调结构。论文用 20 个可观测特征拟出混合效应模型,交叉验证 R²=0.524,MAE=0.089。87%的 held-out 配置被成功预测最优架构。两篇论文一口气把"花钱"和"加人"两大 scaling 维度做成了可度量、可预测的科学问题。2025 年做 agent 系统,终于有数学公式兜底了。

++云深处科技 DR02 重磅更新,++ ++运动控制++ ++能力取得突破式进展++

当前,人形机器人赛道正从概念性的炫技比拼,过渡到产业落地应用的验证阶段,但行业内真正实现技术落地的企业寥寥无几。核心原因在于,关节协同不足、动态平衡能力薄弱、环境适应性差等制约机器人实际作业的基础性问题,始终未能得到有效解决。针对产业突出的痛点问题,云深处科技 DR02 人形机器人进行了全新的功能升级。作为真正意义上的全天候作业机器人,它不仅具备 IP66 整机防水防尘能力,更在运动控制上取得重大进展。通过全身协同联动、动态抗扰稳定与动作流畅衔接三大维度的系统升级,进一步提升了高动态运动性能与场景适应力。

全球AI政策与市场简讯

++MiniMax 叩响++ ++港股++ ++大门++

本周,国内知名 AI 创业公司 MiniMax 在港交所刊发聆讯后资料集,上市进程进入关键冲刺阶段。该公司有望刷新记录,成为从成立到 IPO 历时最短的 AI 公司。MiniMax 于 2022 年 1 月成立,由前商汤科技高管闫俊杰等人创立,专注于研发文本、语音、视觉多模态融合的通用人工智能技术。截至 2025 年 9 月 30 日,MiniMax 已有超过 200 个国家及地区的逾 2.12 亿名个人用户以及超过 100 个国家的 10 万余家企业及开发者。财务数据显示,MiniMax 2025 年前九个月实现营收 5343.7 万美元,较去年同期增长约 174.7%。公司海外市场收入贡献占比超过 70%,展现出强劲的国际化拓展能力。

以上所有信息源自网络

THE END

关于 GMI Cloud

由 Google X 的 AI 专家与硅谷精英共同参与创立的 GMI Cloud 是一家领先的 AI Native Cloud 服务商,是全球六大 Reference Platform NVIDIA Cloud Partner 之一,拥有遍布全球的数据中心,为企业 AI 应用提供最新、最优的 GPU 云服务,为全球新创公司、研究机构和大型企业提供稳定安全、高效经济的 AI 云服务解决方案。

GMI Cloud 凭借高稳定性的技术架构、强大的GPU供应链以及令人瞩目的 GPU 产品阵容(如能够精准平衡 AI 成本与效率的 H200、具有卓越性能的 GB200、GB300 以及未来所有全新上线的高性能芯片),确保企业客户在高度数据安全与计算效能的基础上,高效低本地完成 AI 落地。此外,通过自研"Cluster Engine"、"Inference Engine"两大平台,完成从算力原子化供给到业务级智算服务的全栈跃迁,全力构建下一代智能算力基座。

作为推动通用人工智能(AGI)未来发展的重要力量,GMI Cloud 持续在 AI 基础设施领域引领创新。选择 GMI Cloud,您不仅是选择了先进的 GPU 云服务,更是选择了一个全方位的 AI 基础设施合作伙伴。

如果您想要了解有关 GMI Cloud 的信息

请关注我们并建立联系

相关推荐
0x00072 小时前
进击的智谱 - GLM 4.7 双旦大礼
人工智能
_codemonster2 小时前
AI大模型入门到实战系列--使用Pytorch实现transformer文本分类
人工智能·pytorch·transformer
Elastic 中国社区官方博客2 小时前
Elasticsearch:在 X-mas 吃一些更健康的东西
android·大数据·数据库·人工智能·elasticsearch·搜索引擎·全文检索
DKHZ_OfficeAI2 小时前
开启AI办公新时代:Office+WPS双平台智能助手全面赋能
人工智能
Coder_Boy_3 小时前
基于SpringAI的智能平台基座开发-(四)
java·人工智能·spring boot·langchain·springai
m0_704887893 小时前
Day46
人工智能
是店小二呀3 小时前
在 AtomGit 昇腾 Atlas 800T上解锁 SGLang:零成本打造高性能推理服务
人工智能·pytorch·深度学习·npu
图生生3 小时前
饰品商拍提效:AI图生图实现白底图转上身图
人工智能·ai
万事可爱^3 小时前
GitCode+昇腾部署Rnj-1模型实践教程
人工智能·深度学习·语言模型·gitcode·本地部署·昇腾npu