📝 今日摘要

🚀阿里Qwen 3-MAX推出"思考版"推理模型,在顶级数学竞赛中斩获100%满分!像加了"外挂大脑"般结合工具与算力,目前开放尝鲜体验~ 🤖
🔗OpenAI联手亚马逊囤积海量英伟达GPU,Altman直言:AI军备竞赛就是"算力饥荒"💻
🛡️Perplexity把密码和信用卡锁进用户手机本地!隐私保卫战新思路:数据不出门,AI照样懂你❤️
📖GPT-4爱用破折号的秘密揭晓:原来是读多了百年前老书!AI文风竟继承维多利亚时期写作习惯📜
🍎苹果发布40万张图像编辑数据集,用多模态模型精准标注,像给PS神器喂满汉全席🎨
🌟LIGHT框架让长文本推理脱胎换骨:摘要生成暴涨160%,三大组件如同认知铁三角,缺一不可⚡
(所有创新都在印证:AI正从技术狂奔转向更深度的理解、更安全的部署,与人类共舞的智慧时代悄然来临✨)
────────────────────
📰 详细新闻
- 阿里巴巴发布Qwen 3-MAX的"Thinking"推理版本,该版本结合工具使用和扩展算力,在AIME 2025、HMMT等高难度推理基准测试中取得100%满分成绩,目前处于训练早期预览阶段,可在Qwen Chat和阿里云API体验。
- Spatial-SSRL研究提出一种将自监督学习与强化学习相结合的新方法,旨在提升AI系统对空间信息的理解和交互能力,适用于机器人技术、自主导航和计算机视觉等需要复杂空间推理的领域。
- OpenAI 首席执行官 Sam Altman 宣布与亚马逊建立新的战略合作伙伴关系,以获得大量的 NVIDIA GPU(图形处理器)。这项合作旨在满足 OpenAI 在高级 AI 研究和部署中对高性能计算能力的持续需求,对 OpenAI 扩展其 AI 模型和基础设施至关重要。
- Hugging Face发布博文《计算格局》,深入探讨AI计算领域的关键趋势与挑战,涵盖硬件、云服务及计算资源对AI开发的战略意义,提供行业基础设施层面的权威洞察。
- Perplexity AI宣布将用户密码、信用卡信息等敏感数据本地存储在用户设备而非云端服务器,这种策略在增强数据安全和隐私保护的同时,还能实现AI助手的个性化体验,体现了公司对最小化服务器端数据存储的承诺。
- GPT-4及后续模型滥用破折号最可能原因是训练数据中大量使用了19世纪末20世纪初的旧书,这些书籍的写作风格偏好破折号。研究排除了标点频率、效率策略和RLHF标注员偏好的解释,指出是AI在预训练阶段继承了过去英语文学的写作习惯。
- Datawhale发布《Hello-Agents》免费教程PDF,提供从零开始的大语言模型智能体完整学习路径。教程涵盖智能体概念、经典框架、核心技术及实战项目,已在GitHub获2.2k+ Star。填补了Agent领域系统性实践教程空白,助力开发者掌握前沿智能体技术。
- LIGHT框架在远距离推理任务中取得显著成果,摘要生成提升160.6%,多跳推理提升27.2%,偏好跟随提升76.5%。消融研究表明框架的三个组件(检索、草稿本、噪声过滤)在10M tokens时都至关重要,移除任一组件都会导致性能大幅下降。
- Apple发布Pico-Banana-400K数据集,包含40万张高质量图像,通过MLLM标注确保指令合规性和编辑真实感。该数据集填补了文本引导图像编辑领域大规模可共享数据集空白,涵盖35种编辑类型并包含专门研究子集,在CC BY-NC-ND 4.0许可下开放获取。
- SWIFT框架融合DeepSpeed-Ulysses与Ring-Attention技术,通过巧妙结合两种序列并行方法的优势,将65k长序列大模型训练显存从75GB大幅降至18GB。Ulysses负责Attention Head拆分,Ring-Attention处理细粒度分块,配合多模态适配和反向传播优化,使得消费级显卡也能高效训练超长序列。
- Google PAIR团队发布《以人为本的AI设计指南》,强调AI系统应当可理解、可信任、可控制,而非仅追求技术准确性。该指南帮助开发者构建以人为核心的AI系统,关注模型与人的关系、AI角色边界等根本问题。