AI"规模时代"正式终结?Ilya Sutskever最新访谈揭示了AI未来的方向。
OpenAI前首席科学家Ilya Sutskever在近日的深度访谈中直言,那个依靠堆算力、扩数据、增参数来提升模型性能的"规模时代"已经画上句号。

这次访谈由Dwarkesh Patel主持,时间长达95分钟。

这位曾主导GPT系列开发的AI先驱指出,继续沿着这条路径前进的边际收益正在快速下降,未来十年AI将回归研究的本质,探索如何让机器像人类一样学习与思考。
Ilya创立的SSI公司专注于开发安全的超级智能,他认为,实现这一目标的关键不再是投入更多资源,而是找到更高效的学习方法。
当今的大模型虽然在评测中表现出色,却常常在实际应用中犯下低级错误,比如修复一个bug的同时引入另一个bug,甚至陷入循环往复的错误中。这种现象揭示了当前AI系统的根本缺陷。
在Ilya看来,问题的核心在于泛化能力不足。他用一个精妙的比喻描述了现状:当今的模型像是一个花费一万小时练习编程竞赛的学生,熟记所有解题技巧,却缺乏真正开发者的洞察力。而那个仅练习一百小时就掌握精髓的学生,靠的不是机械重复,而是抓住了问题的本质。
这种本质的理解,恰恰源自人类独特的情感与价值判断机制。
例如,一个青少年只需约十小时就能学会开车,而不需要经历成千上万次的碰撞事故。这种惊人的学习效率背后,是进化赋予我们的价值函数系统------也就是我们常说的情感与直觉。
当我们犯错时,内心会立即感到"不对劲",从而自我纠正。目前的AI完全缺乏这种内在的、鲁棒的价值评估机制。
Ilya提到一个有趣的案例:大脑情感区域受损的人虽然保留了解谜等认知能力,却变得极度优柔寡断,连选择袜子这样简单的决定都要花费数小时。这证明了情感并非理性的对立面,而是有效决策的基础。
如果AI要实现真正的智能突破,或许需要在哲学层面重新思考智能的本质,构建类似人类的价值函数系统。
安全问题是这一转变中的另一关键维度。Ilya认为,对齐问题本质上是泛化能力不足的表现。当模型进入真实世界,它无法理解哪些行为是可接受的,不是因为人类没有设好奖励函数,而是模型根本没学会判断长期影响。
他提出持续学习的概念,认为智能体不应在训练阶段就完成所有学习,而应在部署后持续适应和改进。
如果IlyaAI所言真的实现了,学习范式的转变将重塑整个AI行业竞争格局。
首先,过去几年通过算力和数据垄断建立的壁垒可能不再牢不可破。
当规模扩展的收益递减,创新思维和研究质量就成为决定性因素。一旦参数堆砌带来的壁垒被打破,创新型小公司可能将有更多机会在AGI的竞赛中脱颖而出。
其次,AI发展将更加注重质而非量。研究者需要从大脑运作机制中汲取灵感,区分"皮毛"与"本质"。好的理论应当兼具美感、简洁性、优雅以及生物学上的合理性。
在这个过程中,大小公司将站在更平等的起跑线上,竞争的重点从资源规模转向创新质量。
当AI真正开始理解人类的情感机制,当学习过程从机械重复变为本质把握,我们与机器的关系也将进入全新阶段。这不仅是技术挑战,更是对智能本质的深入探索,它将重新定义我们思考自身认知与学习方式的基础。
大家怎么看?欢迎在评论区交流讨论~
写在最后:如果您正在进行AI领域的创业或研究,却受困于高昂的算力成本或高并发下的推理稳定性等问题,欢迎留言或私信我们,找到您的降本增效突破口~