人工‘够好就行’智能(AGEI)就快来了!

比尔·弗兰克斯

前言: 本文作者的观点是在真正的通用人工智能(AGI)到来之前,一种"够好就行"的人工智能(AGEI)就已经足以引发我们原本担心 AGI 才会带来的重大社会变革、正面效益,甚至潜在危机。

换句话说:

  • AI 不需要达到像人类一样全面智能的程度;
  • 只要在足够多的任务上做到"够好",它就已经足以替代人类,带来巨大的影响;
  • AGEI 的时代即将到来,比我们想象得更快,而我们对此尚未做好准备。

作者强调了一个类似"技术够用就能普及"的现实:人类常常不等"最好的"技术,而是选择"够用又便宜"的技术解决方案。AI 的发展也正在走这条路。我们一边担心 AGI,却没注意到 AGEI 正悄悄靠近。

我最近在一个关于人工智能风险和伦理的座谈会上发言,一位观众问我们是否认为通用人工智能(AGI)是我们需要担心的东西,如果是,那是什么时间范围内的事情。当我带着新的关注思考这个常见问题时,我意识到有件事情已经快要发生了,它将带来许多类似的影响------无论好坏。

当然,AGI 可能会带来很大问题,就像电影里那种邪恶 AI 接管世界的剧情一样。AGI 也可能带来一个繁荣的新纪元。然而,它似乎离我们还算遥远。我的顿悟是,在 AGI 到来之前,我们就可能经历几乎所有我们预期 AGI 会带来的负面和正面结果。这篇博客就是要解释这件事!

Firefly

"够好就行"原则

随着技术的发展,曾经非常昂贵、困难和/或耗时的事情变得便宜、简单而快捷。大约在 12 到 15 年前,我开始看到一些在第一眼看上去很不理智的技术决策被企业做出。然而,仔细审视后,这些决策往往非常合理!

想象一个公司在进行基准测试,以比较不同数据平台在特定任务上的速度和效率。历史上,公司会购买测试中表现最好的平台,因为对速度的需求超过了平台本身的能力。然后,一些奇怪的事情开始发生,特别是在那些不像大公司那样有高度规模化和复杂需求的小公司中。

在某些情况下,一个平台在测试中显然大获全胜------公司也承认这一点。但最终赢得生意的却是另一个性能较差(但也更便宜)的平台。为什么公司会接受一个表现较差的选择?原因在于,那些落败的平台依然"够好"到可以满足公司的需求。他们愿意选择便宜但"够好"的方案,而不是花更多钱去追求"更好"。技术的发展让这种权衡变得可行,也让原本看起来不理智的决策变得非常合理。

将"够好就行"原则应用于 AGI

让我们回到关于 AGI 的讨论。虽然我个人认为我们离 AGI 还挺远的,但就我们即将面临的冲击来说,这一点可能并不重要。是的,AGI 会轻松超越今天的 AI 模型。然而,我们不需要 AI 在所有方面都像人类一样优秀,它就已经能带来巨大的影响了。

像 Open AI 的 o1、xAI 的 Grok 3 和 DeepSeek-R1 这样的最新推理模型,已经让 AI 能够处理完全不同层次的问题解决和逻辑推理。它们是 AGI 吗?不是!它们很厉害吗?是的!我们很容易看到再迭代几代,这些模型就会在很多任务上达到"人类水平的优秀"。

最终,这些模型无需跨越 AGI 的界限,就可以带来巨大的正面和负面影响。就像那些达到了"够好"标准的平台一样,只要 AI 能够处理足够多的事情、速度足够快、准确度也足够高,那么它们就常常会胜过那些客观上更聪明、更高级的人类竞争者。在那时,把流程交给 AI 而不是交给人类就会变得很理性,我们也将看到它所带来的各种影响------好的和坏的。这就是人工"够好就行"智能,也就是 AGEI!

换句话说,AI 不需要像我们一样有能力,或像我们一样聪明。它只需要达到 AGEI 的标准,做到"够好",让我们觉得不值得再花时间让人类去把事情做得稍微好一点!

"够好"AI 的影响

自从 AGEI 这个想法进入我脑中后,我就无法停止思考。也许我们已经被自己的假设给耍了。我们坚信 AGI 还很遥远,因此觉得我们还很安全,不必担心 AGI 带来的各种冲击。然而,就在我们小心翼翼地"盯着后方",以防 AGI 偷偷接近的时候,有个别的东西已经悄悄靠近了我们------人工"够好就行"智能。

我真心认为,对于很多任务,我们距离 AGEI 只有几季甚至几年时间。我不确定各国政府、公司或个人是否真正意识到这件事来得有多快------或该如何规划应对。但我们可以确定的是,一旦某样东西变得够好、够可用、够便宜,它就会被广泛采用。

AGEI 的普及可能会彻底改变社会的生产力水平,带来很多巨大的好处。但在那些好处的背后,也潜藏着巨大的阴暗面:人类在很多活动中可能变得无关紧要,甚至可能像《终结者》电影那样,被我们自己创造的 AI 背叛。我不是在说我们应该认定末日一定会来,而是说那些可能发生末日的条件正在快速形成,而我们对此毫无准备。与此同时,一些我们期待的正面冲击,也可能比我们想象中来得更早,而我们也没有准备好去迎接它们。

如果我们不警醒、不开始规划,这种"够好"的 AI 可能会在 AGI 出现之前,就带来我们曾经对 AGI 抱有的全部希望与恐惧。但如果我们没准备好,这个转变将会非常痛苦和混乱。

相关推荐
小鸡吃米…15 小时前
机器学习 - K - 中心聚类
人工智能·机器学习·聚类
好奇龙猫15 小时前
【AI学习-comfyUI学习-第三十节-第三十一节-FLUX-SD放大工作流+FLUX图生图工作流-各个部分学习】
人工智能·学习
沈浩(种子思维作者)15 小时前
真的能精准医疗吗?癌症能提前发现吗?
人工智能·python·网络安全·健康医疗·量子计算
minhuan15 小时前
大模型应用:大模型越大越好?模型参数量与效果的边际效益分析.51
人工智能·大模型参数评估·边际效益分析·大模型参数选择
Cherry的跨界思维16 小时前
28、AI测试环境搭建与全栈工具实战:从本地到云平台的完整指南
java·人工智能·vue3·ai测试·ai全栈·测试全栈·ai测试全栈
MM_MS16 小时前
Halcon变量控制类型、数据类型转换、字符串格式化、元组操作
开发语言·人工智能·深度学习·算法·目标检测·计算机视觉·视觉检测
ASF1231415sd16 小时前
【基于YOLOv10n-CSP-PTB的大豆花朵检测与识别系统详解】
人工智能·yolo·目标跟踪
水如烟17 小时前
孤能子视角:“意识“的阶段性回顾,“感质“假说
人工智能
Carl_奕然17 小时前
【数据挖掘】数据挖掘必会技能之:A/B测试
人工智能·python·数据挖掘·数据分析
旅途中的宽~17 小时前
《European Radiology》:2024血管瘤分割—基于MRI T1序列的分割算法
人工智能·计算机视觉·mri·sci一区top·血管瘤·t1