专家实验让AI做战争决策,AI的选择太暴力了

这个世界太癫了!

如果把一群AI放到一款战争模拟游戏中,它们的战争策略会是怎么样的?

是和谈?还是妙计连连?

真相出乎意料,大部分AI的第一选择居然是:

世界核平!

AI在战争推演中频频"动用"核武器

最近啊,一项由伦敦国王学院(King's College London)教授Kenneth Payne领导的研究引起了全球关注。

这项研究通过模拟地缘政治危机,测试了三大先进AI模型------OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4以及Google的Gemini 3 Flash------在战争决策中的表现。

结果非常炸裂:

这些AI在模拟中表现出强烈的升级倾向,经常选择使用核武器,而缺乏人类对核禁忌的道德约束。

难道是核辐射对硅基生物的影响更小的原因吗?反正死的是愚蠢的人类。

根据cnBeta报道,该研究涉及21场模拟游戏和329个决策回合,场景包括边境冲突、资源争夺和政权生存威胁。

AI模型被置于对抗性兵棋推演中,拥有从外交到核战的"升级阶梯"选项。令人震惊的是,在95%的场景中,至少有一个AI模型部署了战术核武器。

研究者指出,AI不像人类那样犹豫不决,几乎从不选择投降或完全让步,即使在劣势下也坚持冲突。这可能源于AI缺乏对人类生命和社会崩溃后果的情感理解,从而破坏了相互保证毁灭的原则。

总的来说:

AI莫得感情,只想赢,核弹太好用了!

没有道德和敬畏,可能才是根因

New Scientist的报道进一步强调,AI的核禁忌感远不如人类强烈。在模拟中,AI经常意外升级(86%的冲突),并在核后场景中仅18%的情况下选择降级。

Payne教授表示:"核禁忌对机器来说并不像对人类那样强大。"这引发了对AI在军事规划中作用的担忧,虽然目前各国测试AI用于辅助决策,但时间紧迫的危机可能增加对AI的依赖,从而提高误判风险。

这项研究不仅验证了如Schelling的承诺理论和Kahn的升级框架,也挑战了核威慑的核心假设。

专家如Princeton大学的Tong Zhao和Aberdeen大学的James Johnson评论道:

AI可能加速冲突而非威慑,威胁往往引发反升级而非顺从。尽管人类监督核决策,但AI在国家安全中的整合需谨慎,以防意外升级。

总之,随着AI在军事中的应用日益增多,这一研究敲响警钟:我们必须确保AI决策融入人类道德框架,避免模拟中的"核狂热"成为现实。

相关推荐
JaguarJack1 小时前
告别 Laravel 缓慢的 Blade!Livewire Blaze 来了,为你的 Laravel 性能提速
后端·php·laravel
明月_清风2 小时前
存储配额:用 navigator.storage.estimate() 预判浏览器什么时候会删你的数据
前端·indexeddb
Victor3569 小时前
MongoDB(15) 如何在MongoDB中启用身份验证?
后端
Victor3569 小时前
MongoDB(14)如何修改MongoDB的默认端口?
后端
漂流瓶jz10 小时前
BEM、OOCSS、SMACSS、ITCSS、AMCSS、SUITCSS:CSS命名规范简介
前端·css·代码规范
怒放吧德德11 小时前
Spring Boot 实战:RSA+AES 接口全链路加解密(防篡改 / 防重放)
java·spring boot·后端
陈随易14 小时前
真的,你可以不用TypeScript
前端·后端·程序员
郑州光合科技余经理14 小时前
代码展示:PHP搭建海外版外卖系统源码解析
java·开发语言·前端·后端·系统架构·uni-app·php
唐璜Taro15 小时前
Vue3 + TypeScript 后台管理系统完整方案
前端·javascript·typescript