专家实验让AI做战争决策,AI的选择太暴力了

这个世界太癫了!

如果把一群AI放到一款战争模拟游戏中,它们的战争策略会是怎么样的?

是和谈?还是妙计连连?

真相出乎意料,大部分AI的第一选择居然是:

世界核平!

AI在战争推演中频频"动用"核武器

最近啊,一项由伦敦国王学院(King's College London)教授Kenneth Payne领导的研究引起了全球关注。

这项研究通过模拟地缘政治危机,测试了三大先进AI模型------OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4以及Google的Gemini 3 Flash------在战争决策中的表现。

结果非常炸裂:

这些AI在模拟中表现出强烈的升级倾向,经常选择使用核武器,而缺乏人类对核禁忌的道德约束。

难道是核辐射对硅基生物的影响更小的原因吗?反正死的是愚蠢的人类。

根据cnBeta报道,该研究涉及21场模拟游戏和329个决策回合,场景包括边境冲突、资源争夺和政权生存威胁。

AI模型被置于对抗性兵棋推演中,拥有从外交到核战的"升级阶梯"选项。令人震惊的是,在95%的场景中,至少有一个AI模型部署了战术核武器。

研究者指出,AI不像人类那样犹豫不决,几乎从不选择投降或完全让步,即使在劣势下也坚持冲突。这可能源于AI缺乏对人类生命和社会崩溃后果的情感理解,从而破坏了相互保证毁灭的原则。

总的来说:

AI莫得感情,只想赢,核弹太好用了!

没有道德和敬畏,可能才是根因

New Scientist的报道进一步强调,AI的核禁忌感远不如人类强烈。在模拟中,AI经常意外升级(86%的冲突),并在核后场景中仅18%的情况下选择降级。

Payne教授表示:"核禁忌对机器来说并不像对人类那样强大。"这引发了对AI在军事规划中作用的担忧,虽然目前各国测试AI用于辅助决策,但时间紧迫的危机可能增加对AI的依赖,从而提高误判风险。

这项研究不仅验证了如Schelling的承诺理论和Kahn的升级框架,也挑战了核威慑的核心假设。

专家如Princeton大学的Tong Zhao和Aberdeen大学的James Johnson评论道:

AI可能加速冲突而非威慑,威胁往往引发反升级而非顺从。尽管人类监督核决策,但AI在国家安全中的整合需谨慎,以防意外升级。

总之,随着AI在军事中的应用日益增多,这一研究敲响警钟:我们必须确保AI决策融入人类道德框架,避免模拟中的"核狂热"成为现实。

相关推荐
wuyaolong0079 小时前
Spring Boot 3.4 正式发布,结构化日志!
java·spring boot·后端
还是大剑师兰特10 小时前
Vue3 前端专属配置(VSCode settings.json + .prettierrc)
前端·vscode·json
番茄去哪了10 小时前
Java基础面试题day01
java·开发语言·后端·javase·八股·面向对象编程
前端小趴菜0510 小时前
vue3项目优化方案
前端·javascript·vue.js
Mr_Swilder10 小时前
WebGPU 基础 (WebGPU Fundamentals)
前端
张3蜂10 小时前
HTML5语义化标签:现代网页的骨架与灵魂
前端·html·html5
用户83562907805110 小时前
Python 设置 Excel 条件格式教程
后端·python·excel
XuCoder10 小时前
告别COS,用 GitHub + jsDelivr 搭建零成本图床
后端
武子康10 小时前
大数据-251 离线数仓 - Airflow 安装部署避坑指南:1.10.11 与 2.x 命令差异、MySQL 配置与错误排查
大数据·后端·apache hive
悟空瞎说10 小时前
我用 PixiJS 撸了个圆桌会议选座系统,从 0 到 1 踩坑全复盘
前端