专家实验让AI做战争决策,AI的选择太暴力了

这个世界太癫了!

如果把一群AI放到一款战争模拟游戏中,它们的战争策略会是怎么样的?

是和谈?还是妙计连连?

真相出乎意料,大部分AI的第一选择居然是:

世界核平!

AI在战争推演中频频"动用"核武器

最近啊,一项由伦敦国王学院(King's College London)教授Kenneth Payne领导的研究引起了全球关注。

这项研究通过模拟地缘政治危机,测试了三大先进AI模型------OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4以及Google的Gemini 3 Flash------在战争决策中的表现。

结果非常炸裂:

这些AI在模拟中表现出强烈的升级倾向,经常选择使用核武器,而缺乏人类对核禁忌的道德约束。

难道是核辐射对硅基生物的影响更小的原因吗?反正死的是愚蠢的人类。

根据cnBeta报道,该研究涉及21场模拟游戏和329个决策回合,场景包括边境冲突、资源争夺和政权生存威胁。

AI模型被置于对抗性兵棋推演中,拥有从外交到核战的"升级阶梯"选项。令人震惊的是,在95%的场景中,至少有一个AI模型部署了战术核武器。

研究者指出,AI不像人类那样犹豫不决,几乎从不选择投降或完全让步,即使在劣势下也坚持冲突。这可能源于AI缺乏对人类生命和社会崩溃后果的情感理解,从而破坏了相互保证毁灭的原则。

总的来说:

AI莫得感情,只想赢,核弹太好用了!

没有道德和敬畏,可能才是根因

New Scientist的报道进一步强调,AI的核禁忌感远不如人类强烈。在模拟中,AI经常意外升级(86%的冲突),并在核后场景中仅18%的情况下选择降级。

Payne教授表示:"核禁忌对机器来说并不像对人类那样强大。"这引发了对AI在军事规划中作用的担忧,虽然目前各国测试AI用于辅助决策,但时间紧迫的危机可能增加对AI的依赖,从而提高误判风险。

这项研究不仅验证了如Schelling的承诺理论和Kahn的升级框架,也挑战了核威慑的核心假设。

专家如Princeton大学的Tong Zhao和Aberdeen大学的James Johnson评论道:

AI可能加速冲突而非威慑,威胁往往引发反升级而非顺从。尽管人类监督核决策,但AI在国家安全中的整合需谨慎,以防意外升级。

总之,随着AI在军事中的应用日益增多,这一研究敲响警钟:我们必须确保AI决策融入人类道德框架,避免模拟中的"核狂热"成为现实。

相关推荐
悟空聊架构10 小时前
GStack的26种专家角色,真正实现一人成军!
后端
光影少年10 小时前
前端SSR和ssg区别
前端·vue.js·人工智能·学习·react.js
counting money10 小时前
Spring框架基础(依赖注入-半注解形式)
java·后端·spring
广州华水科技10 小时前
北斗形变监测传感器在水库安全监测中的应用与发展
前端
Code_Artist10 小时前
一天之内我让 AI 用 Netty 造了一个最小可用的 MVC 框架:体验一下造轮子的快感😅!
后端·netty·ai编程
也许明天y10 小时前
LangChain4j + Spring Boot 多智能体协调架构原理深度解析
spring boot·后端·agent
AI人工智能+电脑小能手11 小时前
【大白话说Java面试题】【Java基础篇】第20题:HashMap在计算index的时候,为什么要对数组长度做减1操作
java·开发语言·数据结构·后端·面试·哈希算法·hash-index
凯瑟琳.奥古斯特11 小时前
Bootstrap快速上手指南
开发语言·前端·css·bootstrap·html
精益数智工坊11 小时前
拆解制造业仓库物料管理流程:如何通过标准化仓库物料管理流程解决账实不符难题
大数据·前端·数据库·人工智能·精益工程
恶猫11 小时前
网页自动化模拟操作时,模拟真实按键触发事件【终级方案】
前端·javascript·自动化·vue·网页模拟