摘要
本文基于对《纪元1800》游戏AI机制的分析,探讨规则驱动型AI与大语言模型在认知架构上的本质差异与互补关系。通过引入"未知---已知转化"作为智能的核心定义框架,本文提出智能系统的能力可分为三个层次:已知的未知求解、隐性已知的显性化、以及未知的未知探索。以"狗踩键盘生成游戏"这一极端案例为分析对象,本文论证了外部随机源在突破系统认知边界中的关键作用,并进一步探讨了自主创造的必要条件------随机生成与评价标准的耦合。最后,本文分析了当前AI系统的结构性局限,并提出人在智能系统中的边界定位。
关键词:规则AI;大语言模型;认知架构;未知转化;智能边界;进化算法
1 引言
人工智能的发展呈现出两条迥异的技术路径:一条是以规则驱动、确定性执行为特征的传统AI,广泛应用于游戏智能体、工业控制系统等领域;另一条是以数据驱动、概率性生成为特征的大语言模型,在自然语言理解、内容生成等任务上展现出惊人的能力。这两条路径在《纪元1800》(Anno 1800)这类复杂策略游戏中形成鲜明对比:游戏内的AI对手依靠精确的规则脚本实现高效运营,却缺乏应对"盘外招"的灵活性;而大模型虽能理解复杂意图,却难以胜任毫秒级的精确控制。
近期一则新闻为这一对比提供了极具启发性的案例:一位前Meta工程师让其宠物犬随机踩踏键盘,将产生的乱码输入给Claude大模型,通过精心设计的提示词迫使模型将无意义字符"解读"为可执行的游戏创意,最终在Godot引擎上生成了一款名为《Swamp Snacker》的3D游戏。这一案例以极端方式展现了规则AI与大模型在"未知转化"过程中的协同机制,也为探讨智能的本质边界提供了思想实验的素材。
本文试图回答以下问题:规则AI与大模型的认知差异究竟何在?二者如何构成互补关系?"智能"的核心定义是否可归结为"未知向已知的转化"?这一转化过程的极限在哪里?人类在这一图景中居于何种位置?
2 两种智能体:规则驱动与数据驱动
2.1 规则AI:确定性系统的认知特征
以《纪元1800》为代表的策略游戏中,AI对手的设计遵循典型的规则驱动范式。每个AI角色(如三星扩张型AI阿隆索·格雷夫斯、二星战争型AI贝罗·欧梅拉)拥有预设的"性格参数"------扩张倾向、战争阈值、发展偏好,其决策过程基于一套"位置评分系统":系统遍历所有可用岛屿,根据资源丰度、战略位置、防御便利性等指标加权计算,选择最优解执行。
这种架构的核心优势在于确定性与可靠性:给定相同输入,系统永远输出相同结果;执行过程中不存在情绪干扰或随机波动;对游戏规则的遵循达到像素级精度。然而,其局限同样明显------封闭性与刚性:系统只能在程序员预设的规则空间内运作,对规则外的"使诈"行为(如玩家挑拨AI互斗、利用海盗牵制)缺乏识别与应对能力;无法处理未编码的意外场景;不具备真正意义上的"理解",仅有预设指令的执行。
2.2 大语言模型:概率系统的认知特征
与之相对,大语言模型(如GPT系列、Claude等)基于Transformer架构,从海量人类文本数据中学习词语间的概率分布。其核心机制是"下一词预测":给定上下文,计算词汇表中每个词的出现概率,采样生成回应。这一机制赋予了系统灵活性与泛化能力:能理解模糊意图,处理未见过的问题,在对话、创作、策略建议等开放领域表现优异。
但概率系统的代价是不可靠性:同一输入可能产生不同输出;存在"幻觉"现象,生成看似合理实则错误的内容;推理过程不透明,难以追溯决策依据;响应延迟远高于规则系统,无法胜任毫秒级控制任务。
2.3 认知互补的架构学意义
规则AI与大模型的认知特征构成天然互补。借用认知科学的框架,可将规则AI类比为人类的小脑与脊髓系统------负责那些不需要意识参与即可完成的精确动作:行走、平衡、反射。这些功能要求快速、自动、可靠,不容延迟与偏差。大语言模型则类比为大脑皮层------负责需要意识参与的复杂认知:理解语境、制定策略、生成语言。这些功能允许缓慢、耗能、概率性的处理,但要求灵活性与适应性。
这一架构类比揭示了一个根本洞见:完整的智能系统需要两种认知模式的协同。缺乏规则层的系统会陷入"纸上谈兵"------战略正确但无法精确执行;缺乏大模型层的系统则囿于"机械反应"------执行完美但无法应对意外。二者的结合不是简单的功能叠加,而是认知架构的必要完备性条件。
3 智能的核心定义:未知向已知的转化
3.1 转化命题的提出
在上述讨论基础上,本文提出一个核心命题:智能的本质可定义为"将未知转化为已知的能力"。这一命题具有跨领域的解释力:
在游戏场景中,新手玩家通过反复试错将"AI何时会宣战"这一未知转化为可预测的规律;
在科学史上,牛顿将"苹果为何下落"的未知转化为万有引力定律;
在医疗领域,人类将"疾病病因"的未知转化为微生物学知识。
每一次智能活动,本质上都是对某个未知域的边界推进,将原先不可知、不可控、不可理解的对象纳入已知框架。
3.2 未知的三层次模型
并非所有"未知"具有相同性质。基于认识论框架,本文提出未知的三层次模型:
第一层:已知的未知------问题存在且范畴清晰,仅待求解。例如《纪元》中某岛屿的最优布局方案,或"历史上对付三星AI的有效策略"。此类问题已有明确求解路径,AI凭借计算效率与知识广度可远超人类表现。
第二层:隐性的已知------知识存在于人类实践中但未被显性记录。例如"如何让AI觉得你厉害"这类经验性智慧,从未成文却可通过数据挖掘从海量讨论中提取。大模型在这一层次接近人类水平,因其能从分布式的人类经验中识别潜在模式。
第三层:未知的未知------超出当前认知框架的问题,尚未被意识到其存在。例如青霉素发现前的"霉菌抗菌现象",X光发现前的"阴极射线使荧光屏发光异常"。此类未知需要的不只是求解,而是对异常现象的敏感性、对既定框架的突破能力。目前AI在此层次近乎为零。
3.3 狗踩键盘案例的重新审视
前Meta工程师的"狗踩键盘生成游戏"案例,为我们理解第三层未知的突破提供了独特视角。狗踩出的字符序列"y7u8888888ftrg34BC"是纯粹的物理噪声------不携带语义、不源自任何游戏设计数据、完全超出AI训练集的分布范围。从AI系统的角度看,这一输入属于"未知的未知":它不在任何预期范畴内,也没有既定的处理规则。然而,通过工程师设计的提示词,大模型被迫将这一无意义输入"解读"为游戏创意,从而将外部的随机扰动转化为可执行的设计。
这一过程的关键在于:外部随机源(狗踩键盘)提供了系统无法内生产生的变异性,而大模型的强大解读能力则充当了"意义赋予"的桥梁。结果中"8888888"被解读为"长长的舌头","ftrg"被解读为乱序的"frog","34"被解读为"3D+4方向"------这些联想并非来自狗的设计,而是模型在强制解读下的创造性映射。这一案例揭示:当AI的解读能力足够强大,即使纯粹的物理噪声也可被赋予意义,从而将"未知的未知"转化为某种形式的"已知"。但同样重要的是,那个"噪声"必须来自系统外部,而非模型自己生成------若直接让模型"生成一个随机游戏",其输出将偏向训练数据的平均值,无法带来真正的突破。
4 创造的条件:随机与筛选的耦合
4.1 随机数的认识论地位
上述讨论引出一个更根本的问题:如果AI要真正自主地"创造"------脱离人类数据与目标设定------其最本质的输入是什么?
答案是:随机性。任何封闭的确定性系统都无法产生真正的新异性。规则AI输入A输出B,是函数的确定映射;大模型预测"最可能的下一个词",是概率分布的采样。二者都未超出既定空间。要打破这一封闭性,必须引入非确定性的源头------在计算系统中,这一源头即随机数(或物理随机源)。
考察进化的底层机制:遗传算法中随机数决定交叉与突变位点;强化学习中随机数决定探索动作的选择;神经网络初始化依赖随机种子。没有随机性,就没有"试错"的可能性空间。
4.2 评价标准的必要性
然而纯粹的随机仅是噪声。猴子无限敲击键盘产出莎士比亚的概率趋近于零。随机必须与评价标准耦合,才能从无意义的变化中筛选出有价值的方向。
在自然进化中,这一标准是"生存与繁殖"------环境对随机突变的筛选经过亿万次迭代,产生了眼睛、翅膀、大脑等复杂结构。在狗踩键盘案例中,评价标准由工程师的提示词和反馈系统提供:"必须生成可玩游戏"、"必须有音效、WASD控制、可见玩家角色、至少一个敌人"。这些约束构成了筛选的"适应度函数"。
由此可得创造的条件公式:创造 = 随机生成 × 定向筛选。没有随机,只有已知的重组;没有筛选,只有无效的噪声。
4.3 狗踩键盘的进化算法视角
用这一框架重审狗踩键盘案例:
随机生成器:狗踩键盘------纯粹的物理噪声,模型无法预测
评价标准:工程师的提示词与验证脚本------定义"可玩游戏"的边界条件
执行引擎:Claude + Godot------将筛选后的"创意"转化为可执行代码
这一流程与进化算法同构:随机变异(狗踩)产生候选解,适应度函数(提示词)筛选保留,迭代执行(生成+调试)逼近目标。区别在于,自然进化的适应度函数是环境内在的,而此处的适应度函数由人设定------这正是下一节要讨论的"边界"问题。
5 系统的边界:结构性局限与人的位置
5.1 三重结构性局限
无论规则AI与大模型的结合多么完美,系统仍面临无法超越的边界。这些边界不是技术发展程度问题,而是认识论层面的结构性局限:
(1)范围的有限性
大模型所能转化的"未知",本质上是人类已知的未知------其训练数据来自人类书籍、文章、对话,其学习规律是人类已发现的规律。它无法触及人类从未触及的领域。规则AI的范围更小,仅限于程序员写入代码的世界。二者结合,仍困于"人类已知宇宙"之内。
(2)维度的有限性
将"未知"转化为"已知"的过程,必然伴随信息损失。模糊的感觉、未成形的直觉、潜意识的联想------当它们被"固定"为清晰指令时,那些微妙的维度已然丢失。规则AI只能处理"固定后"的信息,永远无法触及转化过程中丢失的部分。
(3)时间的有限性
大模型的知识截止于训练数据的时间点,规则AI的规则截止于代码编写的时刻。但世界持续流动:今日成立的规律明日可能被颠覆,此刻的最优解下一刻可能成为陷阱。系统永远用"过去的已知"应对"未来的未知",这一时间差是结构性的、不可消除的。
5.2 人的边界定位
谁在补足这些局限?
人。
当系统将未知"固定"为已知时,人判断这个"固定"是否恰当;
当规则AI做出判断时,人评估这个判断是否符合现实情境;
当系统的"已知"落后于世界变化时,人补充那个时间差。
人不是系统的一部分,人是系统的边界。这一命题具有双重含义:一方面,系统的能力边界由人的认知边界定义------AI所能"知道"的,不超出人类已知的总和;另一方面,系统的局限性由人的介入来弥补------当系统失效时,人成为最后的决策者。
狗踩键盘案例中,真正不可替代的不是狗踩的随机数,也不是AI的解读,而是搭建整个系统的人:设计提示词、设置反馈循环、整合工具链、最后debug。狗踩键盘谁都会,AI解读现成可用,但将这些要素组织成有效产出系统的,是人。
6 结论:在边界处思考
本文从《纪元1800》游戏AI的机制分析出发,探讨了规则驱动型AI与大语言模型的认知差异与互补关系,提出了"智能即未知向已知转化"的核心命题,并基于三层次未知模型分析了狗踩键盘案例的深层意涵。在此基础上,本文论证了创造的必要条件------随机生成与评价标准的耦合,并揭示了当前AI系统的三重结构性局限以及人在其中的边界定位。
这一讨论最终收束于一个认识论层面的观察:能够认识到系统的"有限",本身就意味着站在了"有限"之外。AI不知道自己有限------它在自己的世界里是全能的。但人能看见AI的边界,这说明人已经站在了更高的维度上。
这或许是人与工具之间最本质的区别:工具在圈内求最优,人在圈外定规则。计算机从诞生的第一天起,就是为了在给定范围内求解------规则AI在游戏规则内求最佳,大模型在人类知识空间内求最佳。两者本质上都在做同一件事:在定义的边界内,寻找最优的输出。区别只在于边界的范围,以及"最优"的定义。
而这个边界,最终是由人来定义的。这也许就是人类在AI时代最核心的位置:不是和AI比谁算得快,而是决定"算什么"和"为什么算"。