原文:Daniel Villiger, AI-assisted rational decision-making , Synthese (2026).
1 论文信息
1.1 基本信息
| 项目 | 内容 |
|---|---|
| 论文标题 | AI-assisted rational decision-making |
| 中文可译 | AI 辅助的理性决策 |
| 作者 | Daniel Villiger |
| 单位 | University of Zurich;Uehiro Oxford Institute |
| 期刊 | Synthese |
| 年份 | 2026 |
| DOI | 10.1007/s11229-026-05528-7 |
| 关键词 | AI、Rational choice、Hard choices、Parity、Transformative experience |
1.2 一句话看懂这篇论文
这篇文章讨论的不是"AI 能不能给建议",而是一个更严格的问题:AI 到底能不能帮助我们做出"理性上正确"的决定 。作者把决策分成三类:简单选择、困难选择、变革性选择。结论非常鲜明:如果在没有 AI 的情况下,选项本身的价值结构就不足以决定理性选择,那么 AI 的加入通常也无法从根本上改变这一点。
1.3 核心结论总表
| 决策类型 | 论文中的定义 | AI 能做什么 | AI 不能做什么 | 作者结论 |
|---|---|---|---|---|
| 简单选择 | 选项之间原则上可以比较高下 | 提升搜索效率、提高概率判断精度、辅助偏好预测、帮助反思 | 不能保证永远找到全局最优项 | 能显著提升理性决策的效率与准确性 |
| 困难选择 | 选项"齐平(on a par)",既不是更好、更差,也不是完全相等 | 帮助个体反思、生成或触发"意志型理由" | 不能替代主体本人作出"承诺" | 能辅助,但不能代替人的能动性 |
| 变革性选择 | 我们事前无法知道某种经历"到底是什么感觉",且可能因此改变自身价值观 | 最多提供外部资料、类比经验、群体统计 | 不能填补认知缺口,也不能消除"我会变成谁"的形而上疏离 | 不能让这类选择变成标准意义上的理性选择 |
2 摘要全文翻译

2.1 摘要译文
AI 已经成为人们做选择时的常见助手,从微不足道的小决定到影响深远的大决定都包括在内。它既可以帮助我们寻找已有信息,从而修正与决策有关的信念;也可以生成新的信息,辅助我们形成判断。但问题在于:在何种意义上,以及在多大程度上,AI 对理性决策是有用的?
本文分别针对三类选择给出答案:简单选择、困难选择与变革性选择。
在简单选择中,理性行动原则上是明确的。此时,AI 可以让决策过程更高效、更准确,并提升我们从决策中获得的派生价值,至少从长期来看如此。
在困难选择中,最优选项之间处于"齐平"关系。此时,AI 可以在我们"承诺"某一选项时提供帮助,协助我们创造新的、基于意志的理由。
在变革性选择中,我们甚至在原则上都无法凭借自身知道哪个选项能够最大化期望价值。AI 无法填补这种选择特有的认识论缺口与形而上学缺口,因此也就无法让我们完成理性决策。
总体而言,本文表明:如果各个选项本身的价值还不足以让我们在没有 AI 的情况下确定理性选择,那么 AI 的协助本身并不会改变这一点。
2.2 摘要精读
这段摘要其实已经把全文立场讲透了:
第一,作者承认 AI 确实有用,但这种"有用"主要集中在信息收集、概率判断、偏好澄清这些层面。
第二,作者并不认为 AI 能解决一切决策难题。特别是当决策难点不是"算得不够快"或"信息不够全",而是价值本身不决定唯一答案时,AI 就很难越界代替主体。
第三,文章的真正锋芒在最后一句:AI 不能凭空制造理性决定性。这也是全文最值得反复咀嚼的判断。
3 引言全文翻译
3.1 引言译文
至少自 2022 年底 ChatGPT 面向公众发布以来,AI 越来越多地进入我们的日常决策过程。到 2024 年 12 月,ChatGPT 已拥有 3 亿周活跃用户,每日查询量超过 10 亿次。虽然我们并不清楚这些日常查询中有多少与"做决定"有关,但即便只占很小一部分,这个数字仍然相当惊人。无论如何,很多人在做决定时会咨询 ChatGPT,这几乎已经不再有争议:比如拿着 X、Y、Z 这些食材该做什么饭,把钱投到哪里,或者是否应该离开自己的伴侣。更重要的是,初步证据表明,ChatGPT 给出的建议在人们决策中的影响力,可能与人类专家提供的建议一样大。综合来看,ChatGPT 很可能会成为世界上最重要的决策辅助工具之一,不论从使用频率还是影响程度上看都是如此。
当然,把 AI 用作决策辅助者并不是从 ChatGPT 才开始的。例如,十多年来,AI 一直被用于司法系统,用来预测罪犯再犯的风险,或预测潜在犯罪活动,从而辅助法院和警察作出决定。AI 在医学中也有悠久历史:它帮助临床医生识别疾病、预测个体患者的结局,而这些预测又会影响医生的建议,并最终影响患者的决定。但尽管这些 AI 辅助决策的后果可能非常重大,真正直接与这些 AI 助手交互的人其实并不多,因此它们并没有深度进入多数人的日常生活。
与此同时,在 ChatGPT 之前,Siri、Alexa 等 AI 助手就已经存在于许多人的生活中。但这类数字助手虽然能回答一些简单问题,主要用途还是语音控制设备和执行基础任务。因此,它们作为决策辅助工具的作用相对有限,通常只涉及后果较小的选择,比如今晚看哪部电影、去哪家餐厅。
相比之下,ChatGPT 以及更广义的大语言模型似乎不同:你几乎可以向它们询问任何问题,而且通常都会得到一个乍看之下颇为合理的答案。所以,只要你在决策中有疑问,或者需要建议,似乎只要问一个 LLM 就行。这让它们看上去简直是完美的决策助手------至少表面上如此。
但从规范性决策理论的角度看,LLM 和其他 AI 系统能否真正扮演"有用的决策助手",并不取决于它们是否能帮助我们"做决定",而取决于它们是否能帮助我们"做出理性决定"。这就引出了本文的核心问题:AI 究竟能够以何种方式、在多大程度上辅助我们进行理性决策?
本文首先考察,AI 一般而言可以通过哪些方式帮助理性主体完成决策过程;随后分析它对三类决策的作用:
一类是简单选择,即每个选项相对于其他选项,要么更可取、要么更不可取、要么同样可取;
一类是困难选择,即最优选项之间处于"齐平"状态;
一类是变革性选择,即我们自己无法知道各选项的期望价值。
在简单选择中,AI 能让整个决策过程更高效、更准确,这两点都会提升我们从选择中平均获得的价值。在困难选择中,AI 可以在我们承诺某个选项时提供帮助,支持我们创造新的、基于意志的理由。在变革性选择中,AI 无法克服这种选择所包含的认识论挑战和形而上学挑战,因此无法使理性决策成为可能。总体来看,本文表明:虽然 AI 可以有益地辅助理性决策,但它在预测价值和偏好方面的潜力是有限的,因为很多关键数据其实并不存在。
为了避免误解,作者在开头明确提出三点前提假设:
第一,本文讨论的是 AI 如何辅助已经是理性主体的人进行决策,而不是 AI 如何把一个不理性的人改造成更理性的人。
第二,本文暂时忽略现实中 AI 系统常见的偏差与不准确性。因此,作者假设 AI 在理想条件下运行,只要相关数据存在,它就能从中得出正确结论。
第三,这些结论当然未必完全精确,但本文假设,使用 AI 的主体能够大致判断这些结论有多准确。
本文其余部分安排如下:第 2 节回顾进行理性决策所需要的条件;第 3 节分析 AI 是否以及如何辅助主体进行理性决策,其中子节分别讨论简单选择、困难选择与变革性选择;第 4 节给出结论。
3.2 引言精读
引言部分有两个很重要的动作。
第一,它把问题从"AI 是否好用"抬高到了"AI 是否有助于理性决策"。这一步非常关键,因为"好用"只关心体验,"理性"则要求有明确的规范标准。
第二,它预先给出了全文的边界条件:作者并不讨论现实世界里 LLM 的幻觉、偏见、对齐失败,而是先在一种理想化条件 下讨论问题。也就是说,这篇论文不是在吐槽 AI 现在不够强,而是在问:就算 AI 足够强,它的能力边界到底在哪里?
4 相关工作
4.1 本文所处的问题脉络
这篇论文并不是孤立在讨论"AI 很火,所以我们来谈谈 AI"。它其实站在四条研究脉络的交叉点上。
第一条脉络,是规范性决策理论。作者把"理性决策"的判断标准建立在期望效用理论之上,也就是:在不确定条件下,理性主体应当选择期望价值最高的选项。
第二条脉络,是硬选择(hard choices)与 parity 理论。这一脉络主要与 Ruth Chang 的工作相关。它挑战传统的"三分法"比较结构:并非所有选项都能简单地被归为"更好""更差"或"同样好"。
第三条脉络,是变革性体验(transformative experience)。这一脉络主要来自 L. A. Paul,强调某些人生重大选择之所以棘手,不只是因为后果不确定,而是因为我们根本不知道那种生活"是什么感觉",而且它还会反过来改变我们是谁、我们重视什么。
第四条脉络,是AI 决策辅助系统与偏好预测。从司法风险预测、临床辅助决策,到推荐系统、逆强化学习、RLHF、偏好优化,大量 AI 系统都在尝试预测人的偏好、判断或最优行为。
4.2 这篇论文与已有工作的区别
已有很多工作讨论了 AI 会不会替代人类判断,也有很多工作讨论"人机协作"能否提升决策质量。但 Villiger 这篇文章的独特之处在于:他不是从工程角度讨论 AI 是否有效,而是从哲学上的理性标准出发,问 AI 是否真的能帮助主体更接近"理性上应当做的决定"。
所以,这篇文章的创新不在于提供一个新模型,也不在于做实验,而在于把三组原本常常分开谈的问题------期望效用理论、硬选择、变革性体验------统一放进"AI 辅助决策"这个框架里审视。
4.3 相关工作小结表
| 研究方向 | 典型问题 | 与本文的关系 |
|---|---|---|
| 规范性决策理论 | 理性主体应如何在不确定性下做决定 | 为全文提供理性判断标准 |
| Hard choices / parity | 为什么有些选择既不是更优也不是等优 | 支撑本文对"困难选择"的分析 |
| Transformative experience | 为什么有些人生决策事前无法评估其价值 | 支撑本文对"变革性选择"的分析 |
| AI decision support | AI 能否预测风险、偏好、推荐行动 | 支撑本文对 AI 现实作用的讨论 |
5 基础知识(新增)
5.1 本章说明
这一章不是原文自带内容,而是为了让后文更容易读懂,补上的"基础知识"。相关内容依据联网检索结果整理,主要参考了:
- Stanford Encyclopedia of Philosophy 的 Normative Theories of Rational Choice: Expected Utility(2023 修订);
- Stanford Encyclopedia of Philosophy 的 Transformative Experience(2025 版);
- Ruth Chang 的 Hard Choices;
- 2024 年 npj Digital Medicine 关于 AI-enabled decision aids 的系统综述;
- 2025 年 Information Systems Frontiers 关于 intelligent decision support systems 的综述。
换句话说,这一章不是"凭经验补概念",而是结合外部权威资料做的读前铺垫。
5.2 什么是期望效用理论
期望效用理论是规范性决策理论里最经典的一套框架。它的基本口号非常简单:当你不知道某个行为最终会带来什么结果时,应该选择期望效用最高的行为。
这里有三个基础元素:
第一,是行为(act),也就是你能做的事。
第二,是结果(outcome),也就是行为在不同情形下可能带来的后果。
第三,是概率与效用。概率表示某个结果发生的可能性,效用表示该结果对你有多"值"。
于是,一个行为的期望效用,等于"每种可能结果的效用 × 该结果发生的概率"之后再求和。它不是保证你总能得到最好结果,而是要求你在不确定中做平均意义上最合理的选择。
为了后面阅读更顺畅,可以把它先理解成一句人话:理性决策不是赌运气,而是在已知信息下,尽可能选那个"综合算下来最值"的方案。
5.3 什么是困难选择与 parity
很多人以为"选择困难"只是因为信息不足,或者我们太纠结。但 Ruth Chang 提出的 hard choices 理论说,真正困难的选择往往不是这样。它难,不是因为我们还没想清楚;而是因为两个选项可能真的不服从传统的优劣比较结构。
传统上,我们会以为两个可比较的选项只有三种关系:一个更好、一个更差,或者两者同样好。但 Chang 认为,还有第四种情况:齐平(on a par)。
所谓齐平,不是"完全一样好",也不是"根本无法比较",而是:二者处在同一个价值量级里,但所代表的价值类型不同,因此你不能说 A 比 B 更好,也不能说 A 和 B 完全等值。
比如"做医生"与"做哲学家"这类选择,可能就不是简单的工资比较、成就比较或者幸福感打分比较。它们背后对应的是两种非常不同的人生价值形态。
这时,理性并不总是意味着"继续算",而可能意味着:你必须通过自己的承诺,把某个方向变成你愿意承担并认同的方向。
5.4 什么是变革性体验
变革性体验理论主要和 L. A. Paul 相关。它强调:有些重大人生经历之所以难以理性评估,不只是因为我们"信息不够",而是因为我们在经历之前根本不知道那到底是什么感觉。
例如,成为父母、经历重大疾病、宗教皈依、移民、深度恋爱、重大职业转变------这些都可能是变革性体验。
它至少有两个层面。
第一个层面是认识论上的变革:在真正经历之前,你不知道"那是什么感觉"。你可以读文章、看访谈、听别人讲,但这种知识和亲历所得并不一样。
第二个层面是人格或价值上的变革:经历之后,你可能不只是"多知道了一点",而是连你自己在乎什么、想成为什么样的人,都发生了变化。
这就对传统决策理论造成挑战。因为传统决策模型默认你可以给结果赋值、分配概率,然后计算期望值;但如果你连"这个结果对我值不值"都无法事前知道,那模型的输入本身就出问题了。
5.5 什么是 AI 决策辅助系统
AI 决策辅助系统可以粗略理解为:利用数据、模型与算法,为人类决策者提供预测、推荐、排序或解释的系统。
它不一定替你做决定,但它会影响你如何看待选项、风险与收益。现代 AI 决策辅助系统常见的能力包括:
预测某个结果发生的概率;
根据历史行为推断你的偏好;
对大量选项进行筛选与排序;
把复杂信息压缩成更容易理解的建议形式。
近年的综述研究表明,AI-enabled decision aids 在医疗情境中常被用于筛查、预后与治疗推荐,患者通常会觉得这类工具更易理解、也更有参与感;但与此同时,临床人员也会担心信息是否足够新、是否存在偏差,以及是否会导致过度治疗或不足治疗。
所以,AI 决策辅助系统最适合先理解成一个中间层:它能改变信息结构,却不自动等于改变了规范意义上的"应当如何选择"。
5.6 基础知识对照表
| 概念 | 最简定义 | 为什么对本文重要 |
|---|---|---|
| 期望效用理论 | 选择期望价值最高的行为 | 是作者判断"理性决策"的标准 |
| Hard choices | 两个选项不是更优、更差,也不是等优 | 解释为什么有些决策不是算不清,而是值域结构不同 |
| Parity | 两个选项"齐平",处在同一价值邻域但价值类型不同 | 是困难选择分析的理论核心 |
| Transformative experience | 事前无法知道"那是什么感觉",且可能改变自我与价值观 | 解释为什么某些重大选择无法按常规模型计算 |
| AI decision support | 用 AI 提供预测、推荐、排序、解释 | 是本文讨论 AI 作用边界的现实技术背景 |
6 方法与分析框架
6.1 这一章对应原文哪里
从原文结构看,严格说它不是机器学习论文那种"方法章"。它没有模型结构、没有实验设置、没有数据集。它的"方法"其实是一个哲学分析框架:
先用期望效用理论规定什么叫理性决策;
再分析理性决策需要哪些输入信息;
最后考察 AI 能否在不同类型的选择中补足这些输入。
因此,把这一章称为"方法与分析框架"是最贴切的。
6.2 原文第 2 节全文翻译:做出理性决策需要什么?
期望效用理论是当下关于理性决策最主流的规范性标准。它要求主体选择期望价值最高的那个选项,或者在多个选项并列最高时,从中任意选一个。
由于本文考察的是 AI 能否帮助主体完成理性决策过程,因此作者把期望效用理论当作一种审议性工具来使用,而不只是事后评价工具。在这种审议性理解下,决策理论往往采用一种实在论解释:主体的信念强度与效用并不是虚构的记账符号,而是心理上真实存在、并构成偏好排序基础的状态。也就是说,是主体的信念与效用决定了偏好排序,而偏好排序进一步决定了理性选择。
为了判断哪个选项是理性上应当选择的,主体会使用如下程序。
第一,拿出一个可选项。
第二,考虑这个选项可能导向的所有结果,并评估自己从每个结果中会获得多少价值。
第三,评估每个结果出现的可能性。
第四,把每个结果的价值与其概率相乘,并把这些乘积相加,得到该选项的期望价值。
第五,对其他所有选项重复同样过程,并按照期望价值高低对它们排序。
第六,理性主体选择排名最高的选项;如果并列最高的选项不止一个,那么随机从中选一个也可以,因为这些选项都实现了期望价值最大化。
需要强调的是,普通人并不需要把上述程序执行得完美无误,才能算作做出了理性选择。一定程度的近似、不确定、无知和错误信念都是允许的。否则,理性决策的规范标准就会高到普通推理者根本无法达到。
综合起来,做出理性决策,我们需要形成关于以下四个方面的有根据的信念:
第一,我们有哪些可选项;
第二,每个选项可能导致哪些结果;
第三,这些结果分别有多大概率发生;
第四,这些结果分别有多大价值。
基于这些信念,我们才能计算各个可选项的期望价值,并选择那个期望价值最高的选项。
6.3 原文第 3 节开头全文翻译:AI 一般能怎样帮助理性决策?
AI 在帮助我们获取理性选择所需信息时,整体上有两种方式。
第一种方式,是帮助我们搜集已有信息。这类帮助主要发生在决策过程中各类判断所需信息的搜寻阶段。首先,AI 可以帮助你识别更多可选项。假设你到了一座新城市,想出去吃晚饭。AI 系统可以列出步行十分钟范围内的餐馆。接着,假设其中一家餐厅主打贝类菜肴。AI 还可以帮助你识别选择去这家餐厅可能带来的更多结果。例如,你可能通过 AI 了解到,吃贝类不仅可能带来从美味到难以下咽的不同饮食体验,还有可能引发过敏反应。再进一步,如果你原本并不知道自己是否对贝类过敏,AI 还可以帮助你找到相关资料,估计这种过敏反应发生的概率。最后,如果你不清楚"贝类过敏到底是什么感受",AI 还可以帮你找到描述或亲历证言,作为你评估这一结果价值的基础。
这类 AI 的关键点在于:它只是帮你找到已经存在的信息,而不是创造新信息。所以,原则上这些信息在没有 AI 的情况下也能找到,只是用 AI 搜索会更容易。过去几十年里,Google 一直是搜索信息的代表性工具,以至于"google 一下"都成了日常表达。但随着能够实时联网的大语言模型出现,这种情况可能发生改变,因为它们在寻找特定信息与来源时表现得相当出色。
第二种方式,是生成新信息。这里又可以分成三类。
第一类,是帮助我们形成那些用来决定偏好排序底层变量的信念。很多时候,AI 生成的信息其实是一种关于某个结果发生概率的预测。比如前面提到的司法系统案例:当决策者面临"是否释放囚犯 X"这个选项时,AI 会尝试预测"再犯"这一结果发生的概率。它的依据是历史刑事司法数据,包括过往定罪信息、罪犯特征以及再犯率。类似地,只要相关数据存在,AI 也可以帮助主体估计:某个结果究竟会给自己带来多少价值。最后,AI 还可以生成此前人类未能识别的选项或结果信息。例如,在药物研发中,LLM 可能提示存在新的候选方案;或者针对某个选项,指出此前未被识别的潜在后果。
第二类,是偏好预测。预测一个人的偏好,本质上就是预测"哪个选项是理性上应当选择的"。这样,主体就不必再逐个计算选项的期望价值,而是直接得知哪个选项大概率拥有最高期望价值。做这件事的 AI 系统,有的依赖已经包含足够信息的数据,有的则试图根据人的行为或反应来反推出偏好------这就是显性偏好理论所承诺的事情。很多机器学习技术都在做类似工作,比如逆强化学习、基于人类反馈的强化学习,以及直接偏好优化。推荐系统也常常默认:用户最可能去点击、观看或参与的项目,就是其最偏好的项目。比如流媒体平台会根据用户档案和历史选择来推荐电影。
第三类,是在与主体互动中获得信息价值的文本。具体来说,主体与 AI 互动时,可能开启一个反思过程,并在这个过程中获得新的洞见。这些洞见并不是 AI 自己"拥有"并传递给你的,而是 AI 通过提问、提示、推进思路,在你的思考过程中扮演了关键角色。比如,一个人在 A 与 B 两个选项之间犹豫不决,通过和 LLM 对话,可能逐渐想清楚自己真正想要什么,并意识到 A 比 B 更符合自己的需要。在某种程度上,这有点像和朋友、教练讨论一个让自己纠结的决定。
到这里为止,我们考察的是:从一般决策视角看,AI 能怎样帮助我们形成信念、确定偏好。接下来,作者会更细致地分析:在简单选择、困难选择和变革性选择中,AI 找到或生成的信息究竟在多大程度上真的有助于理性决策。
6.4 这一章怎么理解
这一章其实把整篇文章的"分析算法"讲清楚了。
作者并不是先讨论具体应用,再下结论;相反,他先问:理性决策需要哪些信息输入?
然后再问:AI 是否能提供这些输入?提供到什么程度?
如果能,它就真能帮助理性决策;如果不能,它最多只是"看起来在帮你"。
7 简单选择:全文精读与翻译
7.1 原文第 3.1 节全文翻译
在简单选择中------无论有没有 AI 协助------我们原则上都可以对所有可选项按照其产生的期望价值进行排序,并选择那个期望价值最高的选项,或者在多个选项并列最高时任选其一。因此,第 2 节概述的理性决策程序在这里原则上是可以顺利执行的,尽管过程中可能仍需要一定反思。
AI 在简单选择中的主要优势有两个:效率 和准确性。
先说效率。借助 AI 搜索信息,比我们自己手动搜寻通常快得多。它可以在几秒之内列出一个选择情境中的一部分选项,或者给出若干能回答我们问题的资料来源。当然,乍看之下并不清楚,AI 推荐的选项和资料是不是"最好的"。也许真正期望价值更高的选项,并不在 AI 生成的列表里。那么,如果我们并不知道 AI 给出的选项集合是否真的包含那个全局最优项,只根据这份列表做决策,还算理性吗?作者的回答是:不一定不理性。因为理性的主体会优化自己对选项的搜索过程。
如果我们非要一直搜索,直到找到期望价值最高的选项,通常就意味着必须把所有选项都找出来。因为在找到所有选项之前,我们无法确定尚未考虑的选项中有没有比当前最优项更好的。但所谓"优化",是指:当"继续搜索"的期望收益不再超过"直接选择当前最好项"的期望收益时,就停止搜索。因此,把 AI 提供的若干选项作为备选集合,并在其中选一个期望价值最高的选项,完全可能等价于一种理性的优化策略。
对资料搜索也是一样。还是用贝类过敏的例子。为了估计自己第一次吃贝类后过敏的概率,你可以让 AI 帮你找研究贝类过敏流行率的论文。AI 很可能不会把所有相关研究都列给你,而只给出一个筛选后的集合。但这个集合往往已经足够让你形成一个有根据的信念,估计自己第一次吃贝类时发生过敏反应的概率。换句话说,为了理性地决定要不要第一次吃贝类,你并不需要先成为"贝类过敏流行率专家"。这样做的成本,并不值得为了获得略微更优的决策结果而付出。
还有一种更高效的方式,是让 AI 直接预测你的偏好。在这种情况下,AI 系统通常也会给出多个可能选项,但和单纯帮你找选项不同,这些选项应该已经在价值上与"你是谁、你喜欢什么"相匹配,并按此排序。举例来说,Netflix 有成千上万部电影。如果你今晚要在 Netflix 上看电影,几乎不可能把所有电影都看过一遍,再决定哪部期望价值最高。Netflix 的推荐算法会根据你的历史观看行为,给你推荐它认为你会喜欢的影片,并以匹配度百分比的方式呈现出来。
这些推荐中排在第一位的电影,当然未必真的是整个平台上期望价值最高的一部。但如果"接受推荐并立刻开始看"与一种优化策略等价,那么顺着推荐走仍是理性的:因为现在就看一部不错、甚至相当不错的电影,通常比继续漫无目的地搜索一部也许更好、但不知道多久才能找到的电影更值得。并且,由于推荐算法已经预先筛出一批更符合你偏好的内容,所以你在优化过程中接触到的选项序列也就不再是随机的。这意味着:与没有推荐系统相比,你通常能用更少时间、更低成本,找到一部和最终会选到的最佳电影差不多好的影片。
不过,优化结合偏好预测也有其令人担忧的一面。Sharadin 指出,一个偏好预测算法要提高准确率,不仅可以通过更好地预测人们已给定的偏好来实现,也可以通过改变人们的偏好,使其更贴近算法的预测来实现。还是 Netflix 的例子。假设你看了一部推荐电影,感觉只是中等喜欢。Netflix 可能"注意到"你并没有特别喜欢它,比如因为你中间暂停了很多次。此时算法有两种做法:一种是更新对你偏好的预测,给你推荐别的类型;另一种是坚持原预测,继续推荐相似电影,默认你看得越多,就越会喜欢这一类内容。而"单纯曝光效应"告诉我们,这种假设其实是有经验支持的。
于是,由于你本来就在做优化,你很可能仍会继续看推荐列表里的片子,即便它们起初和你的偏好并不完全贴合。但看得越多,你越可能开始真的喜欢它们。最终,看上去像是系统准确预测了你的偏好,实际上却可能是系统把你的偏好慢慢塑造成了它原本的预测。
无论是否借助 AI,"优化"本身还面临一个认识论难题:什么时候继续搜索带来的潜在收益,已经不再值得其成本?
要回答这个问题,你得大致估计继续搜索的期望价值。而这又要求你能够大致估计:你正在寻找的更优选项通常会有多大期望价值,以及你在某个时间长度内找到它的概率有多高。这些变量我们通常并不知道。所以,优化并不像表面看上去那样轻而易举。
尽管如此,作者认为还是有一种近似的解决办法:通过在不同决策场景中不断调整自己花在搜索上的时间,我们可以逐渐学到一个大概的"优化阈值"。比如你发现,大多数时候,在 Netflix 上花很久挑电影,最后仍然会选回推荐列表里的影片,或者你额外找到的片子其实并没有更好,那你就可以合理推断:在这种场景下,直接从推荐里选一个,也许已经是优化后的选择。
再说准确性。AI 生成的预测可以提高我们形成相关信念时的准确性,而这些信念正是理性决策的基础。比如你在想要不要带伞,你可以抬头看天、相信一句天气谚语,或者查看天气 App。多数情况下,如果你根据 AI 驱动的天气预报来判断会不会下雨,这个判断会比前两种方式更准确,从而让你做出更好的决定:你更不容易在不会下雨时白带伞,也更不容易在会下雨时忘了带伞。你从选择中平均获得的价值因此提高了。
这一点适用于所有关于"某种可能结果有多大概率发生"的预测。我们越能准确预测这些概率,就越能避免因错误信念而做出次优决策。所以,当 AI 帮我们形成更准确的概率判断时,它就直接帮助我们做出更好的决定。
如果 AI 能发现那些原本无法被我们识别的可能结果,或者揭示那些原本不在我们视野里的可选项,它就在减少决策理论里所谓的"未知无知"。无论我们是否意识到自己还不知道什么------也就是无论这种无知是被意识到的还是未被意识到的------只要这种"未知无知"被减少,决策的准确性就会上升。
一方面,知道一个选项更多可能后果,会让我们更准确地把握它的期望价值,从而做出信息更充分的决定。另一方面,拥有更完整的候选集合,也会提高"全局期望价值最高的选项就在我们考虑范围内"的概率。
不过,这里还有一个细微条件。对于采取优化策略的主体来说,新增选项之所以可能提高决策质量,是因为搜索最好从那些被预测为在偏好排序中更靠前的选项开始。若没有这种预排序,AI 发现大量新选项反而可能让我们最后选到一个比原来更差的方案。尤其当这些新发现选项的平均期望价值,低于我们原本候选集合中选项的平均期望价值时,情况就可能如此。
AI 对偏好的直接预测,也能提高选择准确性。比如,如果推荐系统确实已经学会了我们大致的观影偏好,那么它推荐的电影理应具有相对较高的期望价值。知道这一点,会缩小我们对一部未看过电影价值区间的不确定性。毕竟,在还没看之前,我们并不知道它究竟值多少,只能知道它可能落在一个价值区间内。而如果一个准确的 Netflix 算法告诉我们,这部电影与我们的画像匹配度是 95%,那这个区间就被进一步收窄了,或者说,我们可以把更高概率放在这个区间中更偏"喜欢"的部分。
当然,即使没有 AI,我们有时也能靠别的方法缩小这个区间。比如你知道自己过去一直喜欢导演 X 的电影,那么你就有理由预期,导演 X 的新片你大概率也会喜欢;或者你发现自己通常喜欢高评分电影,那么一部口碑很高的新片也会更值得期待。但即便如此,AI 生成的偏好预测仍然提供了一个额外理由,让我们更有根据地预期自己会喜欢或不喜欢某部未知作品。
不过,偏好预测越是跨越差异大的选项,就越困难。预测"看电影 X"与"看电影 Y"哪个更合你胃口,相对容易;预测"看电影 X"与"看话剧 Z"哪个更好,已经更难;至于"看电影 X"与"打扫浴室"哪个更值得,则更难得多。因为在差异很大的选项之间,可供 AI 从行为中反推出偏好的既有选择集合更少。所以,当候选项彼此异质性很大时,跳过期望价值评估、直接预测偏好这条路会变得相当困难。
最后,如前一节所说,AI 不只是信息搜寻器或信息生成器,它还可以作为一个反思伙伴。在简单选择中,这种反思伙伴尤其有用------当我们还不确定某个选项到底有多大价值时,它能帮助我们理清自己的想法。
需要强调的是,这里 AI 的价值不在于它替我们"预测"某个结果对我们值多少,而在于它帮助我们自己更清楚地认识这个价值。比如,一个 AI 系统可以提出发人深省的问题,或者给出我们未曾考虑的视角。这样的互动过程可以帮助我们更准确地判断某个结果的价值,并因此做出更充分的信息化决策,更好地实现自己的期望价值最大化。
所以,关键不在于把价值判断外包给 AI,而在于通过与 AI 的互动,把我们自己的价值观想得更清楚。
概括起来,在简单选择中,AI 会同时提升效率 与准确性。通过更快地找到理性决策所需的信息,并帮助我们按可取性对选项进行排序,整个决策过程会更高效;通过提供比非 AI 路径更准确的信息,并帮助我们反思自身价值、澄清自己真正重视什么,整个决策过程也会更准确。
7.2 这一节怎么读
这一节最容易让人产生误解的地方是:作者并不是在说"AI 推荐什么你就听什么"。
相反,他真正想说的是:在简单选择里,AI 的优势主要在于降低搜索成本 和提高输入信息质量。只要你的任务本身仍然满足"可比较、可估值、可排序",AI 就很可能帮得上忙。
但作者也留了后手:推荐系统可能不仅在预测你的偏好,还在塑造你的偏好。这个提醒对今天用短视频、流媒体和电商推荐的人来说,非常现实。
7.3 简单选择总结表
| 议题 | 作者观点 |
|---|---|
| AI 搜索选项是否足够理性 | 只要等价于优化搜索过程,就可以是理性的 |
| AI 预测偏好是否更高效 | 是,尤其在候选项很多时 |
| 推荐系统有没有风险 | 有,可能通过曝光改变用户偏好 |
| AI 作为反思伙伴是否有价值 | 有,但价值在于帮助主体澄清自己的价值,而不是替主体决定价值 |
8 困难选择:全文精读与翻译
8.1 原文第 3.2 节全文翻译
假设 AI 已经帮助你完成了决策过程中的信息搜索、信息生成,也帮助你反思了自己的价值观,但你仍然不知道该选 A 还是 B。两个选项谁都不比谁更好;但与此同时,它们也不是完全一样好,也就是说,它们并不会带来完全相同的期望价值。你并不是对两者无所谓,不能只是随便抛硬币。结果就是:传统三分法中的任何一种关系------更可取、更不可取、同样可取------都不适用于这两个选项。我们似乎无法对它们进行一个标准的可取性排序。这种情形,就叫作困难选择。
关于困难选择,文献中大致有四种主要解释。
第一种认为,困难是因为我们对一些与选择有关的重要因素处于无知状态。因此,传统三分法中的某一种关系其实是成立的,只是我们还不知道是哪一种。
第二种认为,困难选择之所以困难,是因为它们涉及模糊谓词的边界情形。这个观点常常和"超估值主义"结合起来:在这种情况下,每一种比较关系都既不真也不假,但它们的析取却为真。
第三种认为,并不是所有价值都彼此可比。若两个选项承载的价值本身不可通约,那么这些选项就无法排序,这就是困难的根源。
第四种认为,困难选择表明传统三分法本身不完整,我们需要引入第四种比较关系。
本文对 AI 能否帮助困难选择的分析,只涉及第一种和第四种解释;而其中第四种------也就是 parity 理论------是本节重点,第一种则留到下一节处理。更具体地说,本节关注的是这样一种困难选择:选项之间存在 parity。
按照 Chang 的说法,一个选项相对于另一个选项,不仅可能更好、更坏、或者同样好;它还可能与另一个选项齐平 。当两个选项的期望价值可以被评估,而且这些价值是可比较的,但三分法中的任何一种关系都不成立时,它们就是齐平的。它们处在同一个"价值邻域"中,也就是从"我们应该关心多少"的角度看,它们在同一个层级;但它们所代表的价值类型又存在显著差异,因此把它们当成"无所谓、随便选哪个都行"的情况是不对的。更精确地说,这里存在一种没有偏向但又非零幅度的差异:两个选项在属性上不同,但整体上谁也不比谁更好,而这种差异又大到足以对选择产生真实影响。
如果选项处于齐平状态,已有理由就无法决定我们到底该选哪个。那么我们该怎么办?Chang 提出两种可能:承诺(committing)与漂移(drifting)。
所谓承诺,是指我们行使自身的规范性能力,通过自己的能动性,围绕某个选项的某个特征创造出新的、基于意志的理由,以此来偏向它。通过对一个选项作出承诺,我们等于为它增加了新的价值,也因此成为自己理性决定的作者。
所谓漂移,则是你有意地做出选择,但这种选择并不是一种承诺性的选择。你选了一个选项,却没有真正认可或站到其任何特定特征那一边。
如果是漂移,AI 的作用有限,因为一个漂移者本来就可以自己挑一个选项。不过,有些主体可能更希望 AI 替自己建议选哪个,因为他们不愿意、或者做不到,亲自决定。在这种情况下,AI 最多就是扮演一个"抛硬币"的角色。
而在承诺的情况下,局面就不一样了。既然承诺意味着创造新的、基于意志的理由,AI 就可以参与这个创造过程。作者认为,这里主要有两种方式。
第一种方式是:我们与 LLM 交谈,讨论各个选项的不同特征,而这场对话可能触发新的反思过程,进而催生新的意志型理由。在这种情形中,意志型理由的内容完全是由我们自己创造出来的。
第二种方式是:我们与 LLM 交谈,并在它生成的文本里识别出一个"非既有理由"------也就是一个原本并没有参与导致 parity 的价值比较的理由------然后把它采纳下来。在这种情况下,意志型理由的内容至少有一部分是由 AI 参与生成的。
举个例子。假设你必须在"做医生"和"做哲学家"之间二选一。这两个选项似乎代表了两种非常不同的价值:前者体现的是帮助他人的价值,后者体现的是追求真理与理解的价值。假设这两种价值谁也不压倒谁,我们也不应对它们无所谓;同时,也没有别的相关价值能让其中一方整体更优。那么,这两个选项就是齐平的。
此时,如果你想对其中一个选项作出承诺,就必须创造出意志型理由。更具体地说,你必须创造出"为什么对你自己而言,愿意追随这一价值"的理由。而 AI 在这里可能就能帮上忙。比如,你和 AI 的互动可能促使你想到:你想成为那种愿意为他人福祉承担责任的人,于是你承诺去做医生。又或者,AI 生成的文本中有一句话让你认同:你想成为那种即使没有明显现实收益,也依然追求真理的人,于是你采纳这个理由,并承诺去做哲学家。
有人也许会反驳:一旦我们在"承诺"时使用 AI,尤其是在采纳 AI 生成的非既有理由时,我们岂不是把自己理性决定的作者身份转交给了 AI?这样一来,不就偏离了承诺在困难选择中的真正意义了吗?
作者认为,这个反驳并非毫无道理。把困难选择完全委托给 AI,的确会带来主体性方面的问题。回到"做医生还是做哲学家"的例子,如果你只是去问 ChatGPT 该怎么办,而它告诉你哪个更适合你、为什么更适合你,你就直接照单全收并作出承诺,那当然是不恰当的。因为那样的承诺并不是建立在你自己的意志型理由之上,严格说甚至不能说是建立在"理由"之上。正如不少作者所指出的,大语言模型只能生成文本,而不能真正产生理由,因为它们并不会思考。
因此,如果我们只是机械地承诺"LLM 说的东西",那实际上并不是基于理由行动。但 LLM 生成的文本,可以在我们识别它为理由时,成为理由。在困难选择中的承诺场景里,我们必须在文本中识别出某个非既有理由;一旦我们把它识别出来,就可以采纳它,并把它转化为自己的意志型理由。最终,我们据此作出承诺并完成选择。
Porsdam Mann 等人在讨论 LLM 在医疗共同推理中的作用时,也提出了相似看法。他们认为,"理由"最初是由 LLM 生成、还是由医生或患者生成,并不是最关键的。真正关键的是:人类能否对 LLM 提供的输入进行反思性的评估,并在此基础上形成一个总体上审慎的结论。正因为如此,把 LLM 纳入医疗共同推理本身并不必然有问题;只要它能帮助扩展可考虑理由的集合,它甚至可能是有益的。
因此,如果一个理由之所以成为"我们的理由",关键在于我们能否识别并认可它,那么在困难选择中,AI 的确可以在帮助我们对某个选项作出承诺这件事上发挥有价值的作用。
顺带一提,parity 的存在也反过来给 AI 带来挑战。一方面,parity 情形无法被纯粹的数学形式化所消解,因为这里需要主体作出一个有意图的选择。这对"AI 直接替代人做决定"的设想是个麻烦,但对"AI 辅助人做决定"则不一定是。
另一方面,parity 几乎无法从行为数据中被推断出来。而这恰恰是很多试图从人类行为中推断偏好的 AI 学习方法所依赖的基础。
如果一个主体在 parity 场景中对某个选项作出了承诺,那么从其行为上看,这和"他本来就更偏好该选项"没有区别。比如,如果你在"打网球"和"踢足球"齐平的情况下承诺去打网球,那么下次你还是会选网球;但这种行为与"你本来就更喜欢网球"在数据上是难以区分的。
同样地,如果一个主体是在 parity 场景中"漂移"到某个选项,那么其行为又与"他对两个选项无差别"难以区分。比如你在网球和足球之间漂移到网球,下次也许就会选足球;从行为数据看,这和"你原本就对两者无所谓"也很接近。
问题在于:如果 AI 把 parity 场景误判成简单选择,它就会因为无法区分这两类情形,而忽略那些本来应该由我们亲自成为自身决定作者的时刻。这会限制我们在理性决策中的自主性。比如,AI 可能会告诉我们:你对两个选项其实无所谓;但实际上,我们本可以通过承诺,把其中一个选项变成对自己更可取的选项。反过来,AI 也可能告诉我们:其中一个选项就是更好;可实际上,这原本应该是一个需要我们自己承诺的空间,我们完全可以对任一方作出承诺,或者向任一方漂移。
重要的是,parity 通常恰恰会出现在那些重大、改变人生走向的选择中,比如职业选择。因为这类选择常常涉及根本价值之间的冲突。也正因如此,AI 系统必须认真对待困难选择;否则,它会恰恰在最需要发挥作用的时候失灵。
最后,作者认为:如果要避免 AI 把困难选择误认成简单选择,似乎就必须在系统中显式地编入对 parity 潜在情形的识别机制。本文只能非常简略地提出一个思路:让 AI 通过价值空间的结构特征来识别 parity。比如,当出现以下情形时,可将其标记为潜在 parity:
第一,冲突的价值差异主要是"种类之差",而不是"程度之差";
第二,没有哪种价值在相关评价维度上全面支配另一种价值;
第三,现有数据能够支持多种同样合理的解释。
如果 AI 能被设计为识别这类结构配置,那么每当这些特征出现,它就可以提示用户:这里可能不是一个简单选择,而是一个 parity 情形。
8.2 这一节怎么读
这部分是全文最"哲学"的地方,也是最有原创性的地方。
作者不是在说 AI 可以帮你找出隐藏的最优答案,而是在说:当世界本身没有替你给出唯一答案时,AI 的作用可能不是"替你选",而是"帮你成为那个能自己选的人"。
这其实是一个非常漂亮的转向:AI 的价值从"求解器"变成了"反思放大器"。
但作者也非常谨慎。他明确反对把承诺直接外包给 LLM。LLM 可以给你文本、给你说法、给你角度,但"这是不是我要站过去的理由",最后仍然得由你自己承担。
8.3 困难选择总结表
| 议题 | 作者观点 |
|---|---|
| 困难选择为什么难 | 因为选项可能处于 parity,而不是因为单纯无知 |
| AI 能否替你作承诺 | 不能 |
| AI 能否辅助承诺 | 能,可以通过对话触发反思,或提供可被主体采纳的非既有理由 |
| 从行为数据里能否识别 parity | 很难 |
| 为什么这对 AI 很重要 | 因为 AI 若把 hard choice 当成 easy choice,会压缩人的自主性 |
9 变革性选择:全文精读与翻译
9.1 原文第 3.3 节全文翻译
选项之间之所以可能无法完成标准排序,并不一定只是因为存在 parity。还有一种情况是:我们根本无法评估每个选项的期望价值。这就是所谓的变革性选择。
Paul 认为,如果我们从未体验过某一类经验,那么当我们第一次经历属于这一经验类型的结果时,就会发生一种认识论上的转变:我们会第一次知道"这种体验到底是什么感觉",从而知道它的主观价值。这里所谓的主观价值,是一个结果总价值的一部分,指的是"亲身生活这个结果"的价值。
关键在于:虽然存在少数例外,但对于一个属于陌生经验类型的结果来说,它的主观价值通常只能通过亲身经历来知道。
这就产生了一个问题:如果只有在真正经历之后,我们才能知道该结果的主观价值,那么在第一次选择它之前,以及在第一次选择它的过程之中,我们就始终不知道这个结果的期望价值。于是,我们既不能理性地选择带来这一认识论变革结果的选项,也不能理性地拒绝它。
文献中最经典的例子就是"要不要成为父母"。你只有真正成为父母,才知道那是一种什么体验。因此,当你选择成为父母,或者选择不成为父母时,你其实并不知道这个选项的期望价值。它在认识上对你是不可及的,只有在经历"成为父母"这一事件后,才变得可及。这就是为什么标准决策理论既无法告诉我们"成为父母是否理性",也无法告诉我们"不成为父母是否理性"。
一个结果的体验不仅可能在认识上改变我们,也可能在人格上改变我们。当一次经历改变了我们在乎什么,就发生了人格转变。比如,成为父母之后,你不仅知道了"做父母是什么感觉",还可能连价值观都发生变化:在为人父母之前,你可能很重视外出玩乐和聚会;在成为父母之后,你也许更重视和家人待在家里,或者享受家庭游戏之夜。
变革性选择中的人格转变可能性,会进一步加剧理性决策的困难:你不仅不知道某个变革性结果的主观价值,还不知道它会不会改变你的其他价值、又会如何改变。同时,决策理论也无法直接告诉你:未来的偏好应该比现在的偏好多大权重。理性选择似乎在这里彻底失灵了。
面对变革性选择,已经有不少作者提出过理性决策的替代思路。其中一种做法是:去咨询那些已经经历过这种变革性结果的人,根据他们的证言来评估该结果的期望价值。比如,如果你在犹豫要不要成为父母,你可以去和已经为人父母的人谈,也可以查阅有关为人父母对生活满意度影响的经验研究。通过这些信息,你似乎就能评估"成为父母"这个选项的期望价值。
乍看之下,这似乎正是 AI 辅助理性决策的理想场景:与其让我们自己去搜集这些信息并做价值预测,不如让 AI 替我们做。但无论有没有 AI,任何价值预测一开始都会面临一个重大挑战:我们是否真的拥有进行这类预测所需的数据?
为了突出这个挑战有多严重,作者先从概率预测说起。通常,当你预测概率时,你会有一个数据集,里面包含输入变量和输出变量。比如在刑事司法场景中,输入变量可能是定罪信息和罪犯特征,输出变量是再犯率。用监督学习之类的方法,算法可以学习如何从输入变量预测输出变量。最终的预测结果是一个 0 到 1 之间的数字,表示某个结果发生的概率,因此很容易理解。
但价值预测就完全不同。若要预测价值,我们需要一个数据集,其中包含我们想预测的输出变量,也就是"结果 X 的价值"。如果采用期望效用理论框架,这里的价值通常要用一个数值化的效用值表示。问题在于,效用值是定义在区间尺度上的。因此,只知道"别人从某个结果中得到了多少效用",本身对我们几乎没有用。只有当存在至少两个"效用锚点",使我们能够把别人的效用刻度与我们的效用刻度对应起来时,这个数字才有意义。换句话说,我们至少要能把自己两个效用值与数据中的两个效用值对应起来,从而实现刻度转换。但问题在于,这种可以完成转换的效用锚点似乎根本不存在。
有一种比效用值要求更低的方式,是让人用语言评价结果。比如,一个结果可以被评为"极其不喜欢、不喜欢、较不喜欢、既不喜欢也不讨厌、较喜欢、喜欢、极其喜欢"。这些语言评价还可以进一步映射成 1 到 7 的数字尺度。只要数据集中包含关于结果 X 的这类评价,以及做出评价者的画像,我们似乎就能预测:一个画像为 Y 的人会在多大程度上喜欢结果 X。
但这种预测也有自己的问题。第一,我们并不确定 1 到 7 之间的每个间隔是否真的等距,而数值化时我们通常默认它们等距。第二,我们并不确定,数据集中那些人的语言理解和我们的语言理解是否平均而言一致。第三,一个结果"喜不喜欢",并不是构成其价值的唯一因素;而如果直接让人评价"这个结果有多有价值",又显得过于抽象。总之,语言评分确实比效用值更可操作、更容易解释,但同时也会引入大量不精确性。
另一种应对变革性选择的思路,是跳过价值预测,直接预测偏好。预测偏好的好处在于:如果我们接受显性偏好理论,它可以从行为中被推断出来。比如 Netflix 算法并不知道我们究竟给每部电影打了多少价值分,但它仍然可以根据我们的观影行为推断我们的偏好。这些被推断出的偏好,当然并不独立于我们的价值;只是从系统角度看,它无需显式建模这些价值,因为其成功标准不在于是否准确预测了"我们给某个选项赋了多少价值",而在于是否成功预测了"我们会不会选、会不会看"。
但我们已经知道,偏好预测本身就有三个问题:第一,AI 可能会让我们的偏好去适配它的预测,而不是反过来;第二,候选项差异越大,偏好越难预测;第三,AI 很难从行为中识别 parity。现在,在变革性选择里又出现了一个更严重的问题:既然人在这类选择中本来就不知道哪个选项能最大化期望价值,那么再从行为中去推断偏好,也就失去了意义。
因此,在变革性选择中,无视价值、直接预测偏好,并不是一条有前景的 AI 辅助理性决策路径。
现在,暂且把"我们是否拥有相关数据"这个问题放到一边,假设我们真的可以预测某个变革性选项的期望价值。即便如此,Paul 仍会批评这种价值预测,因为它揭示的并不是"决策者本人视角下"的价值,而是"构成训练样本的人群平均成员"的价值。而且,这些预测值也无法区分:它们是针对"当前的我"而言的未来价值,还是针对"经历转变后的我"而言的未来价值。
因此,如果一个变革性决定建立在这种第三人称信息之上,主体会在两个意义上陷入异化。
第一,是认识论异化:指导决策的价值并不是"我自己的价值",所以我与这些价值之间是断开的。
第二,是形而上学异化:我与那个可能因选择某个变革性选项而出现的"未来之我"之间也是断开的,因为单靠价值计算无法真正把我与那个将要成为的人联结起来。
作者接下来就问:AI 能否帮助我们解决这两个挑战?
先看第一个问题:AI 能否帮助我们评估自己会从某个变革性结果中获得多少期望价值,从而降低认识论异化?其设想是:即便我们自己无法预见某个结果对自己的价值,AI 也许可以替我们预测出来。
生物伦理学里最近有一条相关讨论。Earp 等人提出,如果一个患者失去行为能力,需要别人替他做医疗决策,那么一个"个性化患者偏好预测器"应当参与辅助代理决策。其实,"患者偏好预测器"这一概念已经有十年左右历史,目的是根据与患者相似人群的偏好,来预测该患者在特定情境下会如何选择。它通常利用人口学、临床和心理社会数据,生成特定群体的预测。也就是说,这种系统借助的是"与患者相关地相似"的他人证言。
而 Earp 等人提出的 4P 想更进一步:它不只利用能够划分细粒度参照类的人群数据,还纳入患者自己的个人数据,比如邮件、博客、社交媒体帖子等。这样一来,它看上去就不是在预测"和你相似的人会怎么选",而是在预测"你自己会怎么选"。
有人甚至进一步主张,4P 不仅可用于代理决策,还可用于推断失能患者的最佳利益。再往前推一步,就会得到一个更激进的主张:即便是有行为能力的患者,如果不确定哪种治疗最符合自己的利益,也可以咨询 4P。更有甚者,Schwan 甚至认为,在有充分理由相信患者当前决定违背其更深层承诺时,4P 还可能帮助我们为"推翻患者当前决定"提供正当性。
如果这种看法成立,那就意味着:4P 甚至可能比行为能力完好的患者本人更"懂"他的价值观。又因为很多重大医疗决定的结果本身就是变革性的,那么只要我们承认 4P 之类系统能够在医疗场景里预测这类价值,我们似乎也得承认:它们在更一般的变革性选择中,也有可能做同样的事。并且,由于这些系统使用了我们自己的数据,因此那些指导决策的预测价值也似乎可以被视为"属于我们自己的价值"。如果如此,变革性选择在认识论层面上的一个难题似乎就被解决了。
作者的答案是:并没有。
4P 预测我们的偏好,并不是真正直接基于"我们自己的价值"。它只是用我们的个人数据,把我们被归入的参照类划分得更细。说到底,它仍然是在对那个参照类做一般化,然后把这个一般化结果应用到我们身上。
还是以"要不要成为父母"为例。若我们在这个问题上使用 4P,它不仅会考虑"那些与我们相似的人在类似情境中怎么选,以及他们从中获得了多少价值",还会把我们的个人数据纳入计算:比如我们看婴儿视频的频率、我们在日记或社交媒体中如何谈论育儿、我们给朋友孩子拍了多少照片,等等。
但这些个人数据本身其实不足以直接推出"成为父母对我们有多大价值"。只有在给这些数据套上一层一般化规则时,预测才可能成立。比如:"一个人越频繁地观看婴儿视频,越可能高度重视为人父母。"只有把这样的概括与个人数据结合起来,所谓"个性化预测"才成立。
然而,这种预测之所以"个性化",只是因为它用到了个人数据,而不是因为它完全建立在个人数据之上。
一般化并不一定都必须来自总体人群数据。比如,如果一个人过去每次都在香草味和草莓味冰淇淋之间选择香草味,我们就可以概括出:他未来大概也会更喜欢香草味。但这种一般化在变革性决策里没什么用,因为变革性决策恰恰没有真正可类比的既往决策;否则它就不再是"变革性的"了。
那能不能用另一种个人一般化呢?比如:如果一个人在数字空间中对某个选项写得越积极,那么他在真正选择该选项后,获得的价值也越高。于是,在变革性选择中,4P 就可以根据这种一般化来做真正个性化的预测。
作者认为,这同样站不住脚。既然变革性结果的价值被假定为在经验之前不可及,那么"我现在对它写得有多积极"为什么就能成为它未来真实价值的可靠预测指标?归根到底,这类预测虽然依赖了我们的一部分既有价值,但它并不是基于我们对那个变革性结果本身的价值判断。它并不能告诉我们:为什么我们会重视那个变革性结果。
因此,4P 给出的预测价值,并不是真正意义上"我们自己的变革性结果价值"。如果这些价值是关于那个变革性结果本身的,那它们更像是参照类的价值,而不是我们的;如果它们来自个人一般化,那么这些一般化又不是专门针对那个变革性结果的。结果就是:我们对那个变革性结果的"自有价值"仍然被遮蔽着。
作者进一步指出,这实际上揭示了一个更普遍的两难:在变革性决策中使用 AI 时,要么你的决策不是建立在你自己的价值上,而是建立在参照类成员对该变革性结果的价值上;要么你的决策的确建立在你自己的某些价值上,但这些价值并不是关于这个特定变革性结果的价值。若这两种来源指向不同方向,我们到底该听谁的?
有人也许会说:这些预测到底是不是基于"我们的价值",其实无所谓,真正重要的是它们准不准确。那我们就继续让步,假设 4P 预测出来的价值确实很准确。即便如此,问题仍然在于:单纯考虑价值本身,并不能告诉我们"到底是谁会获得这些价值"------是现在这个我,还是那个经历了转变之后的我?
当然,既然 AI 能预测变革性结果的价值,它似乎也可以进一步预测:选择这个结果之后,我们的价值观会不会改变、会如何改变。即便我们再次让步,假设这种预测也是准确的,让我们得知自己的价值会如何迁移,我们仍然会与那个变形后的自己保持一种距离。AI 能否帮助减少这种形而上学异化?
这里就引出了"数字孪生"或"数字分身"的设想,例如用个人数据微调一个 LLM。理论上,我们可以构建这样一个数字孪生体,并让它去"经历"一个变革性选项------例如成为父母------然后通过模型参数或行为风格的变化,来表示"为人父母"带来的价值迁移。再通过与这个"数字孪生 + 父母身份"的系统对话,我们就能提前了解、熟悉"成为父母后的自己",从而减轻与未来自我的疏离感。
但作者对此表示怀疑。暂且不说这件事在技术上距离现实还很遥远,尤其当我们要求数字孪生和"转变后的数字孪生"都足够准确时更是如此;更关键的问题在于:与一个模仿未来自我的系统互动,真的就等于减少了我们与未来自我的异化吗?
归根到底,我们互动的既不是真正的未来自我,也不是真正经历过为人父母的人,而只是某种对未来自我的模仿,以及对那种经验的模拟。既然如此,为什么和一个真正经历过为人父母、并且在转变前与我们高度相似的人交谈,会比和 AI 系统交谈更不能减少这种异化呢?作者认为,这一点并不清楚。
最后,变革性选择里还有一个问题,AI 无法回答:当前偏好和未来偏好之间究竟应该赋予怎样的规范性权重?
这是一个规范性问题,而不是预测性问题。文献中已经有多种不同答案,但哪一种是正确的,仍然没有定论。所以,即便我们假设:
第一,AI 真的能让我们提前知道变革性结果的价值以及它会带来的价值迁移;
第二,AI 真的能帮助我们减少与未来自我的形而上学异化;
第三,我们甚至暂时忽略 AI 所作预测并非基于我们对该变革性结果"自有价值"的问题;
即便在这些非常宽松的前提下,在变革性选择中,哪个选项才是理性上应当被选的,仍然是不确定的。
9.2 这一节怎么读
如果说前面的"困难选择"是在说"有时世界不给你唯一答案",那这一节说的就是:有时你甚至连题目都没法完整看懂。
变革性选择之所以难,不只是信息不全,而是决策理论所需的关键输入------结果价值------在事前就不可得。AI 当然可以给你更多材料、做更多类比、算更多统计,但它依然碰不到那个最关键的问题:这件事对'我'到底意味着什么,而那个'我'又会不会因为这次选择而变成另一个人?
这也是全文最强的一记收束:AI 可以非常擅长预测"别人通常怎样",但这不等于它就能告诉你"作为你自己,经历之后会如何评价这一人生"。
9.3 变革性选择总结表
| 议题 | 作者观点 |
|---|---|
| AI 能否预测变革性结果的价值 | 作者总体持否定或强保留态度 |
| 个性化偏好预测器是否真在预测"我的价值" | 不是,本质上仍依赖参照类一般化 |
| 数字孪生能否解决与未来自我的疏离 | 作者认为说服力不足 |
| 当前偏好与未来偏好谁更重要 | 这是规范问题,AI 不能替代回答 |
| 最终结论 | AI 不能把变革性选择转化为标准意义上的理性决策 |
10 结论全文翻译
10.1 原文第 4 节全文翻译
本文分析了 AI 能够以何种方式、在多大程度上辅助主体进行理性决策。总体而言,AI 可以帮助我们找到已有信息,也可以生成新的信息;而这些信息都可能帮助我们形成更充分的信念:例如有哪些选项可选,这些选项可能导向哪些结果,这些结果发生的概率有多大,以及它们会提供多少价值。
但这些能力究竟能在多大程度上推动理性决策,还取决于主体面对的是哪一类选择。
在简单选择中,AI 的帮助使理性决策更高效:它可以加速优化过程;也使理性决策更准确:它可以减少错误信念。
在困难选择中,AI 的帮助体现在:当主体需要通过承诺来创造新的意志型理由时,AI 可以帮助主体完成这一过程。它的方式是:要么通过对话触发反思,使新的意志型理由在主体那里产生;要么生成文本,让主体从中识别出非既有理由,并加以采纳,从而把它转化成新的意志型理由。
在变革性选择中,AI 的帮助则无法使理性决策成为可能。它既无法预测某个变革性结果究竟会给我们带来什么价值,也无法更好地消除当前自我与未来转变后自我之间的形而上学异化。
综合来看,我们可以看到:如果在没有 AI 的情况下,选项的价值本身就不足以决定理性选择------不论是因为这些价值处于 parity,还是因为我们对其中某些价值处于无知状态------那么 AI 的在场也不会改变这一事实。
10.2 结论精读
这篇论文最重要的贡献,不是告诉我们"AI 很强"或者"AI 不行",而是做了一个更细腻的区分:
在信息缺口主导的问题里,AI 很可能真的能帮上忙;
在价值决定性缺失的问题里,AI 的作用就会迅速触顶。
因此,面对 AI 建议,我们真正该问的不是"它说得像不像",而是:这个决策的难点到底属于哪一种难点?
11 我的理解与评价
11.1 这篇论文的优点
这篇论文最大的优点,是把今天非常热的 AI 话题,放回到了一个非常严格的哲学框架里。它不靠技术乐观主义,也不靠技术悲观主义,而是先澄清"理性决策"到底意味着什么,再讨论 AI 的能力边界。
第二个优点,是作者对三类选择的划分非常有解释力。现实里很多人一旦发现 AI 能推荐电影、预测天气、辅助问诊,就容易顺势推断:那它应该也能帮我做职业选择、婚恋选择、生育选择。但这篇文章告诉我们:不是所有决策都属于同一种结构。 这一点特别重要。
第三个优点,是它没有把人和 AI 简单对立起来。作者并不认为"凡是让 AI 参与就损害主体性",相反,他承认 AI 作为反思伙伴、信息组织者、理由扩展器,可以发挥实实在在的积极作用。只是这种作用并不等于替你承担规范责任。
11.2 这篇论文的可能局限
首先,这篇文章是在理想化前提下讨论 AI 的:它暂时搁置了现实系统中的幻觉、偏差、价值对齐、数据污染、商业激励等问题。这样做有利于分析概念边界,但也意味着现实世界里的 AI,往往比作者讨论的情况还要更受限制。
其次,作者对"变革性选择中 AI 几乎无能为力"的判断非常强。这种判断在哲学上很有力量,但在实践层面,也许还可以进一步讨论:即便 AI 不能把这类选择变成标准理性决策,它是否仍能在情绪准备、叙事想象、参照群体筛选等层面显著改善决策体验?
最后,困难选择部分关于 parity 的识别方案,目前还只是一个方向性的设想。如何把"价值种类之差、无支配、可支持多种合理解释"这些结构性特征工程化,仍是一个开放问题。
11.3 对今天使用 LLM 的启发
如果把这篇论文放回今天的使用场景里,我觉得它至少给出三点提醒。
第一,把 LLM 用在简单选择上,通常最划算。 比如旅游规划、工具筛选、资料搜集、备选方案组织、风险初步评估,它能显著降低成本。
第二,把 LLM 用在困难选择上时,最好把它当作"陪你想清楚"的对象,而不是"替你拍板"的对象。 你可以让它帮你梳理冲突价值、追问真正顾虑、模拟不同叙事,但最后那个承诺动作,仍然要由你自己完成。
第三,面对变革性选择时,别误把"数据化建议"当成"你的人生答案"。 它可以是参考,但不应被误认为能够消除你对未来自我的陌生感。
11.4 一句话总评
这是一篇很典型的"看似在谈 AI,实则在重申人类规范主体地位"的论文。它真正告诉我们的不是"AI 做不到什么",而是:在某些关键选择里,理性的最后一公里,本来就不可能完全外包。
12 致谢、声明与信息翻译
12.1 致谢与作者信息
作者感谢 Michael Messerli、Giessbach Workshop 2025 的成员,以及匿名审稿人对论文早期版本提出的宝贵意见。该研究得到瑞士国家科学基金会资助,资助编号为 222239 和 218498。
作者贡献:Daniel Villiger 负责原始稿写作与概念建构。
基金支持:Swiss National Science Foundation,编号 222239 与 218498。
12.2 声明与开放获取说明
竞争性利益:不适用。
开放获取说明:本文依据 Creative Commons Attribution 4.0 International License 许可协议开放获取。该协议允许在任何媒介和格式中使用、分享、改编、传播和复制本文,但需对原作者和原始来源给予适当署名,提供许可链接,并注明是否作出修改。文中图片或其他第三方材料,若未另行说明,也一并适用该许可;若某些材料不在该许可范围内,而你的使用又超出法定合理使用或法定许可范围,则需要直接向版权持有人获得授权。
13 新增基础知识章节的外部参考资料
13.1 外部资料清单
| 编号 | 资料 | 用途 |
|---|---|---|
| 扩 1 | Rachael Briggs, Normative Theories of Rational Choice: Expected Utility, Stanford Encyclopedia of Philosophy, 2023 revision | 用于解释期望效用理论 |
| 扩 2 | Transformative Experience, Stanford Encyclopedia of Philosophy, Spring 2025 edition | 用于解释变革性体验 |
| 扩 3 | Ruth Chang, Hard Choices | 用于解释 parity 与 hard choices |
| 扩 4 | Hassan et al., 2024, npj Digital Medicine | 用于解释 AI-enabled decision aids |
| 扩 5 | Onwujekwe & Weistroffer, 2025, Information Systems Frontiers | 用于解释 intelligent decision support systems |
13.2 外部资料如何支撑本章
期望效用理论部分,主要依据 SEP 对 expected utility 的定义:在不确定条件下,理性选择应当指向期望效用最高的行为。
hard choices 与 parity 部分,主要依据 Ruth Chang 的论证:困难选择之所以困难,并不只是因为无知,而可能是因为两个选项"可比但不服从三分法"。
变革性体验部分,主要依据 SEP 2025 版条目对 epistemically transformative 与 personally transformative 的区分。
AI 决策辅助系统部分,则结合了 2024 年医疗 AI 决策辅助系统的系统综述,以及 2025 年关于 intelligent decision support systems 的文献综述,用来说明现实系统通常通过预测、推荐、排序、图表化呈现来影响人类决策,但同时伴随偏差、信息时效性与解释性的挑战。
14 原文参考文献
14.1 说明
为了保留论文完整信息,下面保留原文参考文献列表。作为 CSDN 文章发布时,你可以按需要精简为"核心参考文献版本"。
14.2 参考文献原文保留
Anderson, E. (1997). Practical reason and incommensurable goods. In R. Chang (Ed.), Incommensurability, incomparability, and practical reason (pp. 90--109). Harvard University Press.
Antonyuk, S. (2024, December 20). All about Netflix artificial intelligence: The truth behind personalized content. Litslink.
Berger, J. T. (2024). Artificial intelligence, digital self, and the best interests problem. The American Journal of Bioethics, 24(7), 27--29.
Bischoff, M. (2023). How recommendation algorithms work---and why they may miss the mark. Scientific American.
Bornstein, R. F., & Craver-Lemley, C. (2022). Mere exposure effect. In R. F. Pohl (Ed.), Cognitive illusions (3rd ed., pp. 241--258). Routledge.
Briggs, R. A. (2023). Normative theories of rational choice: Expected utility. In E. N. Zalta (Ed.), The Stanford Encyclopedia of Philosophy.
Broome, J. (1997). Is incommensurability vagueness? In R. Chang (Ed.), Incommensurability, incomparability and practical reason (pp. 67--89). Harvard University Press.
Buchak, L. (2022). Normative theories of rational choice: Rivals to expected utility.
Chang, R. (2002). The possibility of parity. Ethics, 112(4), 659--688.
Chang, R. (2012). Are hard choices cases of incomparability? Philosophical Issues, 22, 106--126.
Chang, R. (2017). Hard choices. Journal of the American Philosophical Association, 3, 1--21.
Choi, S., Kariv, S., Müller, W., & Silverman, D. (2014). Who is (more) rational? American Economic Review, 104(6), 1518--1550.
Constantinescu, C. (2016). Vague comparisons. Ratio, 29(4), 357--377.
De Sousa, R. B. (1974). The good and the true. Mind, 83(332), 534--551.
Dobbe, R., Krendl Gilbert, T., & Mintz, Y. (2021). Hard choices in artificial intelligence. Artificial Intelligence, 300, 103555.
Dougherty, T., Horowitz, S., & Sliwa, P. (2015). Expecting the unexpected. Res Philosophica, 92(2), 301--321.
Earp, B. D., Porsdam Mann, S., Allen, J., Salloch, S., Suren, V., Jongsma, K., Braun, M., Wilkinson, D., Sinnott-Armstrong, W., Rid, A., Wendler, D., & Savulescu, J. (2024). A personalized patient preference predictor for substituted judgments in healthcare: Technically feasible and ethically desirable. The American Journal of Bioethics, 24(7), 13--26.
Elson, L. (2014). Borderline cases and the collapsing principle. Utilitas, 26(1), 51--60.
Flanigan, E. T., & Halstead, J. (2018). The small improvement argument, epistemicism and incomparability. Economics and Philosophy, 34(2), 199--219.
Goodman, B. (2021). Hard choices and hard limits in artificial intelligence. In Proceedings of the 2021 AAAI/ACM Conference on AI, Ethics, and Society (pp. 112--121).
Griffin, J. (1986). Well-being: Its meaning, measurement, and moral importance. Clarendon.
Hadfield-Menell, D., Russell, S. J., Abbeel, P., & Dragan, A. (2016). Cooperative inverse reinforcement learning. Advances in Neural Information Processing Systems, 29.
Hill, D. N., Nassif, H., Liu, Y., Iyer, A., & Vishwanathan, S. V. N. (2017). An efficient bandit algorithm for realtime multivariate optimization. In Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (pp. 1813--1821).
Hofmann, B. (2023). Undermining autonomy and consent: The transformative experience of disease. Journal of Medical Ethics.
Iglesias, S., Earp, B. D., Voinea, C., Mann, S. P., Zahiu, A., Jecker, N. S., & Savulescu, J. (2024). Digital doppelgängers and lifespan extension: What matters? The American Journal of Bioethics, 0(0), 1--16.
Ikeda, S. (2024). Inconsistent advice by ChatGPT influences decision making in various areas. Scientific Reports, 14(1), 15876.
Isaacs, Y. (2020). The problems of transformative experience. Philosophical Studies, 177(4), 1065--1084.
Kaul, V., Enslin, S., & Gross, S. A. (2020). History of artificial intelligence in medicine. Gastrointestinal Endoscopy, 92(4), 807--812.
Kauppinen, A. (2015). What's so great about experience? Res Philosophica, 92(2), 371--388.
Kreps, D. (1988). Notes on the theory of choice. Westview.
Krügel, S., Ostermaier, A., & Uhl, M. (2023). ChatGPT's inconsistent moral advice influences users' judgment. Scientific Reports, 13(1), 4569.
McInerney, J., Lacker, B., Hansen, S., Higley, K., Bouchard, H., Gruson, A., & Mehrotra, R. (2018). Explore, exploit, and explain: Personalizing explainable recommendations with bandits. In Proceedings of the 12th ACM Conference on Recommender Systems (pp. 31--39).
Meijer, A., & Wessels, M. (2019). Predictive policing: Review of benefits and drawbacks. International Journal of Public Administration, 42(12), 1031--1039.
Ng, A. Y., & Russell, S. (2000). Algorithms for inverse reinforcement learning. Icml, 1(2), 2.
Ntoutsi, E., Fafalios, P., Gadiraju, U., Iosifidis, V., Nejdl, W., Vidal, M., Ruggieri, S., Turini, F., Papadopoulos, S., Krasanakis, E., Kompatsiaris, I., Kinder-Kurlanda, K., Wagner, C., Karimi, F., Fernandez, M., Alani, H., Berendt, B., Kruegel, T., Heinze, C., & Staab, S. (2020). Bias in data‐driven artificial intelligence systems: An introductory survey. WIREs Data Mining and Knowledge Discovery, 10(3), e1356.
Ouyang, L., Wu, J., Jiang, X., Almeida, D., Wainwright, C., Mishkin, P., Zhang, C., Agarwal, S., Slama, K., & Ray, A. (2022). Training language models to follow instructions with human feedback. Advances in Neural Information Processing Systems, 35, 27730--27744.
Parfit, D. (1984). Reasons and persons. Clarendon.
Paul, L. A. (2014). Transformative Experience (1st ed.). Oxford University Press.
Paul, L. A. (2015a). Transformative experience: Replies to Pettigrew, Barnes and Campbell. Philosophy and Phenomenological Research, 91(3), 794--813.
Paul, L. A. (2015b). What you can't expect when you're expecting. Res Philosophica, 92(2), 149--170.
Pettigrew, R. (2015). Transformative experience and decision theory. Philosophy and Phenomenological Research, 91(3), 766--774.
Pettigrew, R. (2016). Transformative experience, by L. A. Paul. Mind, 125(499), 927--935.
Pettigrew, R. (2019). Choosing for changing selves (1st ed.). Oxford University Press.
Pettigrew, R. (2020). Transformative experience and the knowledge norms for action: Moss on Paul's challenge to decision theory. In E. Lambert & J. Schwenkler (Eds.), Becoming someone new: Essays on transformative experience, choice, and change (pp. 100--121). Oxford University Press.
Porsdam Mann, S., Earp, B. D., Liu, P., & Savulescu, J. (2024). Reasons in the loop: The role of large language models in medical co-reasoning. The American Journal of Bioethics, 24(9), 105--107.
Rafailov, R., Sharma, A., Mitchell, E., Manning, C. D., Ermon, S., & Finn, C. (2024). Direct preference optimization: Your language model is secretly a reward model. Advances in Neural Information Processing Systems, 36.
Raz, J. (1986). The morality of freedom. Oxford University Press.
Reuter, K., & Messerli, M. (2018). Transformative decisions. The Journal of Philosophy, 115(6), 313--335.
Rid, A., & Wendler, D. (2014). Use of a patient preference predictor to help make medical decisions for incapacitated patients. The Journal of Medicine and Philosophy, 39(2), 104--129.
Schmidtz, D. (2004). Satisficing as a humanly rational strategy. In M. Byron (Ed.), Satisficing and maximizing: Moral theorists on practical reason (pp. 30--58). Cambridge University Press.
Schulz, M. (2020). Uncertain preferences in rational decision. Inquiry, 63(6), 605--627.
Schwan, B. (2024). Weighing patient preferences: Lessons for a patient preferences predictor. The American Journal of Bioethics, 24(7), 38--40.
Sharadin, N. (2015). How you can reasonably form expectations when you're expecting. Res Philosophica, 92(2), 441--452.
Sharadin, N. (2023). Predicting and preferring. Inquiry, 0(0), 1--12.
Singh, S. (2025, January 2). Number of ChatGPT users (January 2025). DemandSage.
Srinivasan, R., & Chander, A. (2021). Biases in AI systems. Communications of the ACM, 64(8), 44--49.
Starke, G., & Jox, R. J. (2024). Potentially perilous preference parrots: Why digital twins do not respect patient autonomy. The American Journal of Bioethics, 24(7), 43--45.
Steele, K., & Stefánsson, H. O. (2015). Decision theory.
Steele, K., & Stefánsson, H. O. (2021). Beyond uncertainty: Reasoning with unknown possibilities (1st ed.). Cambridge University Press.
Stoljar, D., & Zhang, Z. V. (2024). Why ChatGPT doesn't think: An argument from rationality. Inquiry, 0(0), 1--29.
Thorburn, L., Stray, J., & Bengani, P. (2022, November 23). What does it mean to give someone what they want? The nature of preferences in recommender systems. Understanding Recommenders.
Travaini, G. V., Pacchioni, F., Bellumore, S., Bosia, M., & De Micco, F. (2022). Machine learning and criminal justice: A systematic review of advanced methodology for recidivism risk prediction. International Journal of Environmental Research and Public Health, 19(17), 10594.
Ulanoff, L. (2024, November 1). I tried ChatGPT search and now I might never Google again. TechRadar.
Ullmann-Margalit, E. (2006). Big decisions: opting, converting, drifting. Royal Institute of Philosophy Supplements, 81(58), 157--172.
Varian, H. R. (1982). The nonparametric approach to demand analysis. Econometrica, 945--973.
Varsha, P. S. (2023). How can we manage biases in artificial intelligence systems: A systematic literature review. International Journal of Information Management Data Insights, 3(1), 100165.
Villiger, D. (2021). A rational route to transformative decisions. Synthese, 199(5), 14535--14553.
Villiger, D. (2022). An ignorance account of hard choices. Res Philosophica, 99(3), 321--337.
Villiger, D. (2023). Rational transformative decision-making. Synthese, 201(3), 87.
Villiger, D. (2025). Informed consent under ignorance. The American Journal of Bioethics, 25(7), 126--138.
Wang, C., Han, B., Patel, B., & Rudin, C. (2023). In pursuit of interpretable, fair and accurate machine learning for criminal recidivism prediction. Journal of Quantitative Criminology, 39(2), 519--581.
Warren, C. M., Aktas, O. N., Gupta, R. S., & Davis, C. M. (2019). Prevalence and characteristics of adult shellfish allergy in the United States. Journal of Allergy and Clinical Immunology, 144(5), 1435--1438.
Yee, S. E. (2024, November 15). Seeing your future self with future you AI. Harvard Crimson.
Zhang, K., Yang, X., Wang, Y., Yu, Y., Huang, N., Li, G., Li, X., Wu, J. C., & Yang, S. (2025). Artificial intelligence in drug development. Nature Medicine, 31(1), 45--59.
