AI产品开发的艺术——AI用户体验:为不确定性而设计

本章内容

  • AI 产品的用户调研与验证
  • 促进 AI 使用与信任校准
  • 管理 AI 自动化、控制与故障
  • 用户反馈收集
  • 与用户共创

尽管你现有的大部分用户体验(以下简称 UX)经验可应用于 AI 驱动的产品,但 AI 产品引入了根本性的变化:不确定性。传统数字产品遵循确定性、可预测的流程,输入输出空间有限,行为稳定一致。相比之下,AI 产品往往支持开放式输入,且即使输入相同的提示,输出也可能不可预测。更重要的是,AI 会犯错------它会"幻觉"、撒谎,或仅仅做出错误预测。你需要认识到,人们(包括你的用户)害怕不确定性。你的界面设计应充分考虑不可预测性和失败的可能,确保用户理解、信任并成功采纳新的体验。

AI 对 UX 设计也有重要积极影响。在用户日益厌倦传统产品僵硬且不符合人体工学体验的时代,AI 能使 UX 更加流畅,并驱动大规模个性化。对话式界面已经为个别用户和具体情境提供了定制内容。生成式界面则将个性化提升到新高度------不仅内容个性化,还能动态调整界面设计和功能。虽然这些新型 UX 仍面临技术限制,但你应将它们纳入视野,逐步融入产品体验。这将帮助你把握重要的 UX 趋势,最大化产品的价值和可用性。本章中,我们将基于图10.1展示的 UX 设计三个核心阶段进行探讨。

这三个阶段既不绝对清晰,也非一成不变------每家公司可能会有自己不同的设计流程实践。例如,我的团队发现"双轨敏捷"------即发现与设计(以及开发)并行进行------对新 AI 产品最为有效。接下来,我们将以这个简化结构来学习 AI UX 设计的主要活动和挑战。

最佳实践 还记得本书封面的旋转舞者吗?正如这些舞者不停旋转一样,你必须拥抱 AI 设计的迭代本质。迭代越顺畅,你就能越快地吸纳用户反馈------并将许多用户转变为你产品和品牌的拥护者。AI 正在迅速发展,每一次迭代都会带来新的洞见,助力公司知识产权的积累。

本章将以一款用于企业可持续发展报告的新软件产品为例,带你逐步了解这个流程。背景是:你为一家提供大型上市公司年度报告领先工具的公司工作。随着《企业可持续发展报告指令》(CSRD)等法规收紧,你的 CEO 看到将产品拓展至可持续发展报告领域的机会。经与现有客户的可持续发展团队沟通,确认了这一判断:他们在数据管理和合规障碍方面面临困难。许多信息散落在临时的 Excel 表格中,缺乏系统化管理,AI 可以用来清理和自动化这些数据工作。现在,你需要确定最小可行产品(MVP)的起点。

在接下来的章节中,我们将从更系统的用户问题发现开始,随后学习如何针对 AI 特有的 UX 挑战(如不确定性、透明度和信任)进行设计。为了持续改进设计,第10.3节将展示如何启动稳健的用户反馈与共创循环。

10.1 发现与用户调研

到目前为止,你已经进行了初步的桌面调研,并与许多可持续发展领域的专家进行了交流,以验证你的方向。你的大部分客户都需要根据繁复的监管要求,报告他们在气候变化、生物多样性和人权等可持续发展议题上的影响。显然,借助 AI 支持这一流程存在机会,但在设计之前需要进一步明确细节。

一方面,你需要界定和限定可通过 AI 解决的可持续发展报告流程中的子步骤。因为生成完整的可持续发展报告过于庞大和复杂,无法实现完全自动化。此外,该流程中的各个环节并非都适合自动化,有些仍需人工完成。另一方面,为了指导初期设计工作,你还必须深入了解用户的背景、技能和态度。

10.1.1 确定最佳的自动化与辅助机会

可持续发展报告包含诸多任务------你必须定义报告范围,随后在整个公司内收集、分析和管理数据。报告需要清晰的结构和方向,每个相关议题都要撰写文本,等等。此流程需要与多个合规、HR 和财务团队协调。在完成几轮访谈并与设计合作伙伴协商后,你们达成一致,确定了图10.2所示的用户旅程。

这五个阶段中的每一个都可以进一步细分,而在你的最小可行产品(MVP)中涵盖全部任务是不现实的。因此,你需要优先选择少数几个步骤------很可能只有一个------作为首要解决对象。这些步骤应是用户旅程中,利用 AI 能带来最大收益的任务。

在接下来的小节中,你将学习如何评估用户旅程中每个阶段的 AI 辅助和自动化潜力。我们将采用三个标准------价值、可行性和期望度(见图10.3),并定义可用于指导发现过程的问题。最终,我们会总结 AI 机会评估的洞见,帮助你优先选择用户旅程中最具吸引力的阶段。

价值(VALUE)

在评估自动化价值时,许多团队关注节省的时间------AI 解决方案能释放多少时间。我鼓励你更深入地思考,如果任务仍由人工完成,所产生的机会成本是什么?你的用户会因此错过哪些更高价值的工作?举例来说,如果你发现可持续发展经理的写作效率不高,他们的核心技能更偏向战略规划、落实可持续发展举措或与利益相关者沟通,那么用 AI 支持"报告撰写"任务(见图10.2)将带来显著价值------不仅节省时间,还能提高准确性和一致性。

评估价值时,你的关键合作伙伴是客户和用户。与他们一起回答以下问题:

  • 该任务手工完成需要多长时间?
    消耗大量时间的任务是自动化的有力候选。
    示例:如果撰写可持续发展报告的某个章节平均需要6小时,自动化能减少超过50%的工作量,使团队能将精力集中在验证洞察上,而非语言润色。
  • 任务执行频率如何?
    经常执行的任务自动化后累积效益更高。结合任务规模考虑。
    示例:
    频繁但单次耗时少的任务(如可持续报告中的数据验证)可能每年发生数百次,累计自动化价值大;
    大型但不频繁的任务(如年度可持续报告汇编)每年仅一次,但自动化关键步骤(数据汇总、文本生成、合规检查)能节省数周工作。
  • AI 执行该任务时是否具备"先天优势"?
    某些任务人类难以胜任,而 AI 相对轻松,适合自动化。(参见第2章2.1.1节,特别是图2.5关于人类与 AI 优势的讨论)
    示例:
    从数百份文件和表格中提取关键可持续指标对人类繁琐,训练有素的 AI 可快速且一致地识别相关数据点;
    撰写结构化报告对缺乏写作技能的可持续发展经理耗时长,AI 可即时生成连贯草稿,使用户专注内容优化和验证。
  • 如果 AI 释放了这部分时间,你的用户能做哪些更有意义的事情?
    AI 不应仅仅替代工作量,更应将人力重新分配至高影响力工作。
    示例:可持续发展官员无需再花时间排版表格和润色语言,而能专注分析趋势、制定战略,推动重要的环境、社会和治理(ESG)举措。

综合考虑这些维度,你能优先选择 AI 在节省时间、提升质量以及让用户专注其优势领域的任务上发挥最大影响的自动化和辅助机会。

可行性(FEASIBILITY)

并非所有任务都同样适合 AI。有些是现成模型即可覆盖的低垂果实,有些则需中度改造以适配最先进的 AI 技术,还有些需技术创新,推动 AI 边界。虽令人振奋,但也伴随更高风险、长开发周期和资源需求。推进前,确保团队具备必要专长,且潜在收益能支撑投入。

你的工程师是评估可行性的主要伙伴,同时应征询用户对错误容忍度和系统期望准确度的看法。请考虑:

  • 该任务是否适合 AI,还是需人类般的推理?
    AI 擅长基于模式、重复且结构化的任务,但对细微决策和创造性综合难以胜任。
    示例:AI 可从报告中提取可持续指标,但无法在无人工输入的情况下准确判断其战略重要性。
  • 是否已有 AI 模型或框架支持该任务,还是需定制开发?
    使用预训练大型语言模型(LLMs)和现有框架更快且经济,定制模型则增加复杂性和风险,但有助于强化竞争壁垒。
    示例:对通用 LLM 进行微调生成可持续报告草稿是可行的,但训练 AI 独立创建合规的碳足迹可视化远复杂得多。
  • AI 能达到什么准确度,需要多少人工干预?
    AI 生成内容总需一定程度的验证和修正。关键是所需力度及用户发现问题难度。
    示例:LLM 生成的报告草稿可能只需轻微编辑,AI 生成的表格则可能需全面人工校验,降低自动化价值。

注意:从一开始就考虑人工监督需求。如果某 AI 功能需大量人工监督,可能完全抵消 AI 效率提升,甚至增加额外开销。

目标是优先自动化准确度、工作量和影响力相匹配的任务。从高置信度的自动化机会入手,确保快速采用和信任,再逐步应对更复杂的 AI 挑战。

期望度(DESIRABILITY)

期望度,即用户对某任务是否真正想要 AI 解决方案,将推动采纳和参与。评估时需深入了解用户心理------他们对 AI 处理该任务的信任感、放弃控制权的接受度以及感知价值。反思以下问题:

  • 用户是否因 AI 支持获益,还是因自动化感到不安?
    某些任务令人挫败或认知负荷大,使 AI 变得渴望;另一些任务赋予用户掌控感或专业感,使自动化吸引力较低。
    示例:可持续经理欢迎 AI 生成草稿(减少繁琐工作),但可能拒绝 AI 主导的最终审查和审核(需人工判断)。
  • 用户是否会因能完全委托任务给 AI 而感到轻松?
    高期望度自动化多为用户视为繁重或重复的任务。
    示例:自动提取合规文档数据受欢迎,因为节省时间;而 AI 驱动的战略建议可能遭质疑。
  • 自动化是否让用户觉得被排除在重要决策之外?
    提供地位、专业价值或职业发展的任务,若被 AI 接管,可能遭用户抵触。
    示例:若 AI 生成可持续行动计划,ESG 团队可能因被排除关键讨论而反对。

期望度还能帮助界定 AI 在产品中应有的控制权。对低期望度任务,用户应保持主导,AI 作为辅助;相反,若用户迫不及待想摆脱低影响、繁琐的任务(如报告格式调整),则应设计简单的"一键完成"界面,默默完成工作。理解用户希望 AI 以何种方式协助、合作或全权接管,有助提升采纳率和信任度。

综合评估

让我们将迄今为止的结果可视化,以建立统一的优先级判断基础,如图10.4所示。

在旅程开始时,你的可视化分析理想情况下会指引你找到几个快速获胜的点。这些是自动化价值高且用户期望度高,且可用合理努力实现的步骤,能帮你迈出第一步。在我们的案例中,"报告撰写"是最佳自动化机会,它在价值、可行性和期望度三个维度上均得分较高,我们希望把最小可行产品(MVP)聚焦于这一步。在深入了解 MVP 设计"如何做"之前,先研究用户,理解他们对 AI 的态度和能力。

10.1.2 理解用户的技能与心理

了解用户的 AI 技能水平、恐惧、信任程度及期望,有助于指导你的 UX 战略决策,也能帮助你塑造有效的心理模型,调整用户界面的信任度、控制权和个性化程度。在没有设计产物展示前,你可以采用传统的态度型用户调研方法,如调查和访谈。以下是你可用作起点的主题和问题清单:

  • AI 素养------用户对 AI 的理解程度和经验如何?是几乎没用过 ChatGPT,还是熟练掌握多种模型的提示方法?他们是否倾向于将 AI 拟人化,期待其具备人类般的行为和智能?
  • 负责任的使用与信任校准(通常与 AI 素养相关)------用户能否负责任地使用 AI,合理校准信任并质疑 AI 输出?面对错误时,他们是将其视为障碍还是视为迈向最终解决方案的步骤?
  • 信心程度------用户对完成任务的自信如何?更自信的用户可能更随意,不太注重核查 AI 反馈。
  • AI 抵触情绪------用户是否存在对 AI 的隐忧,如担心失业?是否有算法回避倾向,例如因过去负面体验而不信任 AI 系统?
  • 控制权与自动化------用户希望对任务拥有多少控制权?他们实际能掌控多少?你需要提供的最小自动化程度是多少才能创造价值?
  • 动机与共创------用户是否愿意投入精力并提供反馈以改进系统?如何激励他们提供反馈(见第10.3节)?

注:关于生成式 AI 背景下的人类心理和信任的更多洞见,参见《Appropriate Reliance on Generative AI: Research Synthesis》(mng.bz/MwgE)。

10.1.3 验证 AI 设计概念

完成对用户和任务的调研后,你肯定迫不及待想要开始创作和设计。此时,应规划一个紧密的用户反馈循环。如果等到界面成熟才测试,产品上线后可能需要大量的重新设计和返工。传统上,设计概念通过线框图、模型和可点击原型等形式测试,随着设计成熟不断提升逼真度和交互性。一些团队直接用代码快速原型开发,缩短设计与开发的差距(参见 Jennifer Li 和 Yoko Li 的《How Generative AI is Remaking UI and UX Design》,mng.bz/dWmX)。为鼓励用户积极与团队共创产品,可考虑参与式设计和卡片分类等方法。

注:有关 UX 研究方法概览,参见 Christian Rohrer 的《When to Use Which User-Experience Research Methods》(mng.bz/5vj8)。

在测试设计产物时,还需融入"AI 感",模拟 AI 行为的概率性质。假设你构建了一个原型,用户选择一个可持续发展主题,调整参数,点击生成,然后看到报告文本。测试时该文本应如何呈现?如果只测试整体设计概念,可以用"Lorem ipsum"占位符或标准文本表达。但若想获得完整体验,必须提供更真实的 AI 输出,包含潜在的瑕疵和错误(见表10.1)。模拟未来 AI 体验的建议:

  • 在测试中包含错误,并记录用户反应,培养对用户容错度的感知。表10.1列出场景中可模拟的不同错误类型。
  • 若产品设计个性化,事先了解个体用户并加入相关个性化内容。例如,测试医疗或教育行业用户时,尽量使用他们熟悉的主题和数据。
  • 为模仿 AI 的动态和不确定性,可使用"绿幕"方法(Wizard of Oz),由人工"助理"在测试中扮演 AI 角色。

表10.1 设计产物中可模拟的错误示例

错误类型 示例 用户行为观察 设计调整建议
幻觉 AI 错误称 CO2 排放下降 30%,实际为 15% 过度信任用户接受 AI;怀疑者完全拒绝 AI 添加置信度指示和事实核查提示
监管误解 AI 错误认为范围3(Scope 3)报告是可选的 法律专家能发现,其他用户可能忽视 包含来源引用和人工验证步骤
对不确定数据过度自信 AI 在无完整数据情况下估算水消耗趋势 一些用户盲目信任 AI;另一些要求引用 使用置信度评分和"验证此数据"提示
格式与结构问题 AI 生成的表格财务数字错位 用户因格式错误放弃整个报告 提供可编辑的报告结构以便用户调整

早期测试的重要方面之一是用户对界面的心理模型------他们如何理解和诠释功能,以及你如何通过清晰的解释来塑造和统一他们的期望。例如,假设你的界面高亮显示报告中置信度较低的部分,提示用户进一步审核。你应将此功能纳入测试原型,评估用户是否会被引导对这些高亮内容采取行动。如果没有,你需要迭代设计,完善界面中的解释和推荐。

当你从线框和模拟过渡到真正用 AI 驱动的 UX 测试时,需注意引入了一个额外变量:同一 AI 的表现因用户而异,可能因为运气好坏或与 AI 交互技巧不同而异。你应计划大量定性研究来揭示这些模式和关系,因为定量研究难以捕捉(参见 Jakob Nielsen 文章《Embrace AI's Uncertainty in UX》,网址:<www.uxtigers.com/post/ai-unc...

最佳实践 为优先学习而非追求完美,应尽早向内部用户发布功能。比如 Miro 将一些新功能标记为 #badversions------大胆、未打磨的版本以促进快速迭代。比如他们的 AI 助手(BETA)最初只是训练于创始人和 Beyoncé 歌词的有趣 AI。虽不完美,但该做法帮助快速收集宝贵反馈。

随着 AI 改变界面设计,持续的发现和用户调研在设计周期中愈加重要。它们使你能够逐步引入新界面概念,同时让用户保持熟悉的交互感受。现在,让我们超越概念层面,深入探讨你设计中的 UX 元素和模式。

10.2 界面设计

本节将教你如何设计组件和模式,以应对第10.1.1节中确定的自动化机会。这些工具还能帮助你使产品符合第10.1.2节中描述的用户偏好和能力。接下来,我们将介绍图形界面、对话式界面和生成式界面的设计模式,助你灵活组合这些不同类型的用户体验(UX)。

10.2.1 初步用户旅程

先快进一下------过去三个月里,你一直在疯狂迭代,测试不同的设计模式,调优用户体验,使用户既想用产品,又能负责任地使用。你的设计还未臻完善,但你希望走出办公室,收集用户反馈。于是,你做了一个早期的 Alpha 版本发布,配合广泛的用户测试和日志研究。

其中一位测试者是 Ben,一家大型航空公司的可持续发展经理。他有财务和会计背景。Excel 不仅是他最喜爱的工具,也是他最信赖的数据来源。让我们看看他如何与系统互动。

当 Ben 登录你的应用时,映入眼帘的是一个简洁、极简风的仪表盘(见图10.5)。色彩平和舒适,点缀着星光图标,标签如"提问"(Ask a Question)和"生成"(Generate)暗示着 AI 正在工作。习惯了枯燥企业软件的 Ben 感到好奇,准备享受一番乐趣。

Ben 注意到侧边栏中有一个标为"可持续发展主题"(Sustainability Topics)的区域,他选择了"碳排放"(Carbon Emissions),这是他即将撰写的报告中的一个关键领域。应用迅速将一系列与碳排放相关的数据点可视化展示出来,这些数据可用于生成该部分的初稿(见图10.6)。每个数据点都附有指向原始来源的链接,方便 Ben 核实数据。

为了配置输出内容,他可以通过滑动条调整期望的文本长度,还能添加标签来指示该部分所需的风格(见图10.7)。鉴于一些同行被指责"绿色洗牌",Ben 决定生成一段中等长度、基于事实、且无任何营销修饰的文本。

他点击"生成草稿"(Generate Draft)按钮,AI 开始工作。进度窗口出现,除了熟悉的进度轮之外,还会解释 AI 当前的操作(见图10.8)。这帮助 Ben 形成了对内容生成过程的心理模型,为顺利互动奠定了基础。

图10.6 选择主题后,用户可以看到相关的数据点。

图10.7 在生成草稿之前,用户可以配置草稿的长度和期望的风格。

图10.8 AI生成需要时间,可以利用这段时间教育用户,并提供对其操作过程的透明度。

AI 完成生成后,并不会立即展示结果,而是如图10.9所示,弹出另一个窗口,显示警告信息:"本主题所需部分数据缺失。请仔细审阅草稿并提供反馈,以提高结果的准确性。"

图10.9 界面提醒用户部分数据缺失,可能影响输出质量。

一方面,Ben 对这种摩擦感到有些烦躁,心想:"为什么不能直接完成呢?"另一方面,他也意识到这份草稿仍需后续修改。

最终,文本出现在屏幕上,并附带一个中等置信度评分。Ben 还注意到每段旁边有更细粒度的置信度分数,帮助他校准对 AI 输出的信任度。在 Ben 的屏幕上(见图10.10),分数采用颜色编码并显示百分比,绿色表示高置信度(此处第一段和第二段文本分别显示95%和90%,最后一段显示85%),黄色表示需要复审的部分(第三段和第四段显示45%和50%)。

当他将鼠标悬停在显示45%和50%的黄色数值上时,会看到 AI 缺乏信心的原因说明,主要涉及缺失数据和监管文本中的一些模糊区域(见图10.11)。

置信度较低的句子和短语在文本中以黄色背景突出显示,右键点击这些区域会弹出上下文菜单,提供多个建议操作,如编辑、缩短和删除(见图10.12)。

图10.10 报告章节草稿附带置信度评分;较低的分数表示该部分内容和段落需用户核实。

图10.11 低置信度评分配有解释,指导编辑过程。

图10.12 提供多种编辑选项以提升置信度评分。

Ben 对应用程序智能的、上下文敏感的控制和指导感到非常满意。他可以编辑草稿,按照 AI 的提示提供更多数据以生成更准确的文本。完成修改和补充后,AI 会再次进行检查。

图10.13 草稿达到足够的置信度评分后即可发布。

草稿的置信度评分较高,Ben 对结果也感到满意(见图10.13)。

Ben 知道该草稿是如何生成的,使用了哪些数据,这样他可以解释并为其辩护。他将草稿发布到内部平台,供同事们在正式整合前进行审核。最后,产品会请他对体验进行评分,分值从一到五,并提供自由文本的评论。他给出了四分的总体评分。Ben 的反馈是,在编辑草稿时,他希望能看到报告中是否已经包含与关注主题相关的内容。

10.2.2 AI 用户体验设计的指导原则与模式

Ben 的用户体验较好,得益于界面遵循了一系列重要的指导原则,以促进人机交互:

  • 提醒 AI 正在工作。 明确向用户传达 AI 何时在处理信息或生成输出,提高用户对系统功能的认知。
  • 解释 AI 功能。 说明 AI 的能力和流程,帮助塑造用户的心理模型,设定合理期望。
  • 促进正确使用。 提供直观的指导、建议和模板,帮助用户有效利用 AI 功能。
  • 建立并校准信任。 使用置信度指标等信任标识,帮助用户校准信任度,警惕潜在错误。
  • 赋能用户控制权。 在有用且用户愿意的情况下,允许用户修改、批准或拒绝 AI 输出。
  • 管理 AI 不确定性与失败。 以透明的解释和反馈选项应对 AI 可能的失败和不确定性,维持用户信心和理解。
  • 提供实时个性化。 利用对话式和生成式界面组件,动态适配用户的独特情况,实现更具针对性和效果导向的用户体验。

这些指导原则可与用户研究结果(见10.1.2节)相对应:例如,如果发现用户不清楚如何使用系统,就应重点关注第2条(解释 AI 功能)和第3条(促进正确使用)。如果用户缺乏对 AI 解决方案的基本信任,则应聚焦第4条(建立并校准信任)。接下来,我们将具体探讨每条指导原则对应的设计模式,并结合公开的 AI 产品案例供你参考和启发。

最佳实践

Jakob 法则(lawsofux.com/jakobs-law/)指出,用户期望产品的使用方式与他们熟悉的其他产品类似。由于 AI 需要新的心理模型,你可以通过在用户界面中使用熟悉的模式(如自动完成、聊天界面或推荐轮播)来减少认知摩擦,帮助用户更轻松地适应底层 AI。

提示 AI 正在工作

在大多数情况下,你需要显示 AI 正在运行的状态。这会让用户进入"AI 警觉模式",更加注意潜在错误、不确定行为、对输出进行仔细审查的必要性等。以下是常见的提示 AI 的设计元素(见图10.14):

  • 视觉标识------特征图标(如星星、机器人)、配色方案(如紫色、绿色)或"AI"标签。
  • 提示信息------引导用户进行与 AI 相关的操作。
  • 与 AI 紧密关联的输入元素------例如,一个大型的开放式"随便问"(Ask Anything)提示框,邀请用户开始与 AI 的开放式对话。

需要提醒的是------虽然典型的闪烁图标等标识容易识别且为用户所熟悉,但它们可能会引发用户的复杂反应。许多人将这些标识与早期生成式AI(GenAI)炒作联系在一起,当时许多公司急于推出AI功能,但这些功能往往未能带来真正的价值。如果AI是你产品的核心战略支柱,建议为其开发独特的视觉语言。例如,Notion 推出了动画角色 Nosy,为其 AI 功能赋予了独特的身份(见图10.15)。

图10.15 Notion的Nosy不仅用来标识AI,还会伴随并适应其活动。

最后,在某些情况下,明确的AI提示并非必需。如果你的AI在后台运行,影响不大,且用户对其控制有限,你可以省略那些用户可能对AI产生的矛盾感受。例如,娱乐和电商中的自动补全和推荐功能就属于这种情况。

解释AI功能

当用户使用你的产品时,他们会构建一个心理模型------对产品如何工作及其操作如何影响产品的深刻理解。传统界面通过明确的布局和熟悉的确定性交互(如筛选器和按钮)来支持心理模型,而AI则往往像一个"黑箱",输出不确定的结果。在这种不透明的情况下,你需要通过解释系统如何工作,帮助用户建立正确的心理模型,否则他们会不断猜测AI是如何产生某些输出的。最终,当心理预期与AI实际行为不符时,用户会感到沮丧。

不要试图全面解释你的系统------这会让大多数用户感到负担过重。相反,应选择那些易于解释且对用户交互重要的方面。例如,用户几乎不会从了解模型的数学细节中获益,但解释模型训练所用的数据源能帮助他们理解AI可能缺失哪些知识,从而在输入中补充相关内容。附录中提供了部分解释的示范。塑造用户心理模型的触点有:

  • 引导流程 ------利用引导过程说明产品的主要功能、优势和限制,这些信息对新手用户尤为重要。Google的《People + AI Guidebook》(pair.withgoogle.com/guidebook/)建议在引导阶段传递如下信息框架:

    这是{你的产品或功能},

    它将帮助你{核心优势}。

    目前,它无法{AI的主要限制}。

    随着时间推移,它会改变并更贴近你的需求。

    你可以通过{用户的行为帮助系统学习}来助它改进。

例如,对于一个市场情报平台,可以这样填写:

复制代码
这是你的可持续发展报告AI助手,  
它将通过分析大量公司数据,帮助你生成报告内容。  
目前,它无法生成非文本的报告部分,如图表和表格,也会请求你编辑大部分文本。  
随着时间推移,它会不断改进,更加贴合你的需求。  
当输出置信度低时,你可以通过编辑和补充信息帮助它提升,并在完成草稿后提供反馈。

你也可以在产品之外对用户进行教育。例如,一些公司会在用户初期使用产品的几天内发送一系列引导邮件,介绍最相关的功能。这种做法随着用户进度自然展开,提醒他们产品功能,并分批提供信息,便于消化。作为引导的一部分,你还可以提供一个"游乐场"体验,让用户在安全的测试环境中试用功能。

图10.16 对于数据可视化和预测型AI功能,使用交互式元素(如工具提示)来解释分数和数值。

上下文中的解释------理想情况下,你能在用户体验交互和输出的当下或紧接之前提供解释,帮助他们建立因果关系,加快学习过程。在我们的用户旅程示例中,AI工作时会强制显示解释窗口:Ben必须主动点击关闭该窗口才能看到输出。你也可以使用渐进式披露,通过按需交互元素如工具提示和弹出窗口让解释更加隐蔽(见图10.16)。这样既不会使界面显得杂乱,又能让好奇的用户随时获取解释。

文档说明------最好有一个整体文档,将所有解释集中在一个地方,尤其适用于高风险系统。该中央文档对高级用户、持怀疑态度的用户、审计人员和监管者尤其有用。透明的文档通常能简化采购流程,因为它让客户能一开始就建立信任。

持续引导与重新引导------AI功能会随着时间演进。当你添加新的AI功能或显著改进已有功能的设计或性能时,借此机会进一步教育用户,帮助他们了解系统。

促进正确使用

当AI功能吸引了用户的注意力后,你需要引导他们成功使用。传统界面提供了明确的图形引导,而AI交互则较为陌生且通常不够直观。许多操作在后台进行,优质的用户输入对AI输出质量有决定性影响。以下模式可以积极帮助用户构建AI能够有效处理的输入:

图10.17 Perplexity.ai 提供动态提示建议------这一设计模式源自诸如谷歌等熟悉的搜索引擎。

提示建议------这些建议帮助用户了解可以向系统提出哪些请求,并保持对话的连续性。通常以三到五条建议列表的形式出现,用户点击后会自动填充输入框(见图10.17)。例如,假设你想在可持续发展报告应用中添加聊天功能,允许用户基于过去和当前的报告提问,你可能会提供以下提示建议:

  • "去年报告中,我们是否提及了任何生物多样性相关的计划?"
  • "当前报告是否已经包含关于我们碳排放的定量数据?"
  • "过去三年我们的碳排放趋势如何?"

这能帮助用户更好地理解预期输入------他们需要提出完整的问题,明确指定所查询报告的时间范围,等等。

提示模板------正如你在第4章所学,可以在后台使用模板来组织提示工程。类似的模板也可用于以结构化方式收集输入信息,避免开放式提示的歧义。然后,这些结构化信息可以被封装进你控制下的系统提示中。例如,在可持续发展报告的案例中,用户选择一个可持续发展主题,如碳排放,系统首先将其扩展成一个不可见的提示,例如:"请使用数据库中的以下数据,撰写关于碳排放主题的报告章节......"

令牌分层 ------该技术允许用户提供额外的令牌------类似关键词------以细化AI对提示的理解以及其回应的风格或方向(见图10.18)。这一模式有助于克服表达障碍,特别是当用户在书面表达上遇到困难时(参见Tarun Mugunthan的《克服生成式AI中的表达障碍》一文:<www.nngroup.com/articles/ai...

图10.18 Grammarly 提供了一组简单直观的标签,用于校准其输出的风格。

在提示中加入关键词比写完整的文本要容易得多。因此,当Ben设置他的请求时,他指定了"事实性(factual)",以避免输出中带有任何营销色彩。

不同产品环境下,最佳的引导力度有所不同。有时,你可以给予用户通过反复试错自行摸索的自由。这在用户已有AI使用经验且输入错误风险较低的场景中特别适用,比如图像生成软件。在这种情况下,你应当设计鼓励探索的用户体验,例如,保存用户的交互历史,方便他们在尝试新输入时来回切换。如果用户对AI不太熟悉,提供更多引导将提高成功率。

最后,引导会随着你对用户典型查询和信息需求的了解加深而不断进化,你可以将这些内容打包成简洁易用的提示建议、模板和关键词。

校准信任

在进行用户调研或首次向用户展示产品时,他们的信任度通常会落在两个极端之一:

  • 不信任------他们不信任AI,因此不会购买或使用产品(算法排斥)。
  • 过度信任/过度依赖------他们非常信任甚至过度依赖AI,会使用产品并默认其输出都是正确的(自动化偏差)。有些用户可能只在AI的输出符合他们已有观点时才过度信任(确认偏差)。总有一天,他们会因为基于AI错误输出做出错误决策或造成其他损害而遇到麻烦。

你希望用户处于"适度信任"的黄金中间地带------他们相信你的产品能带来显著价值,因此愿意购买和使用(见图10.19);同时,他们也知道AI难免会偶尔犯错,因此保持警觉。

图10.19 在信任连续体上,目标是实现校准的信任。

大多数用户无法自行达到这一理想状态,因为这并不像简单地停留在两个极端那样容易。因此,你的用户体验需要积极支持信任的校准。让我们来看一些设计模式和元素,它们可以让用户意识到AI的易错性,并在情况变得可疑时提醒用户介入:

注意事项------你可以明确告知用户模型或技术的不足和风险。许多对话式应用都会包含一条关于AI可能出错的免责声明,目的是让用户进入更主动的"警觉模式"(见图10.20)。

图10.20 在对话式界面中,提供一条通用且提前的警示,有助于用户进行核验。

你还可以提供更具体的说明,比如"我们的AI可以为欧洲市场生成报告,但尚未针对其他地区进行训练。"最后,你可以根据用户的具体输入提供上下文警示,在交互中引入一定的摩擦,让用户有所思考(详见本节稍后的侧边栏"在AI环境下重新思考摩擦")。

置信度分数------你可以在输出结果中加入置信度指示,告诉用户该结果是否可以放心接受,或者是否还需要进一步处理。置信度可以用不同粒度的方式展示:

  • 使用数字刻度,例如0到10。
  • 使用粗粒度刻度,例如低/中/高。
  • 你也可以选择只对置信度较低的结果显示提示,促使用户采取行动,结合更多上下文知识和判断来更新决策。

粒度水平应与用户对输出结果的控制程度相匹配。例如,如果用户只能接受或拒绝输出,那么精细的数值差别(比如5.7和6.1)对他们没有实际作用,也无助于决策。

不确定性指示器------你可以在输出结果及其解释中加入视觉或语言上的不确定性表达。例如,当AI生成文本时,可以高亮显示那些用户需要核实的关键词或事实。

操作轨迹------你可以让用户追踪AI从提示到结果的推理步骤,增强透明度。如果AI某步出错,用户可以重新输入提示,指出错误并要求重新生成更正后的结果。在对话式界面中,可以直接在对话流程中展示解释。一个正在兴起的流行模式是披露模型的"思路链"(Chain-of-Thought,CoT),让用户了解并可能纠正其思考过程(见图10.21)。

图10.21 Vercel 的 v0.dev 展示了其思路链(CoT),即模型的思考过程,用户可以针对有问题的步骤进行回溯和跟进。

来源/引用------你可以在这里提供生成输出所用资料的链接(见图10.22)。这是一种高效实现操作轨迹模式的捷径,特别是在AI输出过程较为不透明的情况下,比如单步LLM生成时。

图10.22 为原始来源提供透明度是 Perplexity.ai 的核心战略差异化优势。其他AI系统,尤其是RAG架构,也能从这一用户体验模式中受益。

以下是一些关于过度依赖AI和信任校准的额外资源,供进一步学习:

  • Nielsen Norman Group的文章《我们什么时候应该信任AI?魔法8球思维》(<www.nngroup.com/articles/ai...
  • Ayanna Howard的文章《我们对AI的信任------是不是太多了?》(mng.bz/64gp
  • 我的文章《构建与校准AI信任》(mng.bz/oZpy
  • 微软的研究论文《对生成式AI的适当依赖:研究综述》(mng.bz/MwgE)和《对生成式AI的过度依赖:文献综述》(mng.bz/a9Kx

重新思考AI背景下的摩擦

传统上,UX设计师被训练去最小化用户操作的摩擦。但在AI领域,适当的摩擦能激活用户,减少对AI的过度依赖。因此,认知强迫功能(CFFs)是自动化任务中的刻意干预,促使用户在接受AI输出前进行批判性评估。以下是一些示例:

  • 自我批评与验证提示------AI识别潜在错误并请用户审查。
    例如:生成可持续发展报告后,AI标记一段内容:"我可能高估了第三季度的减排量,您是否想交叉核对来源?"
  • 质疑式问题------AI提出反向问题,促使用户进行批判性思考。
    例如:AI建议碳排放抵消策略,并跟进问题:"哪些因素可能导致该方法失效?"
  • 强制审核步骤------用户必须验证关键AI生成数据后才能继续。
    例如:提交AI生成的可持续发展报告前,系统要求用户确认碳抵消等关键数据。
  • 基于时间的干预------在允许用户最终决策前设置短暂延迟。
    例如:AI建议合规调整后,设置20秒倒计时,鼓励用户在提交前复查关键变更。

为什么有效?

  • 鼓励用户积极参与而非被动接受
  • 通过强调AI的易错性防止过度信任
  • 帮助用户校准信任,实现更好的人工与AI协作

赋能用户掌控权

用户往往希望掌控和定制与AI的互动。我们可以提供哪些工具和操作,让用户能主动与AI协作,而非仅仅接受其输出?这份准备工作始于AI开始工作之前。你的界面可以提供多种高级参数和设置:

图10.23 Perplexity.ai的专业版允许你在不同的AI模型和架构之间进行选择。

图10.24 ChatGPT允许用户将文件附加到提示中。

  • 模型管理------允许用户从多个AI模型或架构中进行选择(见图10.23)。
  • 数据来源------允许用户提供文件和其他数据源供AI使用(见图10.24)。 此外,还可以设置一个控制项,用来指定是使用模型的"固有"知识,还是只依赖用户提供的外部数据源。
  • 初步行动计划------适用于多步骤流程(例如第9章描述的代理工作流),AI会创建并展示其执行计划给用户,用户可以提供反馈或直接调整计划。

在执行某一步骤时,用户可操作的空间有限。目前的模型不支持用户在计算过程中介入和操控。你可以允许用户随时停止任务,比如当用户发现输入有误或AI因为某种原因偏离轨道时(见图10.25)。这种紧急制动可以为用户节省时间和计算资源。

图10.25 当生成过程被停止时,用户可以在AI偏离预期时节省时间和成本。

最后,最丰富的交互发生在AI完成任务之后。在增强体验中,用户可以反复迭代和完善结果,调整输入和输出,直到满足他们的期望。让我们来看一些可用的设计模式:

图10.26 Tabnine,一款 AI 编程助手,提供针对特定代码段的内联操作。

  • 内联操作与局部修正------为了修改内容而重新生成整个输出是一种非常低效的AI使用方式。内联操作允许用户高亮需要调整的输入或输出的具体部分(见图10.26),然后用户可以直接编辑,告诉 AI 如何处理,或者使用 AI 推荐的操作,如"缩短"、"改进"等。

  • 提供多个输出选项------最后,虽然成本较高,但提供对最终输出控制的简单方式是向用户展示多个变体,让他们选择想要的版本。这避免了额外提示指令抽象难懂的问题,也让产品提供方能够收集宝贵的用户偏好数据。然而,生成多个选项的成本较高,同时限制了灵活性。这就像是在对用户说"要么接受,要么放弃"------如果没有合适的版本,用户就必须重新生成。通过结合内联操作和提示重组等控制模式,可以缓解这个问题。

机会:控制功能可以成为你定价计划的差异化因素。例如,Perplexity.ai 的基础版可能只能使用一两种模型,而专业版则可以访问更广泛的架构。

设计控制是人机协作中最有趣的方面之一。在理想情况下,它创造了 AI 和用户之间的协同效应,用用户的专业知识和个性偏好超越单纯的 AI 能力。现在让我们转向负面情况,看看如何在 UI 中管理 AI 失败。

管理 AI 失败

在管理错误之前,你需要定义具体情况下的错误类型。考虑以下问题:

哪些类型的错误是可能发生的?不同类型的 AI 有不同的失败模式。例如,在预测性 AI 中,需要处理假阳性和假阴性,比如情感分析模型错误地将一段极负面的文本判断为积极。生成式 AI 会"幻觉"------自信地输出捏造的信息。智能代理 AI 不仅会犯上述错误,还会在多步骤流程中放大错误的可能性。错误可能发生在每一个步骤,包括 AI 计划和选择步骤时。

哪些错误会被用户识别并视为错误?当输出与用户知识冲突,或者输出与输入并排显示、易于发现问题时,用户最容易察觉错误。例如,在对电影评论进行情感分析并显示情感评分时,用户容易发现情感判断错误。相反,如果只显示汇总评分,用户可能不会察觉少量(比如5%)评论的错误。需要注意的是,有些技术失败可能带来积极影响。比如用户利用 AI 头脑风暴时,AI 幻觉出完全不现实的方案,却激发了用户的灵感。

不同用户的容错度如何?这不仅取决于个性,也取决于情境------医疗场景中的错误比娱乐领域难以接受。此外,使用环境也很重要。专注使用桌面应用的用户能验证 AI 输出并反思其准确性,而移动应用在紧张的谈判场景中容错度较低。

总结处理错误的核心流程:

  1. 让用户预期错误,避免期望完美。你可以说明模型的准确率,比如"我们的情感模型准确率为90%。"还可以这样表述:"平均每10个输出中会有1个错误。"也可描述常见的失败模式,尤其是生成模型表现难以量化时。明确说明,避免用户在错误发生时感到措手不及。
  2. 系统应在用户发现前捕捉错误------与工程师合作,找出后台可检测的错误,比如用防护机制阻止不当言语、偏见和不公平声明。
  3. 若错误被用户发现,应允许反馈。明确反馈的时间、方式及其对模型的影响(这很复杂,因为不是所有反馈都会即时改变模型行为)。例如:"感谢指出此错误!我们会在下一次训练中加入这条数据,更新后的模型将在下月初发布。"
  4. 给用户一个解决方案。允许他们修改输入,或在多步骤流程中在错误发生前接管控制。

展望:带生成界面的实时个性化

现代用户对个性化体验需求日益增长,AI 是解决此设计挑战的重要工具。个性化可以体现在内容、设计或功能层面。一些图形界面,如电商网站,已能针对不同用户个性化内容。对话界面则在整个交互过程中提供个性化内容,每次响应都基于用户的先前输入。

生成界面更进一步------它们在每一步都调整内容、功能和设计。生成式 UI 由大语言模型驱动,可以根据当前界面状态选择合适的界面组件和交互方式。每次交互中,用户会看到一个与当前上下文匹配的模块,例如:

  • 如果用户在寻找信息,界面会显示包含相关链接和信息的文本块。
  • 如果用户想探索背后的数据,界面会呈现交互式数据可视化,允许用户放大特定数据点。
  • 如果用户想基于检索到的信息合成文本,应用会输出可编辑文本。

因此,应用不会强制用户接受死板的业务逻辑,而是顺畅地适应用户的思路。

备注:想了解生成式 UI 转变的更多内容,可参考《Generative UI and Outcome-Oriented Design》(<www.nngroup.com/articles/ge...

目前,完全自适应的生成式界面仍是愿景,存在明显技术限制。但你应关注这一趋势,因为它可能颠覆界面设计------届时你可不想落后。尝试在整体设计策略中逐步融合生成式 UI。从小规模个性化功能入手,例如在可持续性报告应用中,为用户提供一个自适应编辑体验,让他们通过聊天、语音或内联操作控制编辑过程。准备好转变设计思维,不再局限于单个组件和交互的细节,而是从更宏观的角度思考用户意图及其对应流程。

本节介绍了针对 AI 特定挑战调整 UX 的丰富设计模式。以下是我推荐的更多详细资料:

AI UX 模式汇编:

对话设计相关资源:

  • Erika Hall 的《Conversational Design》(2018, A Book Apart),涵盖对话设计原则与实践,探讨如何将语言融入设计。
  • Diana Deibel 和 Rebecca Evanhoe 合著的《Conversations with Things》(2021, Rosenfeld Media),介绍对话设计基础及无障碍与伦理等高级概念。
  • 我的文章《Designing the Relationship Between LLMs and User Experience》(mng.bz/nZMV)和《Redefining Conversational AI with LLMs》(mng.bz/vZzm

分析型产品相关经典:

  • Stephen Few 著《Show Me the Numbers》(2004, Analytics Press),数据可视化最佳实践。
  • Alberto Cairo 著《The Functional Art: An Introduction to Information Graphics and Visualization》(2012, New Riders),信息图形与可视化导论。

初次设计界面时,很多 AI 行为和用户反应只能在"真实"环境中摸索。一旦 MVP 上线,你就进入了与时间赛跑的阶段------需要积极收集 UI 和 AI 性能反馈,持续优化这两个方面。

10.3 收集反馈与与用户共创

由于 AI 产品具有概率性特征,其风险通常高于传统软件。一旦交到真实用户手中,产品可能会表现出许多团队未预料和未规划的意外行为。你需要用户帮忙发现这些未知问题,以便在用户感到挫败之前及时解决。如果你计划做个性化,反馈还能用来学习个别用户的需求和偏好。除了收集关于用户体验(UX)的反馈外,还应收集 AI 性能(真实或感知)的数据,用于提升训练数据和模型。目标是以一种方式收集数据,使每位用户都能成为设计合伙人,帮助你改进产品。本节将介绍可收集的反馈类型,以及设计模式和激励措施,助你赋能用户共同设计产品。

10.3.1 用户反馈的类型

当 Ben 使用你的产品(见10.2.1节)时,系统默默记录了他的所有交互。除了输入和初始 AI 输出外,还记录了他的编辑行为,比如修改的措辞和为支持文本而添加的数据点。这属于隐性反馈,你的团队可以用来识别 AI 的主要问题。当 Ben 完成最终草稿时,系统也会提示他提供显性反馈。此时他仍沉浸在使用体验中,能够详尽回忆。其反馈也反映了他对产品的情绪反应,无论是正面还是负面。

无论是隐性还是显性反馈,都有助于提升用户体验和 AI 的表现(包括训练数据和模型)。图10.27展示了几种反馈收集的示例。

先来看隐性反馈。许多现代产品团队已在追踪产品使用情况。可以借助 Matomo、Loops 等专业工具,或使用自定义日志逻辑。例如,当为用户提供控制元素时,可监控其使用频率,发现某些元素几乎无人使用,反而成为界面负担。提供推荐或搜索结果时,可以监测用户点击特定项的次数,确认其为正向反馈,并强化这类预测的准确性。使用数据应被捕获并结构化,便于团队或模型高效处理。为了支持有效决策,用户数据的洞察力应尽可能具有操作性,比如团队能据此判断哪些功能可删减或优化、主要的使用阻力点在哪里等。

图10.27 产品内反馈收集示例

隐性反馈的优点是可以自动化大规模收集------没有数据质量问题,也不需要额外的用户体验机制或用户额外付出。但它也有两个局限:

  • 使用追踪无法覆盖产品的所有方面。例如,它很难提供关于用户当前未被满足需求的信息。
  • 使用指标只是用户需求和偏好的间接反映,可能导致错误的结论。例如,当用户因绝望而点击某个搜索结果,希望找到真正有用的参考资料时,单纯把点击视为正向反馈可能会产生误导。

这些问题可以通过显性反馈来解决。你可以完全控制如何聚焦和框定你的信息需求。显性反馈可以通过多种形式收集,从简单的点赞/点踩图标到带开放式输入的详细调查问卷(见图10.28)。

反馈的形式和数量取决于以下因素:

图10.28 反馈收集的不同粒度(来自 Miro、ChatGPT 和 Perplexity.ai 的示例)

  • 随着信息需求的发展和日益具体化------需求越聚焦,反馈收集越高效。
  • 用户投入反馈的积极性------用户越积极,你能收集的细节就越丰富。第10.3.2节将介绍如何激励用户。
  • 你的团队或模型能处理多少及何种类型的反馈------如果团队规模较小,可能无法处理详细的开放式反馈。应将反馈结构化,便于分析,例如使用是/否问题、封闭属性集合、数字评分等。

在第4到第8章,我们强调直接从用户收集的训练和评估数据对AI开发最有价值。如果收集模型性能反馈,应直接用于微调和评估模型。因此,可以通过让用户为界面中看到的数据点"标注"来收集预测模型的额外训练和评估样本。对于生成模型,可以收集对回答"好坏"的主观评价,以及诸如长度、风格和帮助度等更细粒度的属性(参见图10.12)。利用这些数据提升模型,可使其更贴合用户偏好和思维,推动信任、参与度和满意度。

你通过产品收集的大部分反馈(无论隐式还是显式)将是量化反馈,其优点之一是可比性------无论是时间上的变化还是与竞争对手的对比。因此,你可以设定度量指标,捕捉相关的可用性维度,并将使用情况与产品早期版本进行基准比较。随着时间推移,团队将看到设计决策和行动的效果,逐渐形成改进产品的更好直觉。

10.3.2 激励用户提供反馈

你在工具中构建了多种显式反馈机制,但新版本发布后,反馈寥寥,用户大多忽视请求,因为他们不理解反馈的意义。你需要扭转这种局面,将反馈变成习惯。健全的反馈循环有双重优势------不仅为未来改进提供信息,还能增强用户对产品的黏性。用户投入的时间和精力越多,越可能持续使用产品。要吸引用户并将其纳入定期可靠的反馈循环,请遵循以下步骤:

  • 简化反馈流程。
  • 了解用户动机,用有吸引力且多样化的奖励激励他们。
  • 传达反馈的价值和影响。

简化反馈流程

应将反馈收集自然地融入用户流程。例如,在我们的场景中,Ben完成任务后正准备休息,就被提示提供反馈。再如Netflix会在用户观看电影后收集反馈。想象一下如果Netflix在推荐电影时立即请求评分,或发邮件要求反馈,但用户只有在切换到其他活动时才看到,这不仅会让大多数用户感到烦躁,还会导致严重的数据偏差。相反,直接在用户完成预期价值交付后请求反馈,可以"抓住"用户此时认知和情感都与体验紧密连接的状态。

激励用户提供反馈

在用户调研中,你可能已了解驱动用户的因素:是金钱奖励、社会认可还是单纯的乐趣?例如,Ben在持续使用和仔细审查你的产品后,可能获得"AI专家用户"称号,能在休息时或与孩子聊天时炫耀。电商网站的用户可能更看重购物返利等奖励。建议设置可变奖励并包含惊喜和游戏化元素(参考Nir Eyal的《Hooked: How to Build Habit-Forming Products》),激发用户对下一次奖励的期待,逐渐养成定期反馈的习惯。

理想情况下,用户应有内在动力为改进系统付出努力,这样反馈既真实又高效。要促使此行为形成习惯,你需要向用户展示反馈的实际影响。

传达反馈的影响

在请求反馈时,应明确告知用户其带来的益处。"帮助我们改进产品"是常用语,但你也可以更具体地说明,比如"帮助我们提高AI模型的事实知识"。用户反馈后,给予确认并尽可能提供反馈被采纳的时间表("感谢您的反馈!我们将在下次微调中纳入该数据,更新模型将于下月初上线。")。保持现实------特别是大型模型,单次反馈对模型行为的影响有限,勿过度承诺。最后,在采纳反馈时,借机与用户联系,可以在产品内显示通知或发送邮件更新,表明其反馈重要且被重视,吸引用户回归产品。

案例研究:社区驱动的AI优化

我所在的Anacode公司开发过一款面向汽车制造商的AI产品洞察平台,分析客户反馈、行业趋势和竞争对标,识别高影响力产品改进方案。

尽管平台能成功生成数据驱动的建议,挑战在于确保产品团队信任AI洞察并积极提供反馈以优化结果。经过多次迭代,最终建立了以下稳固的显式反馈机制:

  • 产品内反馈选项------用户可以对建议进行评分、纠正和完善,确保AI输出与现实需求一致。
  • 分级功能访问------持续提供有价值反馈的用户可解锁高级协作功能,例如添加新数据源。
  • 高级用户认可------频繁贡献者获得"专家评估者"徽章,显示在内部报告和仪表盘中,提升其团队地位。
  • 社区建设------建立专门的Microsoft Teams频道分享和讨论工具洞察,设立贡献排行榜,营造共享归属感和合作氛围。

该共创策略通过社会认可、社区参与和分级功能访问,将被动用户转变为积极的共创者。

通过发掘用户动机并帮助他们成为共创者,你可以持续调整产品,更好地满足他们的需求。同时增强用户黏性,因为投入时间改善产品的用户更不易转向替代品。最终,这也促使用户进入积极的心态,促进负责任的AI使用。

下一章将教你如何打造流畅、有用、安全、合规且具伦理性的AI产品。

总结

  • AI 产品的用户体验设计过程高度迭代且适应性强,需要持续收集用户反馈以提升用户参与度和产品采纳率。
  • 明确使用场景至关重要,应聚焦于能够带来可衡量影响并具备 AI 增强或自动化潜力的任务。
  • 理解用户对 AI 的态度,包括信任度和使用经验,是设计有效界面和用户体验的关键。
  • 验证 AI 原型时需模拟 AI 的概率性质和潜在故障,以评估用户的反应和错误容忍度。
  • 界面应明确显示 AI 正在处理信息,提升透明度和用户对 AI 功能的认知。
  • 利用信任指标(如置信度评分)帮助用户校准对 AI 输出的信任,保持对信息的批判性态度。
  • 应赋予用户修改或拒绝 AI 输出的能力,增强用户对 AI 贡献的控制感和责任感。
  • AI 产品上线后,应持续收集用户反馈,揭示开发过程中团队未预见的情况和行为。
  • 反馈既可以是隐式的,也可以是显式的,反映整体用户体验和 AI 性能表现。
  • 通过发掘并强化用户的内在或外在动机,将用户吸引进持续的反馈与共创循环,使产品更好地贴合用户需求。
相关推荐
人工智能培训咨询叶梓10 分钟前
大模型在关键社会领域的应用研究:金融、医疗和法律
人工智能·语言模型·金融·大模型实战·大模型应用·人工智能培训·大模型工具
flyair_China11 分钟前
【人工智能数学基础】测度论
人工智能
Cc192417 分钟前
13.1-13.4. 计算机视觉【1】
人工智能·计算机视觉
一个小番茄30 分钟前
# AI武装大脑:技术管理者如何用人工智能重构认知与决策系统
人工智能·重构
楼台的春风30 分钟前
【Linux驱动开发 ---- 2.1_深入理解 Linux 内核架构】
linux·c++·人工智能·驱动开发·嵌入式硬件·ubuntu·架构
VI8664956I261 小时前
AEO:从搜索引擎到答案引擎,AI时代搜索优化的新战场
人工智能·搜索引擎
国际云,接待1 小时前
从CentOS迁移到TencentOS:9%成功率的一键替换实操
服务器·网络·人工智能·腾讯云
CSTechEi2 小时前
【IEEE/EI/Scopus检索】2025年第五届机器学习与大数据管理国际会议 (MLBDM 2025)
大数据·人工智能·机器学习·大数据管理·ei学术会议
要努力啊啊啊2 小时前
YOLOv5 模型结构详解
人工智能·深度学习·yolo·计算机视觉·目标跟踪
来自于狂人3 小时前
[特殊字符] 一键搭建AI语音助理:基于DashScope+GRadio的智能聊天机器人技术全解
人工智能·机器人