元认知AI素养:来自交互式AI展览的发现——文献精读

摘要

本文精读的文献来源于《AI & SOCIETY》期刊2025年发表的研究论文"Metacognitive AI literacy: findings from an interactive AI fair",作者为Brian Hutler等人。该研究通过在大型大学举办"交互式AI展览",采用民族志观察、半结构化拦截访谈和反馈调查等多方法研究设计,深入探讨了公众对人工智能的理解、兴趣和关切。研究发现,大多数参展者不仅关注AI的实用技能,更对AI的社会文化影响表现出浓厚兴趣。更为重要的是,研究揭示了一个此前被忽视的AI素养维度------"元认知AI素养",即理解和描述AI对人类思维过程、信念形成、知识生产、推理和人际沟通影响的能力。本文将在翻译原文献的基础上,结合相关理论知识进行深入解读,为读者呈现这项研究的理论贡献与实践启示。


1 研究背景与问题提出

1.1 人工智能时代的素养挑战

人工智能技术的迅猛发展正在深刻改变人类社会的运作方式。2022年OpenAI发布ChatGPT并迅速获得公众采纳,这一里程碑事件引发了关于AI的教育、伦理、法律和社会问题的广泛讨论。AlphaFold、Dall-E、Gemini等AI程序为提高效率和创造力提供了新的可能性,但当AI取代人类决策时,也带来了社会和政治风险。在信用监控、执法、刑事判决和医疗诊断等多个领域,不公正和不公平的AI驱动结果已经显现,这些现象凸显了公众理解AI的紧迫性和重要性。

AI的发展加速了人类社会向数字社会的转型,这一转型类似于哲学家Jürgen Habermas和社会学家Gabriel Tarde所描述的从公共会议到印刷媒体的"结构性转型"。早期的转型创造了大众民主和全球化经济,而数字媒体和AI引发的结构性转型可能同样深远。大型语言模型(LLMs)增强了互联网搜索功能,使曾经不可能的复杂查询成为可能;AI代理通过数字工具和人类交互的组合,越来越能够完成现实世界的任务。然而,AI工具有时会产生不准确的信息,AI生成的深度伪造内容正在削弱对可靠来源的音频和视觉内容的信任。在社交媒体上,AI机器人创建并放大虚假信息,AI驱动的算法倾向于强化先前的信念和社会联系,形成认知回声室。综合来看,AI正在侵蚀允许我们公开验证共享信息的"认知后盾"。
AI时代挑战
技术层面
信息准确性
深度伪造
算法偏见
社会层面
认知回声室
信任危机
数字鸿沟
素养层面
公众认知不足
技术理解有限
伦理意识薄弱

1.2 公众对AI的认知现状

研究表明,许多美国人对AI的了解不足,他们的大部分信息来自娱乐媒体。人们往往低估AI技术在日常生活中的普遍性,高估自己有效使用AI的能力。与此同时,了解AI的人往往低估其风险,高估其社会效益。这种认知差距为AI素养教育提出了迫切需求。为解决公众理解不足的问题,学者们正在开发促进AI素养的新策略。

在广泛引用的文章中,Long和Magerko提出了面向教育情境的AI素养框架。他们将AI素养定义为"使个人能够批判性评估AI技术、与AI有效沟通和协作、并将AI作为在线、家庭和工作场所工具的一组能力"。这些作者进行了全面的文献综述,确定了AI专家认为非技术学习者应该了解的AI知识,以及非技术学习者在与AI交互时存在的误解。基于他们的综述,作者确定了17项"能力"和15项"设计考虑",组织成一个概念框架,包含五个主题问题:什么是AI?AI能做什么?AI如何工作?应该如何使用AI?人们如何感知AI?

Long和Magerko为基于现有文献的AI素养框架提供了有价值的起点。但研究者认为,当前的AI素养工作忽视了科学素养的一些重要见解,特别是科学技术的政治、社会和文化方面的重要性。

1.3 科学素养框架的理论传承

科学素养领域有着支持科学教育和公众理解科学的悠久传统。研究者假设Shen于1975年提出的经典科学素养框架为AI素养提供了当前文献所缺乏的资源。Shen概述了理解科学和"利用其益处并避免其陷阱"所需的三种相互关联的素养:

表1 Shen科学素养框架的核心维度

素养类型 核心内涵 应用场景 能力要求
实用性素养 基本理解能力和在日常生活中使用新技术的能力 日常生活、工作场所 技能掌握、工具使用
公民性素养 使民主公民能够参与科技相关的政策辩论和政治决策 政策讨论、公共事务 批判思维、民主参与
文化性素养 将科学视为人类成就加以欣赏,感受科学成就的惊奇感 文化传承、科学传播 审美能力、价值认同

Shen的框架尚未被纳入AI素养研究。在Web of Science核心合集中搜索"AI literacy"(截至2025年10月)返回1169条结果,显示该领域的学术研究呈指数级增长。然而,这些结果中没有一个引用Shen的论文。在引用Shen论文的40篇Web of Science结果中,没有一篇提及人工智能。由于AI素养研究倾向于借鉴和/或调整经典素养框架以适应AI,这是一个令人惊讶的遗漏。研究者认为,与Shen科学素养框架的有意义接触可以帮助将AI素养研究置于科学素养这一悠久学术谱系中。

将Shen框架应用于AI,公众需要了解AI如何工作以及如何在日常生活中有效使用它(实用性素养)。但除了实用技能外,AI素养还应使人们能够对AI进行批判性评估和知情决策。随着技术发展超越现有监管结构,公众必须有意义地参与关于AI监管和实施的民主政策辩论(公民性素养)。AI的发展以及AI使能的科学和技术进步也很可能代表一种值得欣赏的人类成就形式(文化性素养)。
AI特性
Shen框架
实用性素养
AI素养
公民性素养
文化性素养
不透明性
元认知素养
生成性
适应性
拟人化特征


2 理论基础:从科学素养到AI素养

2.1 AI的独特性与传统框架的局限

AI与先前的科技进步不同,可能无法完全适应旧有的科学素养概念。由于其不透明性、生成性、适应性和拟人化特征,AI不仅被人类使用,至少表面上还在与人类互动。不透明性是指AI系统往往在没有解释或透明度的情况下生成输出;生成性是指AI创造新颖的输出和用户与机器之间共创的机会;适应性是指AI具有从用户那里学习并随时间调整的能力;拟人化特征是指AI经常采用邀请用户使用信任、社会规范和道德代理启发式的设计元素。

与其简单地假设AI与最近的技术发展相关相似,研究公众对AI的理解之后再做出关于AI素养最佳范围和内容的决定至关重要。正如后文所述,交互式AI展览为开始这项研究提供了机会。研究者认为,有意义地参与Shen的科学素养框架可以帮助将AI素养研究置于科学素养这一悠久的学术谱系中,同时为当前AI素养研究中提出的许多能力和素养提供概念清晰度和理论简洁性。

表2 AI区别于传统技术的核心特征

特征维度 定义描述 对素养教育的启示 典型表现
不透明性 AI系统生成输出时缺乏解释或透明度 需要培养对AI输出的批判性评估能力 黑箱决策、不可解释预测
生成性 AI创造新颖输出和用户-机器共创机会 需要理解人机协作的边界与责任 文本生成、图像创作
适应性 AI从用户学习并随时间调整的能力 需要监控AI使用对输出的塑造方式 个性化推荐、对话学习
拟人化特征 采用引发信任和社会规范启发式的设计 需要警惕拟人化偏见的影响 聊天界面、语音助手

2.2 元认知理论的引入

元认知(Metacognition)概念最早由美国发展心理学家John H. Flavell于1979年提出,指的是"对自己思维过程的反思能力"或"对思维的思考"。Flavell在其开创性论文"Metacognition and cognitive monitoring: A new area of cognitive-developmental inquiry"中,将元认知定义为个体对自身认知现象的知识或对认知过程的监控。研究表明,年幼儿童对认知现象的知识相当有限------或者说他们的元认知能力有限------并且对自身的记忆、理解和其他认知活动的监控相对较少。

Flavell区分了元认知的四个组成部分,它们以复杂的方式相互作用:元认知知识、元认知体验、目标(或任务)以及策略(或行动)。元认知知识是指个体通过经验获得的知识,涉及人或生物作为认知有机体的各个方面;元认知体验是指伴随认知活动而产生的有意识的认知或情感体验;目标是指认知活动所要达到的目的;策略是指为达到目标而采取的认知或行动手段。
认知监控
元认知系统
元认知知识
元认知体验
目标/任务
策略/行动
认知监控
认知结果优化

元认知能力超越了个体层面,延伸到人际和社会互动领域,这一领域被称为共享元认知。一些研究者已经认识到AI的元认知意义,包括对AI生成内容的评估、算法偏见的识别、性能退化和漂移,以及灾难性遗忘。同样,Sidra和Mason将"协作AI元认知"定义为"在使用协作AI工具时,通过规划、监控和反思来增强对自己思维过程的认识和控制的能力"。

元认知之所以至关重要,是因为AI工具往往表现出流畅性和自信,即使底层信息可能不准确、有偏见或不完整。因此,AI用户往往对基于AI形成的信念抱有不合理的信心。研究者的发现强化了"元认知技能和元认知思维对于有效使用AI将变得越来越重要"这一主张。

2.3 AI素养框架的理论整合

研究者提出,由于AI的不透明性、生成性、适应性和拟人化特征,AI需要以前技术所未有的方式进行自我反思性的元认知。与先前的计算工具不同,AI系统是不透明的,它们往往在没有解释或透明度的情况下生成输出。不透明性要求用户对其对AI生成内容的信心做出元认知判断。其次,AI是生成性的,它在用户和机器之间创造新颖的输出和共创机会。元认知判断对于理解人类-AI作者身份和创造力的边界是必要的。第三,与先前的数字界面不同,AI是适应性的,它具有从用户那里学习并随时间调整的能力。用户-AI反馈循环需要元认知AI素养来监控AI使用可能以非预期方式塑造输出的方式。最后,AI经常采用拟人化设计元素,邀请用户基于人类互动使用信任、社会规范和道德代理的启发式,导致拟人化偏见。


3 研究设计与方法

3.1 交互式AI展览概述

交互式AI展览于2025年2月在费城的天普大学举行,由包括本文作者在内的跨学科教师、职员和学生团队组织。AI展览在大学中心图书馆举行,为来自不同学院和学校的参展者提供了可及的空间。展览包括由教师、学生和行业客座演讲者主持的演示和展示,旨在吸引具有不同AI知识和经验水平的参展者。项目包括一系列AI工具,如LLMs、图像生成、虚拟现实(VR)、计算机视觉和机器人技术。图书馆的活动空间举办主题演讲,而侧室和上层用于并行会议和海报展示。

根据人数统计和在线注册,研究者估计约有200人参加了为期两天的展览。参展者包括来自多个学科的本科生、研究生和教师,包括文科、社会科学、生命科学、工程、传播学和计算机科学。展览参展者还包括大学职员、校友和社区成员,包括来自当地公立学区的参展者。

表3 交互式AI展览活动安排

时间段 活动类型 主要内容 目标受众
上午场 主题演讲 AI与图书馆、AI写作指导 全体参展者
中午场 校友座谈 职业发展与AI应用 学生群体
下午场 技术演示 VR实验室、机器人展示、图像创作 技术爱好者
专场活动 深度研讨 OpenAI模型规范、LLMs与认知 专业研究者

3.2 多方法研究设计

在交互式AI展览期间和之后,研究团队使用多方法方法研究参展者的态度。在展览期间,两名研究者进行了短期民族志研究,结合参与者在演示和展示中的观察以及与参展者的非正式现场对话。他们在每次活动期间和之后手动记录民族志田野笔记,记录演示者内容、观众反应、问题、情感反应和参与度。共观察了17场会议。

两名研究者还与参展者和演示者进行了半结构化对话式拦截访谈(通常2-4分钟)。他们询问参展者希望从AI展览中学到什么、是否获得了新见解,以及是否能够以新方式使用AI等问题。这些访谈发生在走廊、展览区和图书馆中庭等过渡空间。为了保持对话的非正式性和自然性,并尽量减少干扰,他们没有录音这些对话,而是在每次对话后立即记录回应。一些参展者在两天的展览中被采访了不止一次,允许对与参展者态度或感知变化相关的迭代问题进行提问。两天共进行了25次访谈,包括本科生(12人)、博士生(7人)、研究生(2人)、教师(2人)和图书馆职员(2人)。
分析方法
数据收集
研究设计
多方法研究
民族志观察
拦截访谈
反馈调查
17场会议观察
25次访谈
75份有效问卷
开放编码
轴心编码
主题识别

最后,团队还对展览参展者进行了匿名调查,完成调查的人可以参加抽奖赢取礼品卡。共有103名参展者完成了调查,但在排除完成时间低于中位完成时间一半的受访者后,研究者获得了75份可用回应。中位完成时间为318.5秒(约5.3分钟),因此低于159秒的回应被移除。所有受访者均为18岁或以上,主要是本科生(n=49),其次是研究生(n=9)、教师(n=7)、职员(n=6)和校友(n=3)。参与者自认为是白人(n=40)、黑人/非裔美国人(n=12)、亚洲人/亚裔美国人(n=13)和西班牙裔(n=6)。一些选择了"其他"(n=4),一些选择不说(n=6)。大多数调查受访者参加了展览的一天------周二(n=21)和周三(n=43)------而一些人参加了两天(n=11)。有48人自认为是女性/女性,24人自认为是男性/男性,1人自认为是非二元性别。

3.3 数据分析方法

在审查观察和访谈笔记后,两名研究者独立进行开放编码,寻找重复、相似和差异以识别初始类别。然后他们使用轴心编码探索生成类别之间的联系,并比较他们的编码。这种方法允许研究者从数据中归纳出主题,而不是强加先入为主的理论框架。调查数据的分析则采用描述性统计方法,计算均值、标准差等指标,并进行人口统计学差异的检验。


4 研究发现:四种AI素养维度

4.1 实用性AI素养

许多展览参展者已经具备关于AI的基线实用性素养,并有兴趣学习如何适当和有效地使用特定的AI工具。当被要求描述他们在参加展览前对AI如何工作以及它能做什么的理解时,一些人报告对AI的技术方面有深入理解(18.67%),而很少有人表示对AI没有理解(2.67%)。许多人报告熟悉AI但缺乏技术知识(56%),一些人报告对AI及其应用有基本理解(22.67%)。大多数参展者报告他们在日常生活中使用AI工具或程序,包括用于与其教育或工作相关的研究或学习(84%)以及用于学校或工作之外的任务(88%)。

尽管对AI有一定熟悉度,许多参展者希望学习更多,特别是如何将AI用于学术或专业任务,如写作或内容创作。例如,一名兼职营销研究生希望学习如何在她的营销协调员职业生涯中使用AI。两名具有先前AI熟悉度的本科参展者(一名主修计算机科学,另一名的父母在AI公司工作)寻求增加对AI技术方面的理解。

许多参展者提出了关于如何适当使用AI的问题,特别是在学术工作中使用LLMs。在多个专注于学术写作的会议中,本科生提出了诸如:"AI生成的内容应该被引用吗?""我们如何知道合法来源?"以及"ChatGPT可以用来查找学术来源吗?"等问题。一名教师演讲者分享说,"AI撰写的学术论文"的增加是"同行评议研究诚信的挑战",指出了验证作者身份和确保投稿学术严谨性的困难。一些参展者对AI辅助搜索引擎结果的准确性表示担忧。一名参展者问道:"我们怎么知道AI知道答案?"

表4 实用性素养的参展者反馈

参展者引述 情境说明
"AlphaFold极大地加速了蛋白质结构预测的过程......" 一名研究生演示ColabFold
"AI可以帮助完成编码等任务,特别是对于有阅读障碍的人。" 一名教师描述AI作为学习差异者的辅助工具
"我们怎么知道AI知道答案?" 一名教师在AI生成内容评估会议上提出的问题
"无论你的学科如何,你都可以使用AI。AI对所有人都是可及的。" 一名校友小组成员
"如果你不使用AI,你就已经过时了。" 一名教师演示者描述AI在艺术和设计实践中采用的必然性

ChatGPT是展览中最常讨论的AI工具。当演讲者问"谁使用ChatGPT?"时,几乎所有人都举手。ChatGPT的普遍性在调查数据中也很明显。在一次写作会议上,学生被建议"使用ChatGPT作为后写作工具来完善和改进写作"。一名教师指出,学生应该"在咨询ChatGPT之前手动制定大纲"。展览上关于ChatGPT的许多对话都涉及其生成信息的质量。例如,一名学生分享说,当他们使用ChatGPT时,他们会"不断调整提示,直到获得他们真正需要的答案"。另一名学生想知道如何将ChatGPT"作为学习工具"使用。一名演示者指出,AI可以帮助"有阅读障碍的人"学习编码等任务,总的来说可以使"困难的术语或概念"更容易解释。

虽然ChatGPT是讨论的频繁话题,但参展者也有机会使用其他AI程序。例如,一名教师和一名研究生向参与者展示了如何使用"ColabFold",他们将其描述为"谷歌AlphaFold的用户友好版本",能够根据用户输入的氨基酸序列创建蛋白质的3D模型。学生们喜欢看到AI工具运行的机会,但一些人对用户界面的复杂性表示沮丧。

演示者和参展者还讨论了计算机科学或工程以外的学生如何发展AI技能。例如,校友小组上的一名演讲者分享了他们作为与AI模型合作的专业人士的经验,即使他们没有计算机科学背景。这位小组成员说:"无论你的学科如何,你都可以使用AI。AI对所有人都是可及的。"几名参展者讨论了将发展AI熟悉度作为职业发展一部分的重要性。正如一名教师所说,"如果你不使用AI,你就已经过时了。"另一名教师指出,"具有良好AI素养的人在就业方面比其他人有优势。"

许多展览参展者有兴趣建立实用的AI技能和理解,展览似乎有助于实现这一目标。当被问及从参加展览中学到了多少关于AI的知识(1=我没有学到新东西到5=我学到了很多)时,许多人报告从参加展览中学到了至少适量的AI知识(M=3.32,SD=1.03)。近一半(47%)的调查受访者报告在参加展览后对使用AI更有信心。许多人觉得他们对AI有基本的理解和熟悉度,但他们也想了解如何使用AI以增强他们的学术表现或职业生涯。
56% 23% 19% 3% 展览参展者AI理解程度分布 深入理解技术方面 熟悉但缺乏技术知识 基本理解应用 无理解

4.2 公民性AI素养

与研究者假设一致,AI展览参展者也对AI的伦理和治理感兴趣,研究者将其归类为公民性素养。事实上,几乎每场会议都表达了对AI伦理和治理的关切,这可能是展览参展者最迫切的兴趣。许多展览参展者担心AI有偏见或AI可能加剧现有的不公正模式。例如,一名教师问我们如何能"在不强化不平等的情况下使AI可及"。参展者还担心AI可能疏远或排斥一些公众成员。一名教师指出,许多当前的LLMs不支持英语以外的语言。一些参展者表达了年轻一代成员应该有发言权决定他们希望AI的未来是什么样子的观点。一名本科生评论道:"我们现在处于这个奇怪的等待游戏中,我们在等待成本下降。但炒作太高了......"这名学生的关切捕捉到了对昂贵AI工具的不公平获取的普遍焦虑,这些工具可能成为追求某些项目或职业所必需的。

在关于AI未来的小组讨论中,参展者提出了版权、虚假信息、算法偏见和政治操纵等问题。"我们让谁为虚假信息或在线内容消除虚假信息负责?"当地学区的一名参展者问道。在另一场会议中,一名学生也提出了虚假信息责任的问题:"AI公司应该为虚假信息负责,还是个人应该发展更强的媒体素养技能?"一名使用AI翻译佛教文本的研究生提出了DeepSeek结果可能受中国政府政策影响的担忧。一名教师参与者还强调了AI的地缘政治利害关系,指出需要"国际合作和更强的监管框架来降低风险"。

在OpenAI会议期间,一名参展者问,"政府在监管这些模型方面的角色是什么?"另一名参展者想知道,"AI是否应该遵守道德中立但法律复杂的请求,例如内幕交易的解释?"研究者观察到参展者对AI的高度担忧。约35%的调查受访者报告他们比参加展览前更担心AI。一些参展者直接向演示者表达了他们的担忧。例如,大学公共安全副主管报告说校园安装了1500个摄像头,其中许多连接到AI武器检测系统。一名本科生问警察如何避免"用这么多摄像头侵犯人们的隐私"。副主管回应说,提供武器检测技术的第三方承包商不使用视频图像进行面部识别。在另一个例子中,当一名学生询问使用AI程序利用网络安全漏洞时,客座演讲者解释说,ChatGPT的设计是为了防止用户使用该程序从事非法活动。
具体议题
公民性素养关切
伦理问题
治理需求
偏见与公平
地缘政治
版权保护
虚假信息
算法透明
隐私保护

研究结果表明,展览参展者压倒性地对与AI伦理和治理相关的问题感兴趣。参展者希望获得关于监管AI的政治努力的信息,并寻求更清楚地了解AI对地缘政治的影响。

4.3 文化性AI素养

除了实用性和公民性关切外,许多展览参展者表达了对AI可能为人类提供的好处的真正好奇,研究者将其归类为文化性素养。在一次会议中,一名艺术学院教师分享道,"AI不是建筑或艺术的终结。这是一个新的开始。"一些参展者对AI表示兴奋。一名参展者说,"AI将加速劳动密集型任务。这次展览向我展示了它能做多少。"也有惊奇的时刻。对一些人来说,AI是一个革命性的工具,为知识和技能发展开辟了新途径。一名研究生对AI能够以"更高的准确性和文化敏感性"翻译古代文本感到兴奋。一名教师说,AI"不是任何东西的替代品,而是补充",可以填补人类输入缺乏的概念空白。另一名参展者指出AI有潜力"想象不可想象的事物,帮助克服创意障碍"。

一些参展者指出,AI是在从整个人类社区获取的信息上训练的,讨论了这种方法的权力和局限性。参展者中有一个普遍的观点,即AI不会取代人类智能。一些参展者提出了对过度依赖AI及其对人类创造力影响的担忧,而其他人则对代理和创造力的演变类别表示兴趣。参与者测试了他们区分AI生成和人类撰写内容的能力,准确率仅略高于随机,突显了围绕作者身份和表达真实性的日益模糊。

关于文化影响和记忆的关切出现在检查AI档案功能的会议中。一次演示强调了AI在防止"数字消失"方面的作用,特别是在模拟记录面临风险的情境中。这些关切也延伸到艺术领域。一名演讲者描述了学生对生成式AI的抵制,包括对AI创作作品的破坏,揭示了围绕作者身份和伦理边界的紧张关系。一名参与者指出,"AI生成的沟通缺乏人类情感和讲故事的深度",并警告说AI驱动的摘要可能侵蚀持续的阅读实践。

研究结果表明,对AI各个文化方面的兴趣显著,包括正面和负面影响。许多参展者表达了对AI力量的欣赏,帮助他们获取知识或解锁新的创造力形式。参展者还担心使用AI对自己思考和沟通的影响,特别是在创造性活动的背景下。参展者认识到,对AI潜力的欣赏可以阐明使AI有价值的原因,同时也可能分散对其有问题的社会影响的注意力。虽然参展者不一定反对AI的创造性使用,但他们寻求更多关于AI可能对人类原创性和创造力施加的限制的信息。

4.4 元认知AI素养:新发现的维度

补充Shen框架的所有三个类别,研究者意外地发现了对研究者标记为元认知素养的强烈兴趣,即使用AI对思维或沟通的影响。从实用性角度来看,许多参展者对在学术写作等情境中使用AI的扭曲效应不确定。正如一名教师演示者指出的,"ChatGPT很好地修复语法,但我不确定我信任它对我的论点的真正反馈。"在关于学术写作的小组讨论中,许多参展者将AI视为完善的有用工具,同时表达了对过度依赖的担忧。"我用它来处理语法和流畅性,但不是为了想法。我仍然希望我的声音在文章中,"一名学生解释道。一名教师阐述了设定边界的挑战,"如果AI给了我一个结构,它是否已经在为我做这项工作?"正如一名教师成员解释的,"AI素养不仅仅是使用工具,而是理解其局限性和偏见。"一名本科生问,"AI如何帮助摆脱'糟糕的写作'?"这引发了关于生成支持和教育诚信之间紧张关系的辩论。

表5 元认知素养的参展者反馈

参展者引述 情境说明
"我用它来处理语法和流畅性,但不是为了想法。我仍然希望我的声音在文章中。" 一名本科生在一对一访谈中
"你越使用它,你就越开始像它一样思考。" 一名教师在会议期间
"如果AI给我一个结构,它是否已经在为我做这项工作?" 一名本科生在AI写作教程期间
"我仍然非常怀疑,我认为这会影响我的创造力。" 一名大一工程学生
"想到AI可能在我们没有意识到的情况下塑造我们的想法,这很令人毛骨悚然。" 一名参展者在AI模型演示后的评论

几名教师成员表达了担忧,AI可能会削弱学生的认知参与,其中一人评论说它可能鼓励"按时完成糟糕工作"的策略,而不是真正的智力发展。一名声称不使用AI的大一土木工程学生担心AI使用会如何影响他们的创造力。一名图书管理员警告"学生用AI摘要代替阅读"的潜在认识论后果,指出这可能会改变"他们处理知识的方式"。在问答环节中,一名教师成员担心过度依赖AI可能导致人类失去认知能力:"人类越使用AI,他们就越像AI一样思考。"许多参展者认为,学习如何使用AI部分是学习避免AI可能对其思维或沟通产生的潜在负面影响。

研究者还在AI伦理和治理的背景下观察到元认知关切的出现。例如,一名教师演讲者提出了一个虚构的思想实验,其中与维多利亚时代道德价值观一致的LLM导致用户无意识地符合这些价值观,说明AI如何可以微妙地强加主导意识形态。这个例子引发了关于模型对齐可能影响文化的微妙方式的生动讨论。一名参展者观察到,"想到AI可能在我们没有意识到的情况下塑造我们的想法,这很令人毛骨悚然。"一名教师指出,过度接触AI可能促使人类思维模仿AI生成的内容。参展者指出,监管AI的努力应该对AI使用塑造我们信念和价值判断的潜力敏感------即对AI的元认知效应敏感。

元认知也与关于AI文化影响的讨论相关。参展者讨论了AI如何塑造语言、记忆和意义。在专注于LLMs和认知的小组讨论中,教师演示者展示了分析语言模式(如词汇复杂性)以评估对话一致性的AI工具。这些应用,包括对代际对话和人机交互的研究,提出了关于AI对语言结构和解释动态影响的重要问题。一些参展者想知道AI是否可以被视为真正的合作者,还是仅仅是模仿工具。一名参展者询问如何与AI建立"共生关系"。其他参展者对一个戴着黄色无檐便帽、名为"Jack"的机器人演示印象深刻,该机器人配备了麦克风以响应语音命令。一名参展者说,"给机器人加麦克风并不会让它成为人类。互动比这更深。"另一名参展者说,"让机器人人性化并不一定能帮助人们将其视为人类。"虽然这些讨论显示了一些对人性化机器人是否增强用户体验的怀疑,但有几名参展者着迷并开始与Jack聊天,说:"你好Jack,我喜欢你的黄色无檐便帽"和"你好Jack,你今天好吗?"。
具体表现
元认知AI素养
思维过程影响
自我反思能力
信念形成
知识生产
人际沟通
批判性评估AI输出
识别算法偏见
监控认知变化
维护人类主体性


5 理论贡献与实践启示

5.1 对AI素养框架的拓展

这项多方法研究的结果表明,Shen的科学素养框架可以有益地应用于AI。虽然大多数展览参展者已经熟悉AI工具,特别是ChatGPT,但研究者发现许多人寻求更多关于如何使用AI工具以及如何为任务选择适当程序的信息。呼应Shen对技能建设和理解的强调,实用性AI素养应该提供诸如LLMs的提示工程、AI研究工具培训以及使用AI代理支持生产力等技能。

同样,许多展览参展者表达了对AI的伦理、法律和社会影响的兴趣,突显了公民性AI素养的重要性。围绕AI的有效公民参与需要了解AI治理机制以及政府和公司在塑造AI未来中的角色的公民。此外,公民必须了解AI在执法、刑事司法、教育、就业和医疗保健等领域的使用,以便倡导有效的监管。当公民缺乏关键信息时,强大的行动者可能有机会以损害公共利益的方式影响公众舆论。

最后,许多展览参展者表达了对AI力量的欣赏甚至敬畏,以及对AI可能使能的社会和科学进步的感受。同时,参展者表达了对AI影响或限制人类创造力的担忧。文化性AI素养鼓励对AI在塑造人类文化(包括我们的艺术、讲故事和文化记忆)中角色的欣赏和批判性评估。

除了Shen框架的效用外,研究者发现展览参展者表达了对AI对自己思维和人际沟通影响的兴趣和关切。研究者建议,促进AI素养的努力应该包括元认知AI素养,即理解和描述AI对我们思维过程、信念形成、知识生产、推理和人际沟通影响的能力。

5.2 元认知AI素养的必要性论证

关于元认知的研究专注于自我评估和自我调节自己思维的能力。例如,当我们对自己的信念分配信心判断或置信水平时,我们就在进行自我调节。元认知能力超越了个体层面,延伸到人际和社会互动领域,这一领域被称为共享元认知。一些研究者已经认识到AI的元认知意义,包括对AI生成内容的评估、算法偏见的识别、性能退化和漂移,以及灾难性遗忘。

AI需要以前技术所未有的方式进行自我反思性的元认知。与先前的计算工具不同,AI系统是不透明的,它们往往在没有解释或透明度的情况下生成输出。不透明性要求用户对其对AI生成内容的信心做出元认知判断。其次,AI是生成性的,它在用户和机器之间创造新颖的输出和共创机会。元认知判断对于理解人类-AI作者身份和创造力的边界是必要的。第三,与先前的数字界面不同,AI是适应性的,它具有从用户那里学习并随时间调整的能力。用户-AI反馈循环需要元认知AI素养来监控AI使用可能以非预期方式塑造输出的方式。最后,AI经常采用拟人化设计元素,邀请用户基于人类互动使用信任、社会规范和道德代理的启发式,导致拟人化偏见。
元认知AI素养
AI特征与元认知需求
不透明性
需要对AI输出进行信心判断
生成性
需要理解人机创作边界
适应性
需要监控AI对输出的塑造
拟人化
需要警惕拟人化偏见
自我反思
负责任的AI使用

5.3 对教育实践的启示

研究结果表明,AI素养不仅需要学习如何使用AI,还需要理解其社会、政治和文化影响以及其对思维和沟通的元认知效应。教师应该设计作业,促使学生认识和评估AI使用塑造或扭曲他们思维或沟通的方式。此外,AI开发者和政策制定者应该促进对AI工具优缺点的更大透明度,以便用户不会被误导其适当用途。例如,AI开发者应该考虑实施"营养成分标签",如Gerke所提议并得到国家电信和信息管理局认可的。透明标签,加上AI素养教育和培训,可以帮助AI用户和公众避免对AI工具提供事实信息或协助有效沟通能力的误解。

扩展对AI素养的概念,超越实用性以包括公民性、文化性和元认知素养,将促进更负责任和有效的AI使用。总之,AI素养不仅应该强调AI的技术和实用性方面,还应该强调AI的公民性、文化性和元认知方面。遵循Shen,科学素养需要的不仅仅是如何使用新技术的实用性问题------我们还需要理解技术对我们的文化和社会的影响。同样,由于AI的不透明性、生成性、适应性和拟人化,AI用户需要了解其对思维和沟通的元认知效应。


6 研究局限与未来展望

6.1 研究局限性

研究者指出,这项研究作为试点项目设计,因此结果存在若干局限性。首先,由于数据集相对较小,从调查中得出的推断受到限制。研究者对关键结果变量进行了人口统计学事后比较,这些测试未能达到统计显著性。更大的数据集将允许研究者比较不同种族、族裔、年龄、职业和其他人口统计学特征的回应。

其次,虽然向公众开放,但交互式AI展览在大学环境中进行,意味着大多数参展者与大学有关,可能具有与普通公众不同的特殊知识或兴趣。虽然大学是促进AI素养的重要场所,但研究者的发现不能推广到更广泛的公众,仅为未来研究提供初步证据。

6.2 未来研究方向

AI素养研究的一个富有成效的未来议程包括进行全国调查,以得出关于公众理解、使用和感知AI的可推广结论。研究者的初步发现可以为这项调查设计提供信息。其次,类似于交互式AI展览的旨在促进AI素养的活动可以在非大学环境中举办,如公共图书馆、社区中心或礼拜场所,以在这些不同背景下对结果进行三角测量。研究者欢迎其他研究者借鉴他们的模型,在他们的大学生举办交互式AI展览。

此外,未来研究可以进一步探索元认知AI素养的测量方法,开发有效的评估工具,并研究不同人群中元认知AI素养的发展轨迹。跨文化比较研究也将有助于理解不同社会背景下AI素养的独特挑战和机遇。


7 结论

本文精读的文献表明,Shen的科学素养框架可以应用于AI。研究者依赖于在大型大学举办的交互式AI展览上进行的多方法研究,展览包括各种AI相关的演示和展示。展览为从参展者(特别是本科生)那里收集数据提供了机会。研究者发现,许多参展者寻求与AI相关主题的信息,这些主题符合Shen的实用性、公民性和文化性素养三个类别。

研究者还发现了对AI使用的元认知效应的显著兴趣,包括AI如何塑造思维过程、信念形成、推理、知识生产和人际沟通。元认知AI素养可以通过指导学生或公众反思他们的AI使用来解决这些效应。元认知AI素养增加了一个关键的额外层面,补充了Shen的框架。AI素养不仅包括如何使用AI,还包括使用AI如何塑造我们的认知过程。

这项研究的理论贡献在于将经典的科学素养框架与新兴的AI素养领域相结合,并提出了元认知AI素养这一新的概念维度。实践启示则指向了AI素养教育的全面性要求------不仅要培养实用技能,还要发展批判思维、文化理解和自我反思能力。随着AI技术的持续发展和社会影响的日益深化,元认知AI素养将成为公民在AI时代有效参与社会、维护主体性和实现个人发展的关键能力。


参考文献

1\] Hutler B, Alzahrani Y, Olagunju A, et al. Metacognitive AI literacy: findings from an interactive AI fair\[J\]. AI \& SOCIETY, 2025. \[2\] Shen B S. Science literacy: public understanding of science is becoming vitally needed in developing and industrialized countries alike\[J\]. American Scientist, 1975, 63(3): 265-268. \[3\] Long D, Magerko B. What is AI literacy? Competencies and design considerations\[C\]//Proceedings of the 2020 CHI conference on human factors in computing systems. 2020: 1-16. \[4\] Flavell J H. Metacognition and cognitive monitoring: a new area of cognitive--developmental inquiry\[J\]. American Psychologist, 1979, 34(10): 906-911. \[5\] Sidra S, Mason C. Reconceptualizing AI literacy: the importance of metacognitive thinking in an artificial intelligence (AI)-enabled workforce\[C\]//2024 IEEE Conference on Artificial Intelligence (CAI). IEEE, 2024: 1181-1186. \[6\] Ng D T K, Leung J K L, Chu S K W, et al. Conceptualizing AI literacy: An exploratory review\[J\]. Computers and Education: Artificial Intelligence, 2021, 2: 100041. \[7\] Fernández A. Opacity, machine learning and explainable AI\[M\]//Ethics of Artificial Intelligence. Springer, 2023: 39-58. \[8\] Thomas L D W, Tee R. Generativity: A systematic review and conceptual framework\[J\]. International Journal of Management Reviews, 2022, 24(2): 255-278. \[9\] Li M, Suh A. Anthropomorphism in AI-enabled technology: a literature review\[J\]. Electronic Markets, 2022, 32(4): 2245-2275. \[10\] National Academies of Sciences, Engineering, and Medicine. Science literacy: concepts, contexts, and consequences\[M\]. National Academies Press, 2016.

相关推荐
szxinmai主板定制专家2 小时前
基于ZYNQ MPSOC船舶数据采集仪器设计(三)振动,流量,功耗,EMC,可靠性测试
arm开发·人工智能·嵌入式硬件·fpga开发
stereohomology2 小时前
试用QClaw、对龙虾的期待和想象要恢复理性
人工智能·麻辣小龙虾·薅大厂的羊毛
大龄码农有梦想2 小时前
Spring AI Alibaba Skills与 Claude Skills 深度对比分析:概念、机制与应用场景
人工智能·大模型·智能体·大模型应用·spring ai·claude skills
威联通安全存储2 小时前
某大型食品饮料企业:基于威联通 TS-h1290FX 的中央数据管控与合规实践
大数据·人工智能·云计算
格林威2 小时前
工业相机图像高速存储(C++版):RAID 0 NVMe SSD 阵列暴力提速,附海康实战代码!
开发语言·c++·人工智能·数码相机·计算机视觉·工业相机·堡盟相机
恋猫de小郭2 小时前
为什么中转渠道的顶级模型会不好用?这是一个技术问题
前端·人工智能·ai编程
兰.lan2 小时前
【黑马ai测试】Day01课堂笔记+课后作业
软件测试·笔记·python·ai·单元测试
开开心心就好2 小时前
绿色版PDF多功能工具,支持编辑转换
人工智能·windows·pdf·ocr·excel·语音识别·harmonyos
LY智网强哥2 小时前
企业怎么出现在AI回答里?GEO优化的原理、路径与边界
大数据·人工智能