OpenAI又整大活儿了。
他们在ChatGPT引入了自定义指令,什么是自定义指令呢,我截图了他们在推特上发布的解释,比较让人期待的是,现在ChatGPT能够更好地为小说和编剧们服务了,以及,它可以模仿你的语言风格,写出专属于你的邮件。
是的,ChatFGPT离「成为你」,又近了一步。
虽然OpenAI已经过了疯狂炒作期,股票表现也不是太好,但在美国,越来越多的有识之士,开始反思ChatGPT对现有行业玩儿法所带来的挑战与机遇。这其中教育界更是首当其冲。
日前,「Science News」发表了一系列名为*《ChatGPT如何干涉教育》*的文章,他们采访了大学教授、人工智能科学家、普通中学老师和学生,全景式地展示了人工智能对教育所产生的影响。这其中有困惑、反思,更多的还是拥抱新技术的决心,如果未来必须与AI共处,教育该如何转型呢?
来看我们读完整个系列后,总结出的浓缩版本。
受访者:
布雷特·沃格尔辛格:宾夕法尼亚州的一位9年级英语老师
阿瓦尼·拉奥:加州高中二年级学生
翟晓明:佐治亚大学科学教育专家
凯西·菲斯勒:科罗拉多大学博尔德分校技术伦理专家
露馅儿!为了防止Chatgpt作弊,
老师们都做了什么?
"我们需要谈谈,"布雷特·沃格尔辛格说。
布雷特是宾夕法尼亚州多伊尔斯敦的一名九年级英语老师,一名学生刚给他看了自己正在写的论文,并且想听听他的意见,文章中有一段话非常别捏,布雷特意识到:
这篇文章并不是这名学生自己独立完成的,他用过ChatGPT。
但布雷特并不觉得惊讶,在他看来,很多人会出于好奇或娱乐而使用 ChatGPT。他自己就是其中一员:
我要求它(ChatGPT)以中世纪特有的「宣告文体」来为「不做作业」发明一个愚蠢的借口。不到一秒钟,它就对我说:
"求蒙垂听!您的仆人被一群顽皮的妖精围攻,他们偷走了我的羽毛笔和羊皮纸,使我如今望「题」心叹!"
我觉得这很有意思,ChatGPT 标志着人工智能新浪潮的开始,这一浪潮将颠覆教育,但最大的拦路虎是------它能帮助孩子作弊。
布雷特的担忧不无道理:斯坦福大学的学报曾在该校做过民意调查,17% 的学生表示,他们在 2022 年底的作业或考试中使用了 ChatGPT。一些人干脆承认,直接将聊天机器人写好的作业当成作品提交。
讽刺的是,这些学生可能侥幸逃脱惩罚------因为 ChatGPT 通常表现得都很出色。
"它可以超越很多中学生,"布雷特说。通常情况下,他可能不知道学生用了AI,除非------他们不小心一并复制粘贴了提示词(prompt)。
这个孩子的论文还未写完,因此布雷特还未将其看成是作弊。相反,他看到了一个机会:现在,学生和人工智能在一起工作,ChatGPT 正在帮助学生提高写作和研究技能。
"(我们)届时可能会采用颜色编码来完善这种协作,"布雷特说。学生写的部分是绿色的,ChatGPT 的部分为蓝色。老师们完全可以帮助学生,从人工智能中挑选一些句子进行扩展,让它成为真正的优质协作者。
这个故事有一个美好的结局。但在许多学校,教育工作者正在努力解决如何处理 ChatGPT 和其他人工智能工具带来的作弊问题。
今年一月初,纽约市公立学校禁止在其设备和网络上使用 ChatGPT。教育工作者担心因为过度依赖人工智能,孩子们将无法学习批判性思维并且获得解决问题的技能。
他们还担心该工具的答案可能不准确或不安全。美国和世界各地的许多其他学校系统也实施了类似的禁令。
斯坦福大学教授计算机科学的基思·施瓦茨 (Keith Schwarz) 甚至在*《斯坦福日报》*表示:
他已经重回传统的「纸笔考试」模式,那样,学生们将无法使用 ChatGPT 。
论文神器or捏造事实的专家?
ChatGPT 常常让学生用户们惊叹不已。"它比我想象的机器人要真实得多,"加州高中二年级学生阿瓦尼·拉奥 (Avani Rao) 说。
她没有使用机器人代做作业。但为了好玩,她会让ChatGPT尝试说一些有创意的"蠢话"。比如,她要求它解释加法,同时还要用一个恶棍的语调。
鉴于其出色的表现,ChatGPT 可以为学生和其他使用第二语言、或在造句方面遇到困难的人提供公平的竞争环境。对学生们来说,更棒的一点是:由于 ChatGPT 生成的是「全新的原创材料」,因此其文本在技术上不属于抄袭。
学生可以成为一个教练,指导 ChatGPT 来帮助他们提高写作能力、修正语法,甚至帮助他们理解那些极具挑战性的科目。
对老师来说,教育工作者可以使用 ChatGPT 来协助生成课程计划、活动或评估,甚至可以通过分析每个学生的不同,来拟定个性化教育计划,这在过去是不可想象的。
佐治亚大学科学教育专家翟晓明测试了ChatGPT,看看它是否可以写一篇学术论文。ChatGPT异常轻松地完成了这个任务,他直呼:"这真的太神奇了。"
但同时,ChatGPT和其他类似的工具似乎又非常容易出错,因为它们最大的能力似乎不是从数据库中提取事实。相反,它们只是被训练来生成听起来自然的新文本。
他们在不理解语言的情况下重新混合语言,这可能会导致明显的错误。
今年早些时候,新闻网站 CNET 因使用人工智能炮制出数十篇文章而受到批评,其中许多文章都充满了错误。
比如它在讨论詹姆斯·韦伯太空望远镜时,就犯了一个事实错误------声称它拍摄了第一张系外行星照片。无独有偶,ChatGPT 在 Twitter 上表示,最快的海洋哺乳动物是游隼。但小学生可能都知道,游隼是一种鸟,它并不生活在海洋中。
科罗拉多大学博尔德分校技术伦理专家凯西·菲斯勒,甚至专门制作了许多TikTok视频,用来证明自己的观点------毫无疑问,ChatGPT经常犯错!
同时,ChatGPT对于消息来源的不严谨态度,使得它很多时候就像个妄想症病人。
菲斯勒在一段视频中透露,如果被要求提供消息来源,他们就会编造。
翟晓明也发现了完全相同的事情。当他向 ChatGPT 询问引用来源时,它给了他看起来正确的来源,但它们实际上并不存在。
我们是在给AI赋权?
还是免费打工?
当所有人都在热议ChatGPT时,你可能并不太了解它的工作原理。事实上,正是ChatGPT目前的工作原理,决定了它会产生许多子虚乌有的内容。
ChatGPT 使用至少两种类型的机器学习模式。
第一种主要类型是基于**人工神经网络的大型语言模型。**这种计算架构受到大脑中神经元如何相互作用的启发,让它能够在大量数据中找到统计模型。
就拿语言模型举例子,它们通过"阅读"大量文本,进而学习预测句子或短语中接下来会出现哪些单词。
它将单词和短语放入一个多维地图中,以表示它们之间的联系,然后找到那些在地图上靠的很近的词,这些词组合在一起,帮助ChatGPT输出完整的句子,比如:黄油和蛋糕这样的词,经过千百次的阅读和学习之后,它会非常自然地输出------黄油蛋糕。
第二种模式则是OpenAI最近添加的,它被称为**带有人类反馈的强化学习模型------**它直接让人们参与培训AI的过程。
这些工作人员检查人工智能的输出,这其中,AI生产出来的、那些让人们喜欢并愉悦的回复,会得到奖励。人类的反馈还可以帮助AI减少偏见或不恰当的反应。
在 ChatGPT 的开发过程中,OpenAI 为模型添加了额外的安全规则。它将拒绝回答某些敏感提示或提供有害信息。但这也提出了另一个问题:谁的价值观被编程到机器人中,包括允许谈论什么或不允许谈论什么?
这本质上是一个为AI赋权的问题,谁可以授予AI权力?凭什么?
在我们讨论权力问题的同时,AI学习技术的高歌猛进依然没有停止,OpenAI 一位未透露姓名的发言人称:
"
我们将一直免费提供ChatGPT的最新预览版供大家使用,这也方便AI从现实世界中获取足够多的反馈样本,我们会不断整合这些反馈和经验教训来完善ChatGPT。"
真相是------ChatGPT 不是成品。OpenAI 需要来自现实世界的数据。使用它的人是小白鼠。说穿了,所有使用ChatGPT 的人,都在免费为 OpenAI 工作。
是的,你没听错!
用人工智能"检举"人工智能
在讨论完ChatGPT如何被数据喂饱之后,我们最后来谈谈故事里最奇妙的一部分------
当越来越多的孩子选择AI作弊的大环境之下,能让他们「现形」的,竟然还是AI。
当不清楚 ChatGPT 是否参与了一个学生的论文写作时,其他人工智能工具可能会有所帮助。这些工具通常会被喂食足够多的其他人工智能文本,以练就一双火眼金睛。经过经年累月的训练之后,它们可以告诉你文本由人工智能撰写的可能性有多大。
一家名为 Originality.ai 的公司正在出售这样的产品,创始人 Jon Gillham 表示,在对基于 GPT-3 的模型编写的 10,000 个文本样本进行测试时,他们的「作弊检测工具」能将其中 94% 的文本正确标记为人工智能生成的。
"平均而言,它的置信度为 99%。"他补充道。
同时,OpenAI自己也在发起「自查软件」。
2023 年 1 月下旬,它们就发布了一款免费工具用于发现 AI 写作,OpenAI甚至正在努力为自家"产出"的人工智能文本添加水印,这很像是给所有AI生成的文本,配置一个可识别的指纹。
具体如何操作?
某位不肯提供姓名的专家给出了可能方案:
每当AI生成文本时,人工智能都会为每个位置排列许多不同的「可能单词」。如果AI在这些位置上,始终选择排名第三的单词而不是排名第一的单词,那么这个被AI选中的单词就可能成为一个「指纹」。
这背后的逻辑似乎是:在表达时,人类所使用的「语词的丰富性」,是不可预知的------这点AI无法模拟。
无论如何,在不远的将来,当AI正式成为学术工具(事实上它可能已经是了),规范使用与猫追老鼠的游戏,恐怕将长久存在。