值得信赖的人工智能工具

经开发出一种新工具来抓捕使用 ChatGPT 作弊的学生。它的有效性高达 99.9%。但 OpenAI 尚未发布它,因为它陷入了道德问题。

这只是人工智能面临的主要挑战之一。我们如何监控这项技术,以确保其使用合乎道德?

过去几年,人工智能领域的大佬们一直在推动以负责任的方式使用他们的技术。合乎道德地使用人工智能不仅是企业应该做的事情,也是消费者想要的。事实上,根据IBM 全球人工智能采用指数, 86% 的企业认为客户更喜欢遵守道德准则并清楚如何使用数据和人工智能模型的公司。

IBM 可信 AI 全球负责人 Phaedra Boinodiris 表示:"我们完全不希望公司意识到 [以合乎道德的方式使用 AI]。更大的问题是,为什么企业和其他组织必须对其部署的 AI 的安全和负责任的结果负责?"

人工智能伦理工具能起到作用吗?这些工具本身有偏见吗?下面让我们快速回顾一下最新研究。

Deepfake 检测器

从 2022 年到 2023 年, Deepfake 欺诈行为增加了 3000%,而且越来越复杂。今年 2 月,香港一家跨国公司的一名财务人员被骗向犯罪分子支付了 2500 万美元,犯罪分子创建了一个视频电话会议,其中包括该公司首席财务官在内的多个 Deepfake 角色。

今年 5 月,OpenAI 宣布已向虚假信息研究人员发布了自己的深度伪造检测工具。该工具能够识别 DALL-E 3 创建的 98.8% 的图像。OpenAI 还与谷歌、Adobe 等公司一起加入了内容来源和真实性联盟 ( C2PA ) 指导委员会,该行业联盟正在制定一项认证媒体内容历史和来源的标准。

在制定该标准之前,企业正在构建他们希望能填补空白的工具。今年 8 月,迈克菲发布了McAfee Deepfake Detector。该工具使用深度神经网络模型来识别浏览器中播放的视频中的假 AI 音频。2022 年,英特尔推出了FakeCatcher,它可以分析视频像素中的血流,以 96% 的准确率将人类与深度伪造作品区分开来。而且他们并不孤单。该领域著名的初创公司包括纽约的Reality Defender、以色列初创公司Clarity和爱沙尼亚的Sentinel,它们都提供了使用 AI 来识别各种深度伪造作品中的模式的扫描工具。

随着深度伪造检测技术的发展如此迅速,重要的是要牢记潜在的算法偏差。布法罗大学的计算机科学家和深度伪造专家 Siwei Lyu 和他的团队开发了他们认为是第一个旨在最大程度减少偏差的深度伪造检测算法。布法罗大学的研究人员将数百张在检测算法中被识别为假的面孔制作成照片拼贴画;结果显示整体肤色较深。

"深度伪造可能会被用来攻击代表性不足的少数群体,因此确保检测技术不会对他们服务不足非常重要,"吕说。至于深度伪造检测的未来?"深度伪造背后的生成式人工智能技术无疑将继续发展,因此我们将看到深度伪造的数量、质量和形式不断增加。我预计未来的[检测]技术将配备更多护栏,以减少滥用的可能性。"

反面部识别 (AFR) 技术

面部识别系统正变得越来越普遍,成为一种方便的用户身份验证方式------但这些系统长期以来一直充满道德问题,从种族偏见到数据隐私。人工智能伦理智库 Artificiality 的联合创始人 Helen Edwards 指出,让问题更加复杂的是,"一些偏见 [也] 是相互交叉的,会加剧多层偏见。"

今年 5 月,澳大利亚人脸识别初创公司Outabox 的数据遭到泄露,超过一百万用户的生物特征数据被泄露。今年早些时候,针对 Android 和 iOS 设备的木马" GoldPickAxe "被发现会捕获人脸数据以入侵银行账户。

保护面部生物特征数据的一种有效方法是,以一种人眼无法察觉但能混淆识别系统的方式对其进行打乱。芝加哥大学开发的项目 Fawkes 是首批实现这一目标的工具之一。该程序以盖伊·福克斯面具命名,旨在通过巧妙改变像素来隐藏照片;该程序可在项目网站上免费下载。

最近,浙江大学 USSLAB 的研究人员率先推出了 CamPro,旨在实现摄像头传感器级别的 AFR。CamPro 生成的图像可将面部识别率降低至 0.3%,而不会干扰活动识别等其他应用。

AI 书写检测器

识别人工智能生成的作文仍然是企业和教育机构面临的难题。在雷丁大学的盲测中,五个不同的心理学模块将 ChatGPT 编写的考试与真实学生编写的考试混合在一起。6 月份的研究发现,94% 的 ChatGPT 考试答案没有被评分人员发现。人工智能生成的考试平均分数也比学生考试高出半个等级。

为了解决这个问题,市场上涌现出各种人工智能写作检测器,它们寻找人工智能生成文本的共同特征,例如重复和完美的语法。但专家警告称,它们还不可靠,而且经常表现出偏见。

去年,斯坦福大学的一项研究发现,人工智能检测器平均有 61.3% 的时间会错误地标记非英语母语人士的写作,但在评估英语母语人士的写作时,错误率要低得多。

人类将人工智能生成的文字冒充为自己的作品不仅是不诚实的,有时也是剽窃,可能会带来严重的法律后果。出于这种担忧,一些公司正在使用人工智能写作检测器来测试其作者的文案。这导致公司错误地指控作者将人工智能生成的文字冒充为自己的作品,损害了作者的声誉和职业生涯。

LLM 偏见检测器

数据集通常包含创建者的无意识偏见。这就是为什么算法偏见在基于这些数据进行训练的法学硕士课程中一直存在的问题。

在一个例子中,康奈尔大学的研究人员使用 ChatGPT 和 Alpaca 为男性和女性生成推荐信;这些信件显示出明显的偏向男性的偏见。生成的语言如"凯莉是个热情的人"和"约瑟夫是个榜样"表明了这些偏见如何影响职场女性。

研究人员正在努力寻找标记和减轻偏见的方法。伊利诺伊大学香槟分校的一个团队开发了QuaCer-B,它为从给定分布中采样的提示生成可证明的 LLM 偏见度量,可用于 API 和开源 LLM。

"人工智能行业目前依赖于通过在一小部分基准输入上测试模型来评估其模型的安全性和可信度,"UIUC 教授 Gagandeep Singh 表示,他是 QuaCer-B 的首席研究员之一。"然而,在基准输入上安全生成并不能保证 LLM 生成的内容在处理现实世界中各种未见过的场景时符合道德规范。QuaCer-B 使 LLM 开发人员能够就其模型是否适合实际部署做出明智的决定,并找出失败的原因以改进模型。"

随着人工智能的不断发展,新的道德问题也将随之不断出现。虽然标记、监控和防止不道德使用技术的工具是一个开始,但人工智能伦理专家并不认为它们是一站式解决方案。

"最难的部分是没有买到合适的工具,"Boinodiris 补充道。"负责任地管理人工智能是一项社会技术挑战,需要采取整体方法。而人是这个等式中最难的部分。"

"除了周到的监管和执法之外,道德 AI 的关键在于上市后审计、持续监控性能和将风险降至最低,"联合国和欧盟应用伦理和负责任 AI 顾问、Eticas.ai 创始人 Gemma Galdón-Clavell 解释道。"想想汽车行业:警示灯和接近传感器可以帮助驾驶员避免碰撞,但我们仍然需要安全带、安全气囊和定期检查,以确保公路尽可能安全。"

相关推荐
sp_fyf_202420 分钟前
机器学习-点击率预估-论文速读-20240916
人工智能·机器学习
Java指南修炼26 分钟前
一个开源的大语言模型(LLM)服务工具,支持Llama 3.1、Phi 3、Mistral、Gemma 2 等, 87.4k star你必须拥有(附源码)
人工智能·后端·语言模型·开源·源码
蜡笔新小27 分钟前
Stable diffusion 学习过程
人工智能·学习·stable diffusion
qq_4350707828 分钟前
【机器学习】10——logistic的直观理解
人工智能·机器学习
可愛小吉1 小时前
Python 课程15-PyTorch
开发语言·人工智能·pytorch·python·机器学习
JustNow_Man1 小时前
李宏毅机器学习——机器学习基本概念
人工智能·机器学习
AI智东西1 小时前
150+个流行的Instagram标签(及如何找到并正确使用它们)
人工智能·ios·chatgpt·iphone
aWty_1 小时前
机器学习--AlexNet
人工智能·深度学习·机器学习
i嗑盐の小F2 小时前
【 ACM独立出版,见刊后1个月检索!!!】第二届通信网络与机器学习国际学术会议(CNML 2024,10月25-27)
网络·图像处理·人工智能·深度学习·算法·机器学习·计算机视觉
李yufei2 小时前
基于AlexNet实现猫狗大战
人工智能·计算机视觉