AI自动驾驶也“区分人种”?有色人种和儿童面临更高碰撞风险

8月27日消息,随着人工智能(AI)的快速发展,尤其是在自动驾驶汽车领域,这项技术给人类带来了巨大的便利。

然而,据最新的研究发现,自动驾驶汽车中的行人检测软件可能存在一些严重问题,这些问题对于不同肤色、性别和年龄的行人可能会有不同的识别效果,从而导致有色人种和儿童面临更高的安全风险。

这项由英国和中国的研究团队共同完成的研究,测试了八种流行的行人检测软件在不同情况下的准确性。研究发现,性别对于软件的识别效果影响较小,但肤色和年龄则存在明显的差异。

相比于浅肤色和成年人,深肤色和儿童被检测到的概率分别低了7.52%和19.67%。团队认为,这种偏见的出现与许多公司使用的开源AI系统中的偏见有关。这些开源AI系统是通过大量的数据训练出来的,但这些数据并不能完全代表真实世界中的多样性。

因此,当这些AI系统被应用于自动驾驶汽车时,就可能出现对某些群体不公平或歧视的情况。为了解决这一问题,研究团队呼吁立法者对自动驾驶汽车软件进行监管,以防止其检测系统出现偏见。他们建议监管机构要对这些AI系统进行全面的审查,确保其训练数据的多样性和代表性。

此外,开发者应该采取措施,让AI系统能够更好地适应各种肤色、性别和年龄的行人,以确保人们可以在自动驾驶汽车的发展中享有平等和安全的体验。这项研究的发现提醒我们,在人工智能技术不断进步的同时,我们也必须认识到其潜在的问题和风险。只有在确保技术的公平性和无偏见性的基础上,才能更好地应用人工智能,为人类带来更多的福祉和便利。

相关推荐
m0_6090004217 分钟前
向日葵好用吗?4款稳定的远程控制软件推荐。
运维·服务器·网络·人工智能·远程工作
小安运维日记1 小时前
Linux云计算 |【第四阶段】NOSQL-DAY1
linux·运维·redis·sql·云计算·nosql
开MINI的工科男1 小时前
深蓝学院-- 量产自动驾驶中的规划控制算法 小鹏
人工智能·机器学习·自动驾驶
AI大模型知识分享2 小时前
Prompt最佳实践|如何用参考文本让ChatGPT答案更精准?
人工智能·深度学习·机器学习·chatgpt·prompt·gpt-3
张人玉4 小时前
人工智能——猴子摘香蕉问题
人工智能
草莓屁屁我不吃4 小时前
Siri因ChatGPT-4o升级:我们的个人信息还安全吗?
人工智能·安全·chatgpt·chatgpt-4o
小言从不摸鱼4 小时前
【AI大模型】ChatGPT模型原理介绍(下)
人工智能·python·深度学习·机器学习·自然语言处理·chatgpt
AI科研视界5 小时前
ChatGPT+2:修订初始AI安全性和超级智能假设
人工智能·chatgpt
霍格沃兹测试开发学社测试人社区5 小时前
人工智能 | 基于ChatGPT开发人工智能服务平台
软件测试·人工智能·测试开发·chatgpt
小R资源5 小时前
3款免费的GPT类工具
人工智能·gpt·chatgpt·ai作画·ai模型·国内免费