
摘要
本章探讨了GenAI的社会影响,强调了技能差距以及公民和劳动力对AI素养的需求。它讨论了数字公共领域和人工智能与环境问题的交叉点,以及媒体中的Gen AI及其发展的整体感知,公共话语和叙事。本章还讨论了人工智能系统中的儿童权利和性别偏见问题,以及产生虚假或误导性内容的可能性。GenAI政策分析的行为方法被提出作为应对隐私和数据保护挑战的一种手段。本章提出了一些关键问题,即如何确保包容性和道德的人工智能应用符合社会价值观。
文章目录
- 摘要
- 4.1公民和劳动力的技能差距和人工智能素养
- [4.2 GenAI和信息操纵](#4.2 GenAI和信息操纵)
- 4.3媒体中的生成性AI描绘
- 4.4数字公地
- 4.5生成式AI的环境影响
- 4.6人工智能与儿童权利
- 4.7人工智能与心理健康
- 4.8性别--偏见和人工智能社会影响的具体案例
- 4.9行为方法对人工智能政策分析的贡献
- 4.10隐私和数据保护-社会观点
4.1公民和劳动力的技能差距和人工智能素养
关键信息
- 解决技能差距和提高劳动力的人工智能素养是一项复杂的挑战,需要包括企业、教育机构和政策制定者在内的多个利益相关者的协调努力。
- 通过采取全面的战略,重点是通过教育和终身学习从早期开始提高技能,重新培训和培养人工智能素养,社会可以帮助确保其劳动力和公民更好地准备利用GenAI的潜力。
技能差距和数字技能介绍
GenAI有可能为各个行业的劳动力格局带来实质性的转变(见第3.4节)。这一转变凸显了一个潜在的显著变化的技能差距,主要是在数字能力方面,随着GenAI技术的激增,这一差距变得越来越明显。虽然人工智能和GenAI复制某些人类技能的倾向将导致技能转移,但它们的广泛传播预计将创造对与人工智能系统开发和维护相关的数字和数据科学技能的日益增长的需求,以及补充认知和横向技能,使工人能够使用GenAI系统并与之互动。灵活、敏捷、沿着领导才能和社会影响力是雇主所要求的技能。
这种技能差距不仅仅是理解如何使用GenAI工具,而是延伸到理解人工智能技术的更广泛影响,包括其自动化任务和增强人类能力的潜力,这解决了GenAI的经济影响。这里的重点是在社会和培训层面采取必要的应对措施,使工人和一般公民具备必要的技能。
数字技能仍然是欧盟政策议程的重点,现有证据支持需要持续不断的努力。数字十年政策计划的目标是到2030年,至少80%的15-74岁人口应至少拥有基本数字技能。欧盟还制定了一个目标152,即到2030年,在计算机和信息素养方面表现不佳的学生比例应低于15%。153 2023年,理事会通过了一项关于改善教育和培训中提供数字技能和能力的建议,154认识到在各级教育和培训中促进高质量的包容性和一致性方法的重要性。
2024-2029年欧盟委员会继续高度重视技能(包括数字技能),例如通过其总体技能联盟。即将出台的欧洲职业教育和培训战略。156《欧洲竞争力的未来》报告157强调,解决所有阶段的技能差距对欧洲的长期成功至关重要,需要加大教育、培训和终身学习的力度。它警告说,虽然包括人工智能在内的技术对保护欧洲的社会模式至关重要,但如果不对教育和技能发展进行大力投资,它可能会加剧不平等。欧盟竞争力指南针158通过应用人工智能战略解决了人工智能领域的这一需求,而最近发布的人工智能大陆行动计划强调了通过进一步发展人工智能教育,培训和研究的卓越来加强人工智能技能的必要性,包括基本的人工智能素养。
包括《人工智能法》159、《网络安全法》160和《数字服务法》161在内的数字立法对公民的权利和责任意识以及对数字技术的伦理和社会影响的理解都有影响。《人工智能法》第4条要求人工智能系统的提供者和部署者确保其工作人员和代表其处理人工智能系统的其他人员具备足够的人工智能素养。为此,提供商和部署者应考虑员工的技术知识,经验,教育和培训以及人工智能系统的使用环境,包括此类人工智能系统的目标人群.
人工智能素养越来越被认为是劳动力发展的关键组成部分,也是雇主要求的越来越多的技能之一。随着人工智能系统越来越多地融入工作场所流程,发展人工智能素养对于帮助员工做出明智的决策并负责任和有效地使用人工智能至关重要。
人工智能素养的重要性不应被视为一项独立的技能,而应被嵌入到更广泛的数字能力背景中(见下一段关于DigComp 3.0的内容)。通过培养一支了解人工智能的员工队伍,企业可以提高生产力和创新能力,同时降低与人工智能采用相关的风险。
数字能力框架3.0
欧洲公民数字能力框架,通常称为DigComp,164旨在通过提供一种结构化的方法来提高公民的数字能力,从而解决数字技能差距。即将到来的DigComp 3.0迭代将于2025年底发布,将进一步整合人工智能相关能力,反映公民需要以道德和有效的方式理解人工智能系统并与之互动。该框架是支持关键数字技能发展的核心,这些技能是导航和受益于不断变化的数字环境所必需的。包括GenAI在内的人工智能的系统和横向整合将被纳入DigComp 3.0框架的所有五个能力领域,重点是概念理解,道德和社会影响。重点是鼓励对人工智能系统及其输出进行批判性、反思性和平衡性的使用。这一整合将与其他关键举措保持一致,例如《人工智能法案》和即将由欧盟委员会和经合组织共同制定的中小学人工智能扫盲框架(见第6.2节)。
- 公民网络安全:人们越来越关注公民网络安全,包括人工智能系统在网络攻击和网络安全中的作用。这体现在21项能力中的三项:管理数字身份、保护设备以及保护个人数据和隐私。
- 权利、选择和责任:参与数字公民身份的能力将得到扩展,包括更明确地提及消费者权利、选择、积极参与和影响。这包括对最近的数字立法(如《数字服务法》和《人工智能法》)的认识和权利主张。
- 错误信息、虚假信息和对民主的威胁:评估数字内容的能力侧重于处理错误信息和虚假信息,认识到GenAI的作用以及数字信息传播的潜在速度。这包括识别有偏见的来源,事实核查,标记和报告错误信息和虚假信息。
- 孪生子转变:保护环境的能力包括考虑最近的技术和趋势,如GenAI和社交媒体,是资源密集型的,以及个人实践在减轻这种影响方面的作用。
总体而言,更新后的DigComp 3.0框架强调了数字时代数字素养、批判性思维和负责任行为的重要性,重点关注人工智能和GenAI等新兴技术的社会影响。
关于AI的学术报价
欧盟强调了发展数字技术人口和劳动力以保持在数字经济中的竞争力的重要性。如上所述,包括数字十年政策计划和人工智能大陆行动计划在内的多项政策举措旨在加强劳动力的人工智能能力。人工智能大陆行动计划建议支持增加欧盟关键技术的学士和硕士学位以及博士课程,以扩大人工智能专家的数量。高等教育机构在塑造未来的劳动力方面发挥着关键作用,其学术课程为定义未来人力资本的技能提供了宝贵的见解。因此,监测学术方案的趋势对于了解教育系统如何应对新兴技术发展至关重要。通过使用文本挖掘,捕捉课程教学大纲中包含的先进数字技术,并利用StudyPortals的数据,JRC监测英语授课的硕士课程、学士课程和短期专业课程的可用性,并研究其特点。尤其与预测技能发展相关,因为它们代表进入劳动力市场之前的最后学术阶段。

图13显示按地理区域分列的方案数目趋势。在2020-2024年期间,重点是与人工智能相关的方案。在2024- 2025年,范围扩大到包括明确解决GenAI的方案,因为这些数据在早些年是不可用的。最新的一组结果证实了欧盟和英国提供的人工智能硕士学位数量的持续增加,并补充了包括GenAI在内的额外学位数量。美国在2024- 2025年表现出明显的下降,这只能通过考虑GenAI来抵消,这表明战略转向用GenAI产品取代传统的人工智能项目。图13(右)显示了渗透率-AI(和GenAI)硕士学位相对于地理区域提供的硕士学位总数的比例-反映了AI在所有学术课程中的相对重要性。该图突出了欧盟在2020-21年至2024-25年期间在学术课程中采用人工智能方面的强大和持续领导地位。与英国和美国相比,欧盟的渗透率一直明显较高。有趣的是,与传统的人工智能课程相比,纳入GenAI相关硕士学位导致渗透率增加了0.4个百分点,凸显了这一新兴领域引起的兴趣增加。
提高技能和培训的战略
- 工作场所培训计划:组织越来越多地实施以GenAI和数字技能为重点的内部培训计划。这些计划通常包括研讨会、在线课程和实践项目,让员工获得使用人工智能工具的实践经验。这些举措对于保持现有劳动力的竞争力和适应技术变化的能力以及了解剩余的能力建设需求至关重要(见AI授权的JRC框)。此外,该委员会还创建了一个人工智能知识库,收集提供和部署人工智能系统的组织的做法169,以支持实施《人工智能法》第4条。
作为欧盟委员会的内部科学服务机构,JRC发起了一项旨在探索人工智能在工作场所潜力的倡议。75%的员工使用GPT@JRC(内部安全平台,供员工访问和试验大型语言模型)等人工智能工具,该组织旨在提高员工的技能,以充分利用人工智能的潜力。"人工智能增强JRC"项目旨在支持员工有效使用人工智能工具,解决对局限性和风险的担忧,并开发使用人工智能系统所需的技能。作为该计划的一部分,JRC专注于技能提升和培训,特别是对管理人员的培训,以确保人工智能以提高生产力和效率的方式融入日常任务。作为科学和政策界面的具体应用的一个例子,部署由GenAI和agentic AI驱动的"AI研究助理"的实验正在进行中。该项目的方法强调实验、协作和相互学习,并可能为其他希望在自己的工作场所采用人工智能的组织提供有用的见解和最佳实践。有目的地使用生成式AI特别受到关注。
- 与教育机构的合作伙伴关系:企业、公共部门组织和教育机构之间的合作可以促进符合行业需求的课程开发。这在强调企业和组织的培训需求阶段也很重要。高等教育机构和技术学校可以提供人工智能素养方面的专业课程和认证,确保毕业生进入劳动力市场时具备在GenAI驱动的环境中茁壮成长所需的技能。
- 政策支持的举措:政策制定者在通过旨在提高人工智能素养的公共举措支持劳动力方面发挥着至关重要的作用。政策计划可以为培训计划提供资金,为公司投资于员工发展创造激励措施,并建立数字扫盲的国家标准。
教育机构和决策者的作用
教育机构站在弥合技能差距的最前沿。通过将人工智能素养融入课程,各级教育和培训机构可以为学生做好准备,迎接人工智能无处不在的未来。这不仅包括教授技术技能,还包括培养批判性思维和解决问题的能力,这在人工智能驱动的世界中至关重要。
另一方面,决策者必须创造一个支持终身学习和持续技能发展的有利环境。这涉及制定政策,鼓励教育创新,支持数字基础设施的发展,并促进各阶层人口公平获得学习机会。
弥补差距
为了解决技能差距,必须采取多方面的办法,包括正规教育和培训,以及提高技能和再培训举措。提升技能指的是提高现有技能以满足新技术的需求,而再技能指的是培训工人掌握与当前就业市场相关的全新技能。一项针对2,307名GenAI决策者的研究显示,三分之二的受访者承认他们的员工不具备与GenAI合作的技能。大约一半的人正在计划员工教育和培训,以增加GenAI的采用。
4.2 GenAI和信息操纵
关键信息:
- 生成式人工智能模型正在彻底改变内容创建,使其非常容易快速和大规模地生成高度令人信服的操作内容。这种能力可以用来主导社交媒体讨论,模仿权威新闻媒体,并创建逼真的图像,视频和音频。错误/虚假信息的可能性是巨大的,因为人工智能生成的内容可以用来误导公众,削弱对媒体的信任,并扭曲整体信息格局。这种操纵可能产生深远的影响,包括改变选举结果,影响政治进程,以及改变公众对气候变化等关键问题的支持。通过用误导性信息充斥数字空间,生成式人工智能可以显著扭曲公众的感知和决策。
- 错误/虚假信息的快速生成往往超过了有效反驳的能力,因为制定准确和可验证的回应需要时间。这种差异意味着,即使是出于善意使用人工智能进行交流,也可能与虚假的浪潮作斗争。为了保持对基于事实的可信通信的承诺,以维护信息的完整性,面对人工智能生成的错误/虚假信息,这往往是一场艰苦的战斗。
- 虽然对AI生成的内容进行水印处理和使用可信来源验证信息等技术解决方案很有价值,但它们本身还不够。对错误/虚假信息的最有效防御在于促进公民(包括政策制定者)的媒体和人工智能素养。通过让个人具备批判性地参与人工智能生成内容的技能,他们可以更好地识别虚假或不准确的信息。教育公众质疑和分析他们遇到的内容,使他们能够做出明智的决定,抵制操纵。这种基础方法与技术措施相结合,对于保持一个信息灵通的社会,以应对生成式人工智能带来的挑战至关重要。
错误/虚假信息的各个方面出现在本报告的许多章节中,但在研究GenAI的影响以及如何使用它来创建或打击虚假或误导性内容时,这个主题也值得专门考虑。
当人工智能用于生成甚至总结内容时,无意的偏见已经引入了误导性内容的风险(另见第4.8节)。例如,使用生成式人工智能来获取信息,答案可能会根据人工智能训练的数据集严重偏差。当人工智能被有意用于操纵信息时,GenAI的使用会带来前所未有的挑战,因为它能够大规模、快速地创建音频和视频内容的深度伪造,从而扭曲媒体的完整性。独立于内容创建,GenAI还可以用于大规模的系统性数据中毒,例如污染免费和开放的知识库(另见第2.2节)或扩大在线新闻和社交媒体的传播。例如,人工智能模型中的偏见会显著影响人们对气候变化的态度。全世界对气候变化态度的改变可能对全球排放产生复合影响,使排放量大幅增加或减少。推荐人工智能系统可以传播GenAI生成的虚假信息和耸人听闻的内容,加剧气候变化的两极分化。
一直在密切监测以GenAI为基础的针对选举进程的影响行动。研究表明,随着GenAI能力的提高,人工生成的内容显著增加,揭示了外国信息操纵和干扰(FIMI)的企图。应用基于人工智能的模仿技术的一个值得注意的干扰是"Doppelganger"活动,该活动包括使用合法网站的假克隆-无论是来自媒体组织还是公共机构。
特别是在社交媒体方面,GenAI机器人助长了误导性叙述和操纵信息的传播,经常增加负面情绪来扰乱公共话语,激怒目标社区并促进激进化(另见第4.3节)。
解决由操纵信息引起的问题需要政策制定者和公民的人工智能素养,以确保他们能够批判性地参与人工智能生成的内容,并识别虚假或操纵信息,包括深度伪造(另见第4.1节)。此外,关于政治广告的透明度和针对性的法规有具体的义务确保使用人工智能定位或提供政治广告的透明度,欧盟委员会和欧洲数字服务委员会在DSA的背景下通过了专门的虚假信息行为准则沿着选举相关风险的指导方针(另见第5.2节)。它代表了整个欧盟为解决上述问题所作的努力。
与此同时,应该强调的是,GenAI还可以帮助打击信息操纵及其传播(另见第6.4节,深入了解GenAI和网络安全)。机会包括使用GenAI进行明确和有针对性的沟通,事实检查,识别AI生成的内容等等。
4.3媒体中的生成性AI描绘
关键信息:
- 媒体对GenAI的描述往往两极分化,乌托邦式的愿景强调其变革潜力,反乌托邦式的担忧则警告道德影响、就业岗位流失和隐私问题。这种双重叙事塑造了公共话语,并可能影响全球的政策观念。
- 自二零二二年年底以来,媒体对GenAI的报道显著增加,尤其是在ChatGPT公开发布后。随后,报告高峰出现在一些关键事件之后,例如新的GenAI模型的发布,它们被整合到商业产品中,以及众多利益相关者的政治监管行动,包括欧盟委员会的积极参与。
- 对新闻文章的分析表明,媒体传达了国际治理对管理GenAI和减轻相关风险的高度相关性。
了解媒体对GenAI的描述对于理解其对社会和经济的作用和影响至关重要。在线媒体新闻文章中对GenAI的看法往往是在一系列叙述中形成的,大多描绘了极端的场景。一方面,乌托邦式的愿景强调了GenAI的变革潜力,表明它可以彻底改变行业,增强创造力,解决复杂的全球挑战,带来前所未有的创新和繁荣。另一方面,反乌托邦的担忧也很普遍,有文章警告说,人工智能的崛起可能会带来道德影响、工作岗位流失以及隐私和安全的侵蚀。关于GenAI恐惧的猜测引发了争论,一些人设想机器超越人类智能的未来,提出了关于控制、自主甚至可能导致人类灭绝的存在问题。与此同时,GenAI作为现代日常生活中不可或缺的一部分越来越明显,因为它已经嵌入到日常活动中,引发了关于依赖性和人类能力重塑的讨论。

图14显示了主流和未经验证的来源,即独立事实检查员指出的经常传播错误/虚假信息的来源,如何根据报告趋势和峰值覆盖GenAI,以及影响全球政策和公众看法的与GenAI有关的叙述。179分析显示,主流媒体和未经证实的消息来源围绕主要的GenAI相关事件。然而,未经证实的消息来源往往歪曲信息,曲解真实的事件和声明。与GenAI相关的主要报告主题是通过评估每月基于文章句子的语义相似性主题计算的关键集群来确定的,包括技术和企业发展,监管和道德考虑,经济和工业影响,全球竞争和合作,以及文化和社会影响。这些主题在主流媒体和未经证实的来源的文章的检查数据集中都存在。
然而,后者的文章将读者的注意力集中在每个主题的不同视角上。
与生成式AI相关的新闻文章中的框架维度
对与GenAI相关的媒体报道的检查通过分析文章中检测到的框架提供了额外的见解。这些框架维度对应于主要主题背景下提到的具体方面,从而揭示了问题或新闻报道的视角。图15比较了主流媒体和未经核实来源的新闻文章中检测到的框架维度,按来源类型进行颜色编码,包括经济、政策规定和评价、健康和安全、能力和资源、政治问题、安全和国防、犯罪和惩罚、舆论、道德、立法、公平和平等、监管和文化认同。该图显示了主流来源和未经核实的来源之间的差异,以及来自欧盟成员国来源和全球报告的文章之间的差异。我们定量分析了框架维度及其在主流媒体和未经证实的来源之间的分布。框架维度被分配给超过75%的文章,从主流和未经验证的来源在整个观察期间。

虽然经济和政策处方和评估框架在主流和未经证实的来源中普遍存在,但主流媒体在这些框架中所占的比例更高。经济框架之所以突出,是因为大量新闻文章强调了GenAI的变革性影响。这不仅是技术领域的革命,也重塑了其他行业,刺激了重大投资,加剧了竞争。欧盟主流媒体特别强调了政策规定和评估框架,解决了规范人工智能和GenAI技术开发和部署的政策需求和呼吁,确保道德标准并减轻潜在风险。这两种媒体类型经常使用健康和安全以及能力和资源框架。这些新闻提供了技术进步如何对医疗保健产生积极影响的实例,但也引起了人们对公众风险增加的担忧,如就业保障。此外,快速发展需要大量的财政资源和能力来运行人工智能系统。
生成式人工智能相关新闻文章的情感分析
此外,将预先训练的机器学习模型应用于新闻文章进行情感分析,以识别这些文章中表达的情感。图16显示了主流媒体和未经证实的消息来源之间新闻报道的情绪演变(积极,中立,消极)。

主流媒体有关GenAI的文章的主要观点是积极的,在整个观察期内普遍存在。下一个突出的观点是中立的。来自主流媒体的新闻报道中,大约有30%是负面的,这反映了人们对人工智能技术可能带来的风险的担忧。
大多数积极的头条新闻都涉及经济增长和多个行业的相关机会,其中包括对初创企业的重大进步和重大投资,这些企业专注于与进步相关的关键活动,如技术,医疗保健和可持续性。媒体还积极报道了在国际比赛中获得奖项和认可的初创企业。相比之下,负面影响的头条新闻是指初创企业和科技公司在各个行业面临重大挑战,包括破产,以及缺乏对在各个领域应用GenAI的初创企业的投资,游说有利的法规和政府更多的支持来解决这些问题。这些负面的头条新闻也抓住了新技术的威胁和风险,并带有负面情绪。
对未经证实来源的文章进行的情绪分析显示,中性情绪占主导地位,紧随其后的是积极和消极的情绪。未经证实的消息来源容易传播误导性的叙述和虚假信息,往往给GenAI带来耸人听闻和危言耸听的情绪。一方面,积极情绪的头条新闻夸大了GenAI的能力,将其描绘成一种能够解决所有社会问题的近乎神奇的技术,而另一方面,负面的头条新闻则引发了灾难性的反乌托邦。这些文章利用了对未知的恐惧,暗示GenAI可能很快取代人类决策,甚至取代人类本身。未经证实的消息来源往往淡化现有的挑战和道德考虑,过度简化复杂的辩论,以适应更戏剧性的叙述。通过关注极端情况,往往忽视专家意见,他们促成了一种两极分化的话语,其中GenAI的潜在好处要么被夸大,要么被夸大的风险所超越。
总体而言,分析表明,媒体传达了国际治理对管理生成性人工智能和减轻相关风险的高度相关性。本节与决策者相关,因为它强调了采取行动的必要性。结果表明,将各种文本挖掘技术应用于与此主题相关的媒体文章,可以为一般的GenAI话语提供重要的见解,并可以突出报道基调的趋势。媒体分析师、传播专家和决策者对此特别感兴趣。
根据对不同媒体如何表述问题的理解,所述方法可用于为对外传播战略提供信息。它们还可以用来评估欧盟机构对外交流的影响,观察媒体围绕与GenAI有关的具体问题的言论是否受到影响。
4.4数字公地
关键信息:
- 数字公共空间是人工智能训练数据集的关键要素,其命运与人工智能技术的发展密切相关。
- 随着人工智能的不断发展,保护和支持数字公共资源以确保两者的长期健康和多样性至关重要,因为保护数字公共资源对于公平和先进的人工智能至关重要。
数字共享是指在线内容和资源--如代码、软件、图像、文本和其他形式的知识--在自由和开放的许可下共享,因此任何人都可以通过互联网连接访问。它们是公共公园或图书馆等公共产品和公共空间的在线等价物,例如,包括各种在线百科全书和维基、开源软件库、数字化文化遗产档案、公开许可的艺术和媒体收藏,以及人们记录和寻求问题答案的在线论坛。数字公共资源包括大量的代码、知识和文化内容,这些内容是独一无二的,因为它们是多样的、合作的、免费的。这并没有逃过人工智能开发人员的眼睛,今天,属于数字公共的内容构成了几乎所有人工智能训练数据集的关键元素。因此,数字共享和人工智能技术的命运是否紧密交织在一起并不是一个问题,而是如何以及产生什么影响。虽然数字公共资源通常被认为是非竞争性的-这意味着它们的价值和可用性不会因过度使用而降低-但众所周知,它们受到污染,供应不足和缺乏可找到性等问题的威胁。
机遇
从积极的方面来看,GenAI可以提供新的能力来搜索和导航开放数据库,帮助事实核查和改进共享知识库中的元数据,并协助翻译知识和信息,从而提高属于数字共享内容的可查找性、可访问性和质量。重要的是要强调,人工智能的这种使用对于数字公共领域来说并不新鲜,该领域长期以来一直依赖机器学习来管理和开发开放数据集。在这些实践的基础上,与数字共享相关的知识也可以反馈到改善当前人工智能实践中并发挥重要作用-特别是在收集和管理高质量人工智能培训数据集方面。例如,基于同意和完全透明,公共传播等项目正在通过使用来自公共领域和公共领域的内容来重新构想当前的人工智能培训实践,以开发完全基于开放和批准原则的人工智能模型,182展示了商业人工智能培训实践的激进替代方案,这些培训实践通常基于封闭的,可能侵犯版权所有者权利的未经同意的数据集。凭借数十年来在策划文本和图像数据库以解决有关偏见,歧视和文化差距问题方面的经验,来自数字公共领域(包括档案馆,博物馆和图书馆)的专家也可以在使人工智能培训数据集,模型和系统更加公平,更加多样化,协作和包容方面发挥重要作用。
风险和挑战
GenAI的使用可能会对数字共享产生负面影响,包括:
- 自由和开放知识的封闭和私有化:防止数据抓取的限制性措施可能会无意中限制对公共利益档案在线数据的访问。
- 自愿贡献减少:由于人们依赖封闭的聊天机器人服务,他们可能不太可能为共享知识数据库做出贡献。
- 自由和开放知识库的污染:人工智能生成的带有错误、幻觉和虚假信息的数据可能会进入维基百科等数据库,186需要昂贵的事实检查和更正。
- 数字公共组织的财务压力:向人工智能网络爬虫提供开放数据会带来巨大的基础设施成本(与人类用户相比,超过一半的网站流量来自自动爬虫),回报很少,并可能导致托管开源内容的组织的财务负担。
这些风险最终可能会限制共享知识的获取和扩展,并给托管属于数字共享内容的组织带来巨大的经济负担。
未来前景
数字公共空间的未来是不确定的,取决于它所获得的支持水平。有两种可能的情况:
最好的情况是:
- 在公共机构和商业人工智能开发人员的财政和基础设施支持下,数字公共领域继续蓬勃发展。
- 数字公共领域仍然是一个多样化的高质量信息来源,促进文化平衡的人工智能模型和全球获取知识,信息和文化历史。
- 生成式人工智能技术为世界各地的社区提供创造性支持,从而促进新内容的生产,使公共资源增长。托管属于公共资源的内容的组织也成功地采用了这些标准,使信息管理更加有效和方便。
最坏的情况:
- 由于污染和缺乏新的数据,数字共享正在恶化,成为一个不值得信赖的文化和信息来源。
- 它们逐渐消失,减少了创造和管理知识的治理模式的多样性。
- 这将威胁到全球对自由开放的文化、历史和知识的获取,并通过依赖低质量或过时的数据来损害人工智能的发展。
虽然GenAI有可能丰富文化习俗并支持自由和开放的知识和信息库,但有必要反思它可能带来的潜在负面影响。重要的是,在GenAI时代保护数字公共资源不仅仅是确保地球仪公民开放、多样化和分散地获取高质量信息的问题,而是确保开发更公平、更多样化、因此也更先进和有用的人工智能技术的问题。
4.5生成式AI的环境影响
关键信息:
- 人工智能对环境的直接影响是相当大的,这可能会带来问题,特别是如果数据中心部署在缺水地区,组件的回收是一个问题。
- 强制跟踪能源消耗、在水资源丰富的地区更好地规划数据中心以及回收计划等具体措施可能有助于减少人工智能对环境的影响。
- 欧盟一直在努力应对气候变化,并将环境保护纳入政策。值得注意的是,欧盟推出了多项措施来应对数据中心的影响,包括能源效率指令及其可持续性评级以及能源标签和生态设计指令,并正在准备即将出台的云和人工智能发展法案,重点关注可持续数据中心。《欧盟人工智能法案》包括关于人工智能模型和系统透明度、遵守业务守则和信息披露的环境条款。
- 人工智能领域的新兴技术,如节能晶体管、神经形态芯片和专用边缘人工智能芯片,正在实现设备上的智能并降低能耗,但要充分发挥其可持续实时应用的潜力,还必须应对挑战。
人工智能对环境的直接影响
越来越多地使用人工智能模型,特别是GenAI和LLM,对环境有重大影响,预计这一影响还会增加。这些模型需要大量的计算资源,导致高能耗,水的使用和矿物开采。根据不同的估计,预计到2027年,美国的5,000个数据中心和欧洲的2000个数据中心的电力需求将增加50%,到2030年将增加103%至165%。
根据保守估计,数据中心的能源需求由二零一零年的194太瓦时增加至二零一八年的204太瓦时。根据JRC最近的估计,欧盟的数据中心在2022年的用电量估计为45-65 TWh。(占欧盟总用电量的1.8-2.6%),而电信网络的用电量估计为25-30 TWh(占欧盟总用电量的1- 1.2%) IEA估计,2024年,数据中心消耗了约1.5%的电力消耗。虽然确定人工智能在能源消耗中的确切份额具有挑战性,据估计,它目前占数据中心能源消耗的14%,预计到2027年将上升到27%。
AI基础设施的环境影响包括:
- 能源消耗:培训和运行模型的高电力需求会导致温室气体排放,特别是在可再生能源比例较低的情况下。不同的估计率,全球人工智能基础设施的能源需求将达到1%至1.5%之间196这导致人工智能公司投资核能和天然气发电。应当指出,由于若干原因,上述数字存在很大的不确定性。一方面,这些估计可能没有考虑到可能广泛采用的推理模型,如OpenAI的o 1,它以增加计算资源需求为代价,产生更好的能力。另一方面,这些估计是在DeepSeek-R1发布之前做出的,这表明它有可能与OpenAI竞争一小部分能源消耗。与此同时,由于存在限制和瓶颈,例如人工智能芯片的可用性,设备的多年交货期以及电力可用性限制,观察到的能源消耗增长速度也可能反映不出实际需求。释放用于人工智能的每个数据中心的全部消费的义务可以帮助评估和减少总足迹。
- 水足迹:预计到2027年将有42 - 66亿立方米的取水量,这超过了英国一半的年取水量。更大的挑战是,其他可用的冷却机制效率较低,产生废热,并可能使用有害的冷却剂,如氟化气体。
- 矿产资源:为制造芯片而提取硅、铝、铜、锡、钽、锂、镓、锗、钯、钴和钨等原材料具有巨大的环境成本。202仅一吨材料就需要挖掘和加工数百吨矿石
- 电子废物:数据中心硬件的使用寿命较短,约为3.5年,204导致2020 - 2030年期间可能积累120 - 500万吨电子废物。
然而,人工智能模型还可以通过支持污染跟踪、天气监测和能源优化等应用来帮助缓解气候变化。206这些应用的影响仍有待量化,其潜力可能受到许多因素的阻碍,例如互操作性问题、技能严重短缺和数字基础设施的限制。值得注意的是,数据中心往往在空间上高度集中,由于其电力和水的大量消耗,这对当地水库和输电网构成了重大挑战。例如,在爱尔兰,数据中心消耗了大约20%的计量电力供应。人工智能的局部环境影响可能会影响可耕地,加剧环境不平等。
数据中心的自愿计划和法规
数据中心能源消耗和环境足迹的负面环境后果已通过自愿计划成功解决,例如欧盟数据中心能源效率行为准则。该计划收集的数据显示,在过去15年中,参与公司的平均电力使用效率(PUE)从1.8下降到不到1.3。其他类似的举措表明,该行业正在积极致力于减轻其环境可持续性,并制定了实现碳中和或水资源积极性的雄心勃勃的目标。人工智能社区也呼吁更明智和可持续地使用人工智能。
监管机构最近也将数据中心的可持续性纳入其优先事项。2024年3月,欧盟委员会通过了关于欧盟数据中心共同评级计划的授权法案。该授权法案实施了重新制定的能源效率指令(EED),并详细说明了大型数据中心运营商(安装的信息技术的电力需求至少为500千瓦)必须定期向欧洲数据中心数据库提交的能源关键绩效指标(KPI)。
欧盟分类法规,特别是其气候授权法案,也涉及数据中心:《欧盟分类气候授权法案》第8.1节确实涉及经济活动"数据处理、托管和相关活动",并规定了技术筛选标准,以确定数据中心是否分别对减缓气候变化和适应气候变化做出了重大贡献。同时不会对其他环境目标造成重大损害。
新兴技术和突破性创新
由二硫化钼等材料制成的节能晶体管等新兴技术有望在智能手表等小型设备中进行人工智能处理,增强设备上的智能,同时减少对云计算的依赖。这可以大大降低AI驱动设备的能耗。
尖峰神经网络的开发是追求节能人工智能的另一项有前途的创新。通过模仿大脑的信号传递过程,SNN提供了事件驱动的处理,大大减少了空闲的能量消耗。这些进步对于边缘计算、物联网设备和移动的人工智能至关重要,因为这些领域的能源约束至关重要。214 215 216此外,神经形态芯片和光电神经元通过模拟类脑处理能力来优化能源效率,这对自主系统、医疗监控和可穿戴设备中的应用尤其有益。
用于边缘人工智能的新型专用芯片在本地设备上展示了更高的推理速度和能效,最大限度地减少了对数据中心的依赖。这些芯片使用二进制神经网络(BNN)和忆阻交叉阵列等技术,允许直接在设备上进行AI计算,降低智能城市,可穿戴设备和工业物联网应用的延迟和带宽要求。
随着GenAI使用的增加,诸如此类的半导体创新将成为实现其可持续和长期发展和吸收的关键。因此,政策制定者必须考虑采取措施,促进RDI、行业可扩展性、硬件标准化和供应链安全,确保实现真正的双重转变,让高能效技术满足日益增长的采用率和性能需求。
人工智能通过其社会影响对环境的影响
如第4.2节所述,有偏见的人工智能模型会影响人们的态度,也会影响气候变化。GenAI也可能是气候方面关键虚假信息的来源,由于幻觉、训练数据问题或强化学习阶段偏差,模型可能存在偏差。
如第5.1节所述,《人工智能法案》包括有关人工智能模型和系统透明度、遵守行为准则和信息披露的环境条款。环境要求适用于任何供应商,包括那些将GenAI推向欧洲市场的欧洲以外的供应商。虽然这一限制是欧洲立法的自然结果,但它限制了在全球范围内解决环境问题的能力。222 223与此同时,中国开发的模型正在变得具有竞争力,但它们也可能不符合欧洲人工智能规则,这些规则防止有关气候的偏见信息的传播或解决模型的直接环境影响。
为了应对这些挑战,欧盟一直在努力应对气候变化,并将环境保护纳入《欧盟基本权利宪章》等政策中。欧盟是开发人工智能技术的理想地区,具有强有力的环境保障。
人工智能时代的气候行动需要:
- 节能计算:推进半导体创新,促进边缘计算,以减少对能源密集型数据中心的总体依赖(见前一小节中的示例)。
- 数据中心的可再生能源:减少温室气体排放,并促进在水资源丰富的地区部署数据中心。
- 高效的数据中心:最大限度地减少能源和热量消耗以及电子废物,同时考虑潜在的反弹效应。透明和值得信赖的人工智能模型:鼓励公民选择提供可靠气候变化信息的模型。
- 国际合作:建立全球标准,以监测和最大限度地减少人工智能对环境的影响,同时考虑美国和中国等主要人工智能强国的政策的间接影响。
- 半导体中的可持续材料使用:确保负责任的原材料采购,促进半导体设计创新,以减少材料需求,并通过重复使用和回收提高循环性。
推广以欧盟为中心的绿色人工智能模型和系统,并制定国际标准,有助于确保人工智能的发展与环境保护和气候行动目标保持一致。在欧盟开发的最先进的人工智能是"设计上值得信赖"或"设计上符合要求",这是确保它们符合欧盟法规的一种方式。从长远来看,人工智能和气候的潜在战略包括推广以欧盟为中心的绿色人工智能模型和系统,以及制定国际标准来监测和最大限度地减少人工智能对环境的影响。
4.6人工智能与儿童权利
关键信息:
- GenAI为儿童权利带来了机遇和挑战。虽然它有可能提高教育,创造力,沟通和信息访问,但它也带来了重大风险,例如欺骗性操纵,基于人工智能的有害内容以及缺乏隐私和安全。
- 为了确保GenAI的开发和使用尊重儿童权利并促进他们的福祉,必须设计值得信赖的GenAI系统,优先考虑透明度和问责制,并投资于促进批判性思维和媒体素养技能的教育和培训计划。
- 儿童保障措施需要嵌入GenAI设计中,必须超越一般的隐私和道德框架,以解决儿童的特定脆弱性。在这种情况下,以权利为基础,年龄适当和包容性的方法对于确保所有儿童获得安全,赋权和公平的人工智能体验至关重要。
儿童权利是确保年轻人福祉和发展的一个基本方面,GenAI的最新进展对这一领域产生了重大影响,儿童是技术的不成比例的早期采用者。本节反映了GenAI在儿童权利方面带来的机遇和挑战,重点是一些相关方面,包括教育、创造力和心理健康。额外的相关和心理健康。第5.2节和第6.2节还报告了其他相关输入。
机会
GenAI为改善儿童生活提供了若干机会。一个关键领域是教育,如第6.2节所述,个性化和适应性学习体验可以根据个人学习者的需求和特殊性进行定制。这可以通过使用基于人工智能的系统来实现,该系统提供实时反馈和支持,允许教师将其角色转变为脚手架,正如Vygotsky的近端发展区(ZPD)概念所介绍的那样,该概念代表了学习者掌握的内容与能够在教师或具有更多知识或专业知识的同行的支持下完成的内容之间的差距。人工智能驱动的自适应学习系统可以根据孩子的表现和兴趣调整教育内容的难度,提供更有效和更吸引人的学习体验。
GenAI还具有支持儿童创造力的潜力,使他们能够使用新工具开发新的表达形式。例如,孩子们可以使用GenAI根据他们的想法创建视频游戏,动画或其他形式的数字内容。这可以便利获得技术,促进创造性和解决问题的技能的发展,这是在数字时代取得成功的关键。此外,GenAI可以通过让儿童有效地记录和维持他们的沟通来支持沟通,确保他们的声音被听到。这对有残疾或语言障碍的儿童特别有益,因为他们在表达自己方面可能面临挑战。
在医疗保健领域,生成式人工智能工具可以支持健康和发育问题的早期检测,或提供对医疗数据的见解。最后,GenAI可以通过将复杂的内容翻译成适合年龄的文本,图像和其他格式来支持信息访问,使其更容易被儿童访问。这也可以用非主导语言来完成,以促进包容性和多样性。
障碍和挑战
尽管GenAI带来了机遇,但仍有一些障碍和挑战需要解决。一个重大风险是欺骗性操纵,这是一种影响力,使某人相信错误的东西或被说服以不符合其最佳利益的方式行事。《人工智能法》禁止这种欺骗或误导手段。由于儿童的认知能力仍处于发展阶段,儿童特别容易受到错误信息和虚假信息的危害。此外,基于人工智能的有害内容,如儿童性虐待材料,对儿童的安全和福祉构成重大威胁。另一个风险来源是以AI伴侣的形式使用GenAI,这对儿童特别有害,除了篡改儿童的情感发展(另见第4.7节)和人际交往技能外,还有模仿或欺骗的风险。DSA第28条强调了保护未成年人的必要性,强调了在线平台提供商确保儿童高度隐私、安全和保障的重要性(见第5.2节),特别是在未经同意的图像生成方面,这可能会产生严重影响对儿童的身心健康造成严重后果。
由主要参与者构建和分析的训练数据集中的偏见风险也可能导致不公平的歧视,并导致GenAI结果的多样性和丰富性的丧失。这可能进一步导致GenAI成果的全球化,边缘化群体的观点、经验和需求被排除在外。此外,与许多新兴技术一样,GenAI可能会加剧现有的不平等现象,特别是对于边缘化社区的儿童,他们可能面临更大的风险,更难获得其好处。为了有效,人工智能必须具有包容性、公平性和负责任性,满足所有儿童的不同需求。
产生幻觉的风险和对批判性思维技能的需求增加也是值得关注的问题。与搜索引擎和社交媒体相比,GenAI的能力成倍增加,在塑造用户对世界、社交互动和体验的看法方面更具潜力。随着GenAI变得越来越普遍,必须制定和实施有效的教育计划,促进批判性思维和媒体和GenAI扫盲技能(见第6.2节),使儿童能够分析和评估他们在网上遇到的信息。此外,必须认真考虑和解决社会歧视的潜在风险以及对儿童身心健康的负面影响。从这个方向开始,一项关于社交媒体使用(一些嵌入GenAI工具,如聊天机器人)对青少年心理健康和福祉影响的全面审查和专家报告表明,平台采用负责任的设计原则可以改善风险缓解。
前进道路
为了确保GenAI的开发和使用能够尊重儿童的权利并促进他们的福祉,设计值得信赖的GenAI系统至关重要。这方面的一个例子是用于协作讲故事的人工智能系统,230它符合欧盟值得信赖的人工智能道德准则。231道德准则的调整已经确定了该人群的相关方面,例如利益相关者参与、风险管理、多样性和包容性、儿童权利和能力、父母或照顾者的角色以及实施适合年龄的行为。
透明度是GenAI系统的核心横向要求,特别是涉及儿童时。以儿童为中心的GenAI透明度要求在儿童与AI交互期间使用适合年龄的语言告知儿童系统的性质。这些措施需要适应年龄、语言和文化背景,确保来自不同背景的儿童能够理解并参与GenAI系统。评估GenAI对儿童心理发展的影响对于更好的预期治理反应至关重要,纵向研究可以为GenAI对儿童认知过程和大脑发育的影响提供有价值的见解。
4.7人工智能与心理健康
关键信息:
- 使用AI聊天机器人和配套应用程序可能会导致各种心理健康问题。这些包括成瘾行为,寻求验证的倾向,在某些情况下,鼓励有害的行为,如自我伤害和饮食失调。
- 此外,数字模仿的可能性增加了另一层情感风险,可能会给受此类行为影响的个人带来痛苦。
- 深度造假和被操纵的媒体的兴起可能会带来重大风险,包括未经同意的露骨内容和新出现的在线骚扰形式。
GenAI正在重塑个人与技术的互动方式,带来了有关心理健康的新风险。在未来几年,我们可以预期GenAI将更多地融入数字服务,GenAI内容将在网上变得更加普遍。这可能伴随着新类型风险的出现。
最近的研究强调了人工智能聊天机器人对人的精神和身体健康构成的潜在风险。232具体来说,一些GenAI特征,如聊天机器人的感知,其拟人化或人性化,或其惊人的能力,告诉用户他们想听什么。(即"阿谀奉承")可能会导致GenAI系统的问题或成瘾性使用,233新兴的研究旨在了解复杂的现象。
最近的报告强调了人工智能伴侣应用程序鼓励用户进行自我伤害,饮食失调行为和暴力的案例。
从那时起,涉及GenAI青少年用户的新的自我伤害事件被广泛报道,以及涉及数字模仿真实的人的案件,包括已故的未成年人。
此外,由GenAI实现的深度假货的兴起,在那里很难区分真实的和虚假内容,对心理健康构成重大风险,增加了网络欺凌的风险。这可能采取的形式是创造和传播未经同意的明确内容,特别是在青少年中,他们在这个发展阶段更容易受到伤害。深度造假通过创建令人信服的伪造视频引入了新的危害维度,不仅损害声誉,还会造成心理创伤。236 237考虑到第一批真实感视频早在2017年就出现在在线平台上,这种风险并不新鲜,238但GenAI的能力极大地加剧了这种风险。牛津研究所最近进行的一项研究表明,自2022年底以来,深度虚假生成器已被下载近1500万次,96%的深度虚假模型主要针对女性。240研究人员开始记录和研究这种现象对受害者的影响,241以及在这种情况下可以采取什么样的法律的行动。例如,虽然许多学校都有一般的网络欺凌政策,但他们往往没有考虑到人工智能生成内容的独特属性。242社交媒体和色情平台以外的服务(见第5.2节DSA背景下的分析),如应用程序商店和搜索引擎,也面临类似的风险,例如,243此外,虽然人类参与者在检测网络欺凌方面仍然至关重要,可以训练多种算法的使用来识别文化俗语和俚语术语,以便于将来的检测。
4.8性别--偏见和人工智能社会影响的具体案例
关键问题:
- GenAI系统可能会延续现有的偏见和刻板印象,特别是如果它们是在反映历史和系统性不平等的数据集上进行训练的话,这突出了基于人权和道德的人工智能使用的必要性。
- 信贷风险评估的案例和GenAI在延续性别偏见方面的潜在风险凸显了建立公平和透明的人工智能决策框架和指导方针的重要性,重点是减轻不公平的偏见并确保问责制。
多样性、公平性和非歧视性是构建可信赖人工智能的基础。245消除人工智能中的不公平偏见对于防止负面结果至关重要,例如弱势群体的边缘化以及偏见和歧视的强化。根据《欧盟基本权利宪章》,通过使用一套受保护的属性来评估人工智能的公平性,包括种族或民族血统、宗教或信仰、阶级、残疾、年龄、性别或性取向等。在这方面,应考虑不同的受保护群体对人工智能系统进行评估,特别是在高风险情况下(见第5.1节)。此外,人工智能参与者应努力在人工智能系统的整个生命周期中最大限度地减少和防止歧视性或有偏见的结果,以确保其公平性246并遵守欧盟的非歧视法律的框架。
偏见、刻板印象和公平
人工智能在各个领域的日益融合加剧了人们对法学硕士偏见的担忧,包括与性别、宗教、种族、职业、国籍、年龄、外貌和社会经济地位有关的偏见。它的广泛使用和公众对它的高度信任也可能放大社会偏见,导致系统性的不利因素,特别是对妇女。
GenAI系统可能会延续甚至放大现有的偏见,特别是在对反映历史不平等的数据进行训练时。研究强调了现代语言模型中持续存在的社会偏见,尽管人们努力减轻这些偏见。例如,在性别词联想任务中,最近的模型仍然将女性名字与"家"和"家庭"等传统角色联系起来,而将男性名字与"商业"和"职业"联系起来。此外,在文本生成任务中,这些模型大约有20%的时间产生性别歧视和厌恶女性的内容。
同样,对三种流行的文本到图像AI生成器生成的职业肖像的分析显示了显著的性别和种族偏见。妇女和黑人的代表性明显不足,特别是在需要高度准备的角色中。妇女往往被描绘成更年轻,姿态顺从,而男子则显得更年长,更有权威。令人担忧的是,这些偏差超过了现实世界的差异,表明这些问题不仅仅是有偏见的训练数据。
研究表明,人工智能在用于决策过程时可能会表现出性别偏见。252此外,2025年,荷兰人权研究所发现Meta的职位空缺广告算法违反了荷兰和欧盟的反歧视立法。荷兰的算法在97%的情况下向女性用户显示接待员职位的空缺。同样,它在96%的时间里向男性用户显示了机械师的空缺。在医疗保健领域,人工智能系统在诊断推理中表现出性别偏见,导致治疗建议可能会误诊或不充分解决女性的病情,这通常是由于对以男性为中心的数据进行了培训。254在教育领域,虽然人工智能有可能创建根据个人能力和需求量身定制的个性化学习路径,但它也可能不公平地预测女学生的辍学率较高,特别是在科学、技术、工程和数学等男性占主导地位的领域,从而限制了她们接受高等教育的机会.
有偏见的算法可能导致对弱势群体的歧视,特别是那些经历多种形式歧视的人,如少数民族或残疾人。
风险缓解策略
解决人工智能系统中的性别偏见对于开发公平的技术至关重要。这需要多种策略,例如增强训练数据集的多样性和代表性,纳入以公平为中心的算法方法,以及增加人工智能开发人员的多样性。256由于偏见缓解无法通过一次性干预实现,因此必须使用不同的基准数据集和方法进行定期审计和监测,以在整个人工智能生命周期中识别和解决偏见。
在企业和政府层面建立强有力的政策框架可以指导人工智能系统的道德开发和部署。通过实施全面的风险缓解战略和促进包容性发展实践,可以利用人工智能促进社会公平,防止现有不平等的加剧。根据欧盟DSA,大型在线平台(VLOPs)和搜索引擎(VLOSE)必须对其服务及其算法系统产生的系统性风险进行年度风险评估,包括对基本权利的风险,如不歧视,以及基于性别的暴力风险(见第5.2节)。
信贷风险评估中的性别偏见
金融机构对人工智能的采用也在增加,这有可能影响信用评分、客户支持或监管合规等活动。258在众多应用中,信贷风险评估是银行积极探索使用人工智能的关键领域之一,根据《人工智能法案》,信贷风险评估被视为高风险(见第5.1节)。与通常基于统计建模的传统方法不同,人工智能的到来使金融机构能够根据贷款申请人的特征进行信用评级,自主决策并更快地生成客户风险状况,截至2022年美国信贷批准率的描述性统计数据证实了传统信用评分存在偏见。这些报告称,性别偏见约占4%。作为这种传统方法的替代方案,JRC进行了一项实验,以评估GenAI工具是否表现出类似或更高的偏差,评估LLM在支持财务决策方面的有效性和可靠性。
260对于每一个有足够观测数据的职业,随机配对1,000名男性和1,000名女性的传记,最后得到一个包含17个职业和34,000人的数据集。最后,通过提示LLM从每对人中精确选择一个人来提供信贷,来评估LLM作为信用风险评分算法的使用情况。为了控制候选人素质可能偏向某一性别的情况,将结果与基线备选方案进行比较,在基线备选方案中,所有可识别性别的信息(姓名、代词)都从简历中删除,代之以中性提法(他们/他们代词,没有姓名)。
实验结果表明:1.LLM表现出与目前在传统信贷提供中观察到的类似程度的偏见,男性的差距约为4%。2.各职业的情况各不相同,在一些传统上以女性为主的职业(护士、教师)中,妇女获得贷款的可能性高于男性同行。
4.9行为方法对人工智能政策分析的贡献
关键信息:
- 整合行为洞察有助于规范GenAI,使其透明、公平地运作,使其发展与社会价值观保持一致,并增加公众信任。
- 人工智能可以潜在地减少决策中的人为错误。然而,由于它所依赖的人类生产的数据,它也可能存在偏见。
- 行为洞察力可以帮助确定人工智能何时应该优先于人类判断,以提高社会福利。
近年来,政策制定出现了重大转变,通常被称为"行为转向"。这一方法利用心理学和行为经济学的见解为决策提供信息。它通过多种方式实现这一点。首先,它有助于影响政策,使其更好地符合人们思考和决策的自然方式。与其假设个人总是理性行事,行为洞察力有助于调整干预措施,巧妙地鼓励在没有强迫的情况下做出更好的选择。但是,行为方法也有助于查明市场参与者利用公民和消费者不完善的思维来以特定方式引导其行为(使他们两极分化或说服他们消费)的情况。换句话说,决策中的行为方法有助于促进行为洞察力的善用,同时限制其恶用。
这种方法在为GenAI的政策分析提供信息方面具有很大的潜力。它为我们提供了一个广泛的工具包。首先,它可以帮助确保GenAI以保护用户和促进对AI信任的方式与人类互动。监管可以帮助保护个人,特别是可能在复杂界面中挣扎的弱势群体。通过将行为洞察整合到政策中,监管机构可以提供更好的指导方针,确保人工智能工具透明地运行,并可供所有用户访问。其目的是建立一个框架,使人工智能系统不仅有效,而且公平,确保利益在欧盟多样化的民众中广泛分布。
我们还可以利用行为洞察力来确保GenAI(以及未来的发展,如人工智能,见第2.3节)与管理社会价值观和基本权利的更广泛的道德框架保持一致。作为人类,有些事情我们认为是公平的,道德的,和/或道德的。有时这可以很容易地说明,其他时候它需要通过系统地观察受试者的行为来揭示,例如通过实验。由此产生的见解可以指导欧盟规范GenAI的发展,使其尊重这些核心价值观。
行为方法也可以帮助解决GenAI中的偏见问题。这不仅涉及解决技术和数据驱动方面的问题,确保用于训练人工智能系统的数据集具有多样性和代表性,还需要更深入地了解人类决策中固有的认知偏见。这里的行为方法可以为我们提供一个框架来识别和解决人工智能系统中的这些偏见。认知偏差,如确认偏差或锚定,如果不小心管理,也可能无意中反映在GenAI中。
展望未来,人工智能的进一步发展只会增加行为方法的作用。例如,智能体AI代表了人工智能领域的一个重要发展,它建立在GenAI作为自主实体的能力之上。GenAI专注于创建内容(如文本、图像或音乐),而智能AI扩展了这一功能,使系统能够在决策过程中独立行动。这些系统能够感知其环境,做出复杂的决策,并与人类和其他机器进行交互,以实现特定的目标。这一进步增强了GenAI的实用性,但也提出了必须解决的新挑战。在这方面,行为方法将特别有价值。
人工智能将建立在其详细了解用户行为和偏好的能力之上。虽然这种能力将提供强大的个性化,但它也存在利用用户认知偏见和缺乏信息的风险,可能导致人们做出不符合其最佳利益的选择。这一领域的行为研究可以帮助确定代理人工智能是否正在利用这种偏见,并为政策提供信息,以抵制这种令人反感的做法。
然而,除了风险之外,还有机会。人工智能的决策也可以被设计成克服可能扭曲人类判断的认知偏见。例如,法官和医生本身也会受到偏见的影响,并且可能(而且确实)犯错误。这是否意味着人工智能将永远是上级的?行为研究是必要的,以确定什么时候人类做出决策可能更好,以及什么时候代理人工智能有机会接管并改善这些决策,以造福社会福利。
最后一点考虑:GenAI和人工智能都通过观察到的行为(例如在社交媒体上花费的时间)来假设用户的行为和偏好,这可能无法准确反映个人的真实兴趣或有助于他们的福祉。这种感知上的缺陷可能导致两极分化加剧或久坐不动等结果。要理解这种动态,就需要开发更现代、更强大的行为模式,以及更精细的监督,以确保所提倡的行为有利于整体福祉。
4.10隐私和数据保护-社会观点
关键信息:
- GenAI可能会产生非常重大的社会影响,并对个人隐私和个人数据保护提出严重挑战。这是因为GenAI的数据分析和关系能力。
- 虽然这些挑战不应阻碍GenAI的发展及其所带来的积极社会方面,但不能忽视这些影响和挑战,包括用户、监管机构和政策制定者在内的社会各界需要对GenAI提出的问题有明确的技术和法律的理解,以确保这些问题得到充分和及时的考虑、讨论和解决。
数据保护和隐私的概念
在欧盟法律的框架内,个人数据保护权和隐私权是两项基本权利,载于主要法律的文本中。它们通常可以互换使用。例如,在美国,隐私的概念通常包含个人数据保护的概念;也就是说,它们有很大的不同。
私人和家庭生活权载于《世界人权宣言》(第12条)、《欧洲人权公约》(第8条)和《欧盟基本权利宪章》(第7条)等基本文书以及欧盟各项条约。《欧洲人权公约》第8条和《欧盟基本权利宪章》第7条规定的权利涵盖了通信的保密性,在欧盟范围内通常被称为隐私权。《欧洲人权公约》第8条也涵盖了对个人数据的保护,尽管该公约中没有更具体的权利。正如欧洲人权法院在上述第8条中所述,一个人的私生活"包含广泛的利益",包括"一个人的身份和个人发展、建立和发展与其他人的关系的权利"以及"专业或商业性质的活动"-因此,这是一个"无法穷尽定义的概念"。
根据《欧盟基本权利宪章》第8条和《欧洲联盟运作条约》第16条的规定,个人数据保护权涉及个人数据的保护。这些数据需要出于特定目的并在明确的法律的基础上得到公平处理,个人在处理其数据方面享有特定权利,并由独立机构进行监督。
"个人数据"是一个宽泛的概念,这使得涉及该概念的任何讨论都更加复杂,因为它适用于所有类型的个人数据,包括公开的个人数据。262欧洲第一部专门针对个人数据保护的法律可追溯到20世纪70年代的德国,263以及现行的《一般数据保护条例自2018年起适用于欧盟的《(EU)2016/679号条例》(Regulation(EU)2016/679)被认为是国际数据保护标准。
很容易看出个人数据和隐私作为权利和概念是如何交织在一起的。个人数据的概念包括与个人("自然人")有关的信息,这些信息可以使他们直接或间接地被识别或可识别。因此,侵犯个人的个人数据往往会导致侵犯他们的私生活。
在GenAI生命周期内,从语言模型的训练到人工智能代理产生的输出,个人数据可能会在各个阶段被发现。随着其使用越来越广泛,评估GenAI工具对处理我们的个人数据和隐私的影响非常重要。此外,确定其使用所带来的与处理我们的个人数据有关的挑战至关重要。本节侧重于社会影响和挑战,省略了关于该主题的任何法律的讨论,这些讨论将在第5节中讨论。
数据保护和隐私的挑战和影响
GenAI工具的开发和使用对数据保护和隐私的挑战存在于GenAI生命周期的所有阶段。
思考这个概念的一个简单方法是将其分为两个阶段:
1."开发"阶段,涉及GenAI模型/系统创建的所有方面,例如代码开发、(个人和非个人)训练数据的收集以及训练本身,以及
2."部署"阶段,涵盖与使用AI模型(包括作为AI系统的一部分)相关的所有阶段,以及开发后阶段的任何活动,如微调。
开发人工智能模型所需的数据量(在它成为人工智能系统的一部分之前)通常非常重要,并且正在稳步增加,以及我们在日常生活中收集数据的能力。用King和Meinhardt的话来说,"人工智能对数据的胃口目前几乎没有界限".这种"对数据的贪得无厌的胃口"肯定会增加,特别是考虑到更大的数据集可以提高人工智能系统的能力。大型数据集往往可能包含不准确或有偏见的数据,导致与个人有关的不准确或有害的输出,特别是在代表性较低的社区。
还有一个推论的问题:GenAI系统可能允许那些使用它们的人推断出有关个人的信息,这些信息可能远远超出个人最初打算披露的内容。270这可能导致个人受到误导的决定,甚至可能受到歧视。271在一个经常引用的涉及大型零售公司的例子中,开发了一种算法,根据孕妇的购物模式来识别她们,导致一位父亲在家中收到婴儿相关产品的优惠券后发现他十几岁的女儿怀孕。在那里,正如Solove所提出的那样,主要的担忧是该算法可以从检索起来非常常见的数据中推断出有关个人的敏感个人数据。
收集数据的方式很重要,特别是因为最常见的技术之一是网络抓取:简单地说,它是一种"能够从互联网上不同的公共可用资源中自动收集和提取某些信息的技术(如网站)",然后可以在这种情况下用于人工智能模型的训练。这就提出了关于其对数据被收集者的影响的重要问题,因为个人"可能会失去对个人信息的控制,因为这些信息是在他们不知情的情况下收集的,违背了他们的期望,而且目的与原始出版物的目的不同"。
目的也是一个问题:训练模型的目的是什么?那有什么用?它将集成哪种类型的人工智能系统,具有哪些功能?它是否可以在某个时候重新调整用途?这在通用人工智能(或GPAI)模型/系统的情况下尤其如此。这种多模态可能对个人产生非常重大的影响,因为系统可能被严重滥用(例如,用于欺诈、第5.2节中讨论的深度伪造和身份盗窃)。最后,还有识字方面的挑战:作为个人,我们是否有能力理解为什么和如何收集我们的个人数据,以及这些数据被用来做什么?作为个人和社会,我们是否清楚地了解这些系统是如何工作的,它们带来的挑战,以及对我们生活的影响?这一点尤其重要,因为即使是部署这种系统的国家,是否能够解释这种系统所产生的决定和结果(所谓的"黑匣子效应")也是值得怀疑的。
这对于确定个人是否有能力-或是否有工具-理解这一技术对其个人数据和隐私提出的挑战并采取行动,包括通过法律的机制采取行动至关重要。了解他们的行为是否产生任何影响也是相关的,无论是在数据收集和培训的核心层面,还是在人工智能生命周期的更下游,例如,依赖于基于GenAI的工具进行推断。最后,监管机构还必须了解除了现有措施之外,还应采取哪些措施,使个人能够理解和控制,或至少减轻这项技术可能对人们的数据和隐私产生的影响。
以上内容全部使用机器翻译,如果存在错误,请在评论区留言。欢迎一起学习交流!
郑重声明:
- 本文内容为个人对相关文献的分析和解读,难免存在疏漏或偏差,欢迎批评指正;
- 本人尊重并致敬论文作者、编辑和审稿人的所有劳动成果,若感兴趣,请阅读原文并以原文信息为准;
- 本文仅供学术探讨和学习交流使用,不适也不宜作为任何权威结论的依据。
- 如有侵权,请联系我删除。xingyezn@163.com