在探讨人工智能是否需要新的治理框架这一问题时,我们面临着一个复杂而宏大的议题。
由于人工智能技术和应用场景的快速发展,其潜在风险和损害的具体情况尚不明确,这使得现有法律治理框架是否足够应对成为一个值得深思的问题。
在没有确定答案的情况下,或许我们应该保持一种观察者的态度,就像《繁花》中所说的"不响",在没有充分准备和规划之前,保持沉默,仅静静观察人工智能治理领域所发生的变化。
2.1 国家人工智能战略 VS 人工智能立法
回顾人工智能技术的发展历程,特别是进入2010年之后,基于数据的机器学习技术得到了显著发展。
随着数据合规行业的不断进步,为人工智能的发展提供了坚实的基础。
自2019年起,多个国家开始着手制定国家人工智能战略,并呈现出逐年增加的趋势。
根据经济合作与发展组织(经合组织)的数据,截至2023年5月,已有51个国家向经合组织的AI政策观测站报告了其国家人工智能战略。
这些战略大多强调包容性增长、可持续发展、以人为本的价值观和公平性,以及投资于人工智能研发和提升公众对人工智能的认识。
在人工智能发展的初期阶段,治理主要侧重于伦理原则的约束和战略投资。
然而,随着人工智能技术的迅速进步和应用的广泛化,相应的风险也日益显现,尤其是以ChatGPT为代表的生成式人工智能所带来的种种挑战。
因此,人工智能治理的重点逐渐从建立伦理和原则转向立法实践。
例如,加拿大的《人工智能和数据法(草案)》、欧盟的《人工智能法(草案)》及其配套的责任指令草案等。
虽然尚未形成正式立法,但如英国的《促进创新的人工智能监管方法》和美国的《关于安全、可靠和可信地开发和使用人工智能的行政令》等文件,也为人工智能治理提供了重要的指导和影响。
这类法律旨在平衡促进人工智能发展与控制其潜在风险之间的关系,通过政策支持、监管沙盒等方式,实现这一目标。