That isn't to say AI is some benevolent good, however. An AI model can be trained on billions of data points, but it can't tell you if any of those things is good, or if it has value to us, and there's no reason to believe it will. We arrive at moral evaluations not through logical puzzles but through consideration of what is irreducible in us: subjectivity, dignity, interiority, desire--all the things AI doesn't have.
但是这不意味着人工智能是一种仁慈的好。不过,一个人工智能模型可以被数十亿个数据点上进行训练,但是它无法告诉你这些数据是否有益,或者对我们有价值,并且我们没有理由相信未来他能做到这些。
我们做出道德评判而不是逻辑谜题,通过我们对不可剥夺的内在的思考:主观性、尊严、内在价值及欲望,所有这些证实人工智能所不具备的。
「词汇总结」
benevolent - adj. 善意的
trained - v. 训练
data points - n. 数据点
moral evaluations - n. 道德评价
logical puzzles - n. 逻辑谜题
consideration - n. 考虑
irreducible - adj. 无法简化的
subjectivity - n. 主观性
dignity - n. 尊严
interiority - n. 内在性
desire - n. 欲望
「文章背景」
尽管支撑人工智能(AI)的基础技术早已存在,但直到2022年底ChatGPT的推出,这项技术才真正展现出接近人类智能的巨大潜力。艺术家和作家们担心自己会被取代,政府也在努力跟进并制定相应的监管政策,学术界也围绕这一主题展开了激烈的讨论。各大企业纷纷投身这场热潮之中,像微软、Meta和Alphabet这样的科技巨头都全力以赴地投资人工智能领域。据统计,仅2023年一年,人工智能初创企业的融资总额就接近500亿美元。OpenAI的首席执行官萨姆·奥特曼甚至表示,他对公司在人工智能领域的巨额投资毫不介意,他更加关注的是开发出一种能够深入了解用户每个细节的超级助手。然而,也有一些人对人工智能可能带来的威胁表示担忧。哲学家尼克·博斯特罗姆在其2014年的作品《超级智能》中举了一个经典的例子:一个专门生产回形针的人工智能系统可能会把人类视为实现目标的障碍,并采取行动来消除障碍。这就是大家常说的"人工智能控制问题":我们可能会失去对高级人工智能系统的掌控。目前的人工智能主要依赖于大型语言模型,这些模型通过海量的数据训练,学会语言中的模式和上下文关系。尽管这些模型能够生成看似合理的文本,但经常会包含事实性的错误。它们往往更侧重于形式的正确性而忽略了内容的准确性。人工智能的快速发展引发了人们对技术影响的深刻反思。虽然技术的进步能够带来积极的变化,但也可能带来负面的后果,比如加剧社会分化。人们越来越认识到,我们需要更深入地审视技术的影响,特别是那些大型科技公司的行动。当前的人工智能模型,尤其是生成式模型,具备将不同的概念融合起来创造新事物的能力。这种能力让人不禁联想到人类自身的思维模式。同时,人工智能系统的复杂性和难以理解性也让人们意识到,我们与模式识别机器之间的界限并非如此清晰。