
图片:由作者使用各种生成式AI 工具制作
本文作者的观点是: 当AI系统彼此引用对方"幻想"出来的虚假信息时,信息生态将陷入一个自我循环的扭曲现实中,导致人类社会被误导、被欺骗,甚至危及法律、医疗、科研等关键领域的真实决策。我们正走向一个"集体幻觉"的时代,而唯一能对抗这种趋势的方法,是全民提升信息素养、强化怀疑精神,并主动核查事实。
今天是星期四,我正写一份关于"AI辅助的组织设计趋势"的客户备忘录。作为一个尽责的顾问,我当然希望能加点现实世界的例子,说明哪些公司已经尝到了甜头。是时候启动 Perplexity------我查找"现实中确实存在"的信息时最爱用的工具,不是我脑补出来的那种。
我打字问它:"能找到任何证据,证明AI辅助的组织设计确实有显著好处吗?"我当时打字的时候,感觉自己专业又严谨。
答案回来了,语气就像个穿着袜子配凉鞋的人在自信满满地侃侃而谈:"是的,有大量证据支持AI辅助的组织设计确实有显著好处。"第一个例子?"像西门子这样的公司,通过使用AI驱动的组织设计软件,报告说运营效率提升了超过25%。"
中大奖啦!
哇靠!西门子欸!25%!这不只是好,这是那种会让客户立刻掏出支票本的那种数字。Perplexity 还引用了来源------一篇2024年的博客,某家公司写的,我压根没听说过。我立马点进去,脑子里已经在构思如何把这颗"多汁的数据宝石"写到备忘录开头。
但我突然发现了点不对劲的东西。在博客最底下,那种专门留给"可能引起困倦""不含电池"或"如勃起持续超过四小时请咨询医生"的小字里,藏着这么一句话:"注:本文由人工智能协助生成。"
啥?等等?什么鬼?
我原本很自信地准备靠这条数据赢得客户信任,现在整个人开始怀疑人生。我开始数字寻宝之旅,去找这条西门子的奇迹数据。我上谷歌查了查,看新闻稿,翻行业报告。啥都没有。零。完全没提过西门子通过AI组织设计软件提高了25%的效率。
(我当然可能错了!如果你真有证据证明西门子真用AI组织设计提升了25%的效率,赶紧找我!我查遍了资料,除非直接打电话给西门子CEO,不然我99%确定这所谓的"事实"就是AI幻觉出来的。)
这时候我脑袋炸了:这不只是我差点踩雷的简单错误。我看着的是一个误导金字塔------一个AI编了个"事实",另一个AI当成真理在到处传,然后我差点就信了,还打算推荐给客户,客户可能会在董事会上继续讲,然后变成新闻稿,最后被收录进下一个AI的训练数据!!!!
Holy recursive bullshit factory, Batman !
要不是我发现了,这条假的西门子数据马上就会"再进化"一层可信度。AI系统是不是正越来越频繁地相互学习、放大彼此的错误?这就像一个算法版的"传话游戏"。
地狱里的数字传话游戏
还记得小时候玩"传话"游戏吗?你悄悄跟第一个人说"我们班要演一个历史剧",等传到最后一个人那儿,已经变成了"我们的屁股整天在拉屎还不痛"。小时候觉得特搞笑。(其实现在想想还有点搞笑。)
但如果这事发生在我们整个知识体系里,而且这些"事实"最后可能会影响医疗决策、法院判决、甚至万亿美元的投资策略,那就一点也不好笑了。
这个AI驱动的庞氏骗局就是这么运作的:
AI系统1编造一个"事实"(再加上震撼的数字和知名品牌名字增加可信度)。有人看到,觉得"不错啊",就发到网上。AI系统2吸收了这段内容,像吸果昔一样吞下这段虚假信息。然后有人问AI 2相关问题,它就很自信地说出这段"事实",有时候还加点自己的想象。然后无限循环。
搞定!一条完全编造的信息现在看起来像真的一样。简直像洗钱,只不过是洗假话。所以这叫"洗胡扯"。而且现在这事正发生着。
数字幻觉的现实世界
这不是我今天在 Perplexity 上运气不好而已。这条"AI幻觉→事实"的流水线已经开始狂产瞎话,比LinkedIn上的"谦虚炫耀"贴速度还快:
- 2023年,纽约一家律师事务所的律师提交给联邦法官的法律文书中,引用了多个根本不存在的案例。被质疑后他们承认:他们用 ChatGPT 做的法律研究,ChatGPT非常自信地"幻觉"出一些案例如"Varghese v. China Southern Airlines",还附带详细事实、裁决和引文。更离谱的是,这些虚构案例后来还被别的AI工具当成先例引用了!好嘛,现在有人把他们的法律辩护建立在一个计算机幻觉出来的梦境上。
- 哥伦比亚一位法官承认在起草一份关于是否让自闭症儿童医保报销的判决时,用了ChatGPT。AI编了些根本不存在的法律先例,但这些"先例"被写进了最后判决。AI生成的幻觉正在偷偷塑造现实中的司法结果。今晚睡得香点吧。
- 2023年2月,谷歌展示Bard AI时,系统很自信地说"詹姆斯·韦伯望远镜拍下了太阳系外的第一张系外行星照片"。完全错误------但说得那么有底气,结果谷歌母公司市值蒸发了1000亿美元。对,一次AI幻觉造成的损失超过许多国家的GDP。
为啥这事很严重:我们正在集体走向幻觉世界
你可能在想,"所以呢?AI搞错点关于西门子或法庭的事,有啥大不了?"
来,我戴上末日预言者的帽子,给你画个图:如果我们不管这事儿,这个反馈循环不会只在网络角落里瞎转------我今天就是现实例子。它可能会渗透到一切:健康信息、历史事件、科学数据、新闻报道、商业决策、学术研究。我们可能正一步步走进一个集体幻觉的世界------一个"已知"的东西越来越脱离真实,而我们甚至忘了怎么分辨真假。
你当然可以说:人类一直就不是现实的可靠讲述者。这没错。但人类制造的假消息,传播速度是人类的节奏。而AI传播的速度呢?大概是人类的七百兆倍吧。(这是精确的科学计算。相信我,我是AI专家。看到我刚才干了啥没?这句话将来可能会被人当"事实"引用。)
我们已经从"手工制作的扯淡"一夜之间升级到了"工业规模生产的扯淡"。
这是我脑子里想到的末日场景:
- 真相变得滑不溜手。 胡扯被重复够多次后,很难再分出真假。这个统计数据是研究得出的?还是AI从屁股里掏出来的?等你看到它被17个地方引用过时,你就没法再搞清楚了。
- 来源可信度变浑。 某东西在多个地方出现时,我们大脑会自动觉得它更可信------即使这些内容都来自同一个幻觉源头。你妈以前不是说过嘛,"如果你朋友都跳桥你也跟着跳?"------现在看来,我们大概率会。
- 研究被污染。 学者和记者越来越多地用AI工具协助研究。如果这些工具在反刍幻觉,那知识生产本身的纯度就危险了。快进到不远的将来:"根据我深入研究(我问了一次ChatGPT),莎士比亚在1997年写了《了不起的盖茨比》。"结果没人觉得奇怪。
- 批判性思维变懒。 当我们越来越多地把信息获取和分析交给AI,我们自己的"胡扯探测器"也可能因不用而退化。反正机器说得那么自信,谁还去核实啊?
我们正在建造一个很怪的新世界
听着,如果你关注我,你知道我不是反AI。这些技术真的厉害,也确实好用。说反话我才是伪君子------我本来就是个到处鼓励别人用AI的人。
但现在这个信息生态真的很怪:有些人努力做个负责任的"AI传话游戏"参与者,有些人则直接把音量拧到最大,然后让机器自由发挥。每一个像我这样会去查实AI内容的人,背后都有二十个内容创作者、市场人员和写脚本的机器人,他们只要机器产出的内容听起来震撼、能赚点击,就毫不犹豫地放出去。谁会怪他们呢?和花一小时核实西门子到底有没有提升那25%,相比,点"发布"按钮简单多了。
我们需要的,是满级的信息素养。不是只教学生,全民都得学点。最基本的:懂得如何核实信息来源,能看出编出来的"事实"有哪些共同特征,养成在相信前"交叉验证"的习惯。我不知道这事该靠社区讲座、企业培训,还是黄金时段的电视广告------但我们得比AI升级它模仿自信的算法还快地升级我们自己的"胡扯探测器"。
同时,我们还得把一件事变得"正常":查查事实好吗!
在分享、使用AI生成的信息之前,花一分钟用可靠来源核实一下。我知道,我知道------这个建议太激进了。但说不定,我们自己的怀疑精神才是现实世界与AI不小心建出来的平行宇宙之间,最后一道防线。
与此同时,我要把写给客户的那份"西门子靠AI提升25%效率"的提案删了。虽然真相没那么刺激,但至少它有个独一无二的优势:它是真的。