最近,我开始深入了解并整理一些关于Sora这个人工智能模型的系列文章。我的目标是从两个角度深入探讨:一是Sora的技术细节,包括它的原理和功能:OpenAI Sora:距离黑客帝国仅一步之遥,二是Sora的应用前景,尤其是它在文化和社会层面可能引起的变化。第一篇文章已经发表,主要介绍了Sora是什么以及它能做些什么。现在,我正着手准备第二篇,想要探讨这项技术可能带来的更广泛影响。
但在准备第二篇文章的过程中,我意识到这个主题应该进一步细分成两个部分。这两部分都将讨论视频生成AI的文化影响,不仅限于Sora,而是涵盖整个领域。第一个部分将探讨当AI生成的视频与人造视频难以区分时,我们可能会失去什么价值。而第二个部分,我还在规划中,将讨论我们可能因此获得的新机遇和价值。
我想要明确的是,我并不是简单地将影响划分为消极和积极两种。实际上,新技术的发展可能既带来我们不需要的东西,也可能让我们失去一些我们原本珍视的东西。这种变化并不总是容易接受的,但它是技术进步不可避免的一部分。
我也认识到,对于一些我目前可能还不能完全理解或接受的变化,有的人可能已经有了自己的看法,并认为适应这些变化是必要的,甚至是积极的。这种多元的视角是推动世界进步的重要因素。正如历史上有人批评写字会导致人类记忆力下降,我们今天所面临的挑战和机遇也是历史演进的一部分。在我的写作中,我将尽力展现这种复杂而又丰富的视角。
OpenAI Sora 还可以,但不是很好。
我们都知道,提前了解潜在的挑战是非常明智的。就像OpenAI最近介绍的Sora,虽然还有很多需要完善的地方,但它确实给我们带来了一些启示。
如果我们对这个新技术不够重视,那么我们可能会错失应对挑战的机会。现在是一个关键时刻,就像刚出生的小猫需要及时睁开眼睛一样,我们也需要准备好迎接即将到来的变化,否则我们可能会被这场风暴所淹没。
OpenAI发布Sora的消息时并没有提供太多细节,但他们确实希望我们能够看到即将到来的变化,并为之做好准备。我们可以把Sora看作是文本到视频的一个新尝试,尽管它还没有完全实现,但它预示着未来可能发生的变化。
从GPT-3到现在,OpenAI的发展速度令人印象深刻。在短短三年内,我们见证了从GPT-3到GPT-3.5,再到ChatGPT,最后是GPT-4的发展。现在,有传言说OpenAI自2023年3月以来就已经在准备Sora,这显示了他们的进展速度既令人兴奋又有些令人担忧。
幸运的是,OpenAI的提前预警让我们有机会做好准备,而不是被措手不及。我们已经看到了从GPT-3到ChatGPT的自然演进,这让我们相信,文本到视频的转换技术也将经历类似的进步------通过更大的计算力、更好的数据和更多的参数来实现性能的飞跃。
因此,我们应该利用我们已经知道的信息,为即将到来的Sora以及它的进化做好准备,期待它将带来的变化和挑战。
Sora:重定义Deepfake技术的未来
Sora代表了一个重要转折点,它与ChatGPT或DALL-E不同,因为视频长期以来被视为最可靠的事实核实媒介。文本容易伪造,图片虽然一度相对可信,但早已能被如Photoshop这样的软件轻易篡改。ChatGPT和DALL-E的出现虽然增加了对文本和图像真实性的疑虑,但相比之下,视频仍被认为是更加靠谱的信息来源。
然而,Sora并不是第一个能够创建或修改虚假视频的工具。自2017年以来,Deepfakes技术就在不断进步,它已经能够在音频、图像和视频方面实现令人信服的伪造。最近的一些事件,比如假色情视频和企业遭受的财务损失,都证明了技术用于不良目的的潜力。Sora可能只是在这一领域又加了一把火。
OpenAI通过推出Sora,实际上是提醒我们要准备好面对即将来临的挑战。尽管Sora本身还有待完善,但其后续版本Sora 2预计将更加强大。我们不能仅仅期待线性的改进,Sora代表的是一个质的飞跃,它与过去的深度伪造技术大不相同,这对于视频作为事实来源的威胁是前所未有的。
Sora的关键在于它的影响范围。一些看似微不足道的技术进步,比如从简单的视频编辑到使用Sora生成高度逼真的Deepfake,可能在社会文化层面引发巨大变化。
我们之所以要关注这一点,是因为历史上图像和摄影也曾是可信的信息来源,直到它们不再是。摄影最初被视为艺术而非记录现实的工具,但随着时间的发展,它成为了值得信赖的媒介------至少在Photoshop出现之前是这样。Photoshop挑战了摄影作为事实来源的地位,使得任何人都能够篡改现实。
如今,Sora让视频也面临同样的命运。这是一场技术革命,预示着我们即将面临的社会文化变革。想象一下,当文本转视频的AI用于制作含有错误的教育视频,或者当恶意制作者能够不受限制地创建虚假内容时,会发生什么。
我们不应该因为摄影的历史让我们感到安心而忽视今天的挑战。正如外国论坛上的一篇文章所警告的那样:不要因为成功地消除了早期对信息生态系统的攻击而感到安慰:
我们可以从摄影处理的悠久历史中以一种"事情本来就是这样"的方式得到安慰。然而,今天的警报者坚称情况将会变得更糟。有了人工智能,二十一世纪的霍查不会止步于笨拙地从记录中删除个人;他可以点菜订购记录在案的现实。
Sora不仅仅是另一个深度伪造工具(除了最精通技术的人之外很难使用,而且范围及其有限),它预示着未来任何人都可能轻易扭曲现实的时代。这是我们必须认真对待并准备应对的挑战。
当信任模式颠倒:我们未曾预期的变化
伊默瓦尔大师触及了一个思考的深层:我们可能低估了人类识别真伪的本能。这个看法,我是赞同的。即便是技术高超的Deepfakes,比如由Sora生成的,实际上并不会像人们普遍恐惧的那样彻底扭曲我们的现实观。我们害怕的所谓"认知末日",可能并不像想象中那么不可避免。
为什么这样说呢?因为在人类漫长的进化历程中,我们并没有发展出一种"先天就信任,然后再验证"的机制。在我们数十万年的历史里,我们总是需要自己判断信息的真伪,这种能力是我们生存下来的基础。正如凯文·凯利在《The Trust Flip》一文中所指出,我们天生的倾向是"先验证,后信任"。在摄影术和摄像技术出现之前,我们一直生活在一个充满认知挑战的世界里。
凯利进一步阐释了生成式人工智能技术如何实际上是将信任的极性翻转回原始状态,即信任依赖于我们个人的判断力:
生成式人工智能的到来将真实性的极性翻转回到了过去的状态。现在,当我们看到一张照片时,我们会认为它是假的,除非另有证明。当我们看到视频时,我们假设它已经被修改、生成、特殊效果,除非另有声明。所有图像(包括照片图像)的新默认值是它们是虚构的------除非它们明确声称是真实的。
对那些担忧未来充满不确定性的人来说,这似乎是一个合理的回应。如果我们在19世纪之前就已经在这样的环境下生活,那么现在的担忧又有何必要呢?
但是,我认为,这个讨论触及了更深层次的问题。仅仅因为技术使得制作虚假视频变得可能,并不意味着我们应该无条件地接受一个未来充满了不确定性和混乱。凯利可能没有直接作出判断,但这正是关键所在:为了一个未来美好的承诺,我们是否应该牺牲我们对共同真实的信任?这是一个重大的决定,需要慎重考虑。
然而,历史经验告诉我们,人类社会总是能够适应新技术的挑战。几代人后,今天的新发明会变得不可或缺,甚至被视为生活中的必需品。你有没有想过,如果没有某项特定技术,你会怎么生活?那正是技术进步带来的影响。
技术的发展总是伴随着对旧有习惯和常态的冲击。在变革之初,我们很难看到新技术带来的好处;但随着时间的推移,不易的是如何回忆起没有它们的生活是怎样的。
在后Sora时代,我们将失去的是一种宁静------那种能够将我们的信任外包出去的心态。正如凯利所言,我们源于混乱,我们的进化使我们适应了一个"先验证,后信任"的世界。在这一波技术革新中,我们同样能够适应并茁壮成长。但这种适应过程,特别是重新学习如何在一个充满信息干扰的世界中找到信任的基础,无疑是充满挑战的。信任的转变,永远不是一件轻松的事。
回到一个充满不确定性、混乱和挑战的世界,并不是我心目中理想的未来。但正如历史所示,我们不仅能够适应,还能在适应中找到新的方向和意义。