Sora OpenAI,打通虚拟和现实的壁垒,用三个关键词概括它,"60s超长长度"、"单视频多角度镜头"和"世界模型"。
👈︎前言
想象一下,你可以根据简单的文字提示制作一段精彩的视频,比如 "一个人带着一只狗在月球上行走"。听起来不可能,对吗?现在不一样了,OpenAI 最新推出的人工智能模型 Sora 可以从文本中生成震撼人心的视频。
Sora is an AI model that can create realistic and imaginative scenes from text instructions.
Sora 是一个人工智能模型,可以生成长达一分钟的视频,其中包括高度精细的场景、复杂的摄像机运动和多个情绪活跃的角色。它还能根据静态图像制作视频,或用新素材扩展现有片段。
Sora 的工作原理是接收用户的简短描述性提示,例如 "一位时尚女性走在东京街头,街上到处是温暖的霓虹灯和动画城市标志"。然后,它就会对提示进行解释,并利用从大量视频中学习到的知识来模拟运动中的物理世界。
Sora 还能了解用户对视频风格和氛围的偏好,例如 "电影风格、35 毫米胶片拍摄、色彩鲜艳"。它可以相应地调整灯光、色彩和摄像机角度。
Sora 可制作分辨率高达 1920x1080 和 1080x1920 的视频。它还能处理不同的类型和主题,如奇幻、科幻、恐怖、喜剧等。
🙋♂️什么是 Sora,它是如何工作的?
Sora 是一种人工智能模型,它可以利用一种名为 "文本到视频合成 "的技术,根据文本提示生成视频。这种技术包括将自然语言转换为可视化表示,如图像或视频。
文本到视频的合成是一项具有挑战性的任务,因为它要求人工智能模型理解文本的含义和上下文,以及视频的视觉和物理方面。
例如,模型需要知道场景中有哪些物体和角色,它们的外观、移动方式、交互方式以及它们如何受到环境的影响。
👉Sora基于深度神经网络,这是一种可以从数据中学习并执行复杂任务的机器学习模型。Sora 使用一个大型视频数据集,该数据集涵盖各种主题、风格和流派。
Sora 会分析文本提示并提取相关关键词,如主题、动作、地点、时间和情绪。然后,它从数据集中搜索与关键词相匹配的最合适的视频,并将它们融合在一起,创建一个新的视频。
Sora 还使用了一种名为 "风格转移 "的技术,可以根据用户的喜好修改视频的外观和感觉。例如,如果用户希望视频具有电影风格、采用 35 毫米胶片拍摄、色彩鲜艳,Sora 就可以将这些效果应用到视频中,改变灯光、色彩和拍摄角度。
👉Sora 可以生成分辨率高达 1920x1080 和 1080x1920的视频。它还可以根据静态图像创建视频,或用新素材扩展现有素材。例如,如果用户提供了一张森林的静态图片,Sora 可以将图片制作成动画,并添加动物、鸟类或人物等元素。如果用户提供的是汽车在公路上行驶的视频,Sora 可以扩展视频并添加交通、建筑或风景等元素。