Sora不香了,Runway Gen-3震撼发布!AI电影时代真的要来了!(附与快手可灵对比测试)

大家好,我是程序员X小鹿,前互联网大厂程序员,自由职业2年+,也是一名 AIGC 爱好者,持续分享前沿的「AI工具」和「AI 副业玩法」,期待和大家一起交流~

文章首发于公众号:X小鹿AI副业

AI 视频太卷了!

刚上线的快手可灵(Kling)、Luma AI 的 Dream Machine 的热乎劲还没过,Runway 又发布重磅消息:

Runway Gen-3 来了!

上一次 Runway 带来这么重磅的消息,记得还是去年的 11 月份:Gen-2 的发布。

程序员X小鹿:【AI视频】文本生视频工具又迎来重大更新,Runway Gen-2 到底有多强?

Runway Gen-2 的发布,让更多的人认识了 AI 视频领域的这位王者。

因为不管是从生成视频的真实性、一致性还是可控性等方面,Runway 在众多 AI 视频工具中,都可以算的上排在前列的。

不过此后 Runway 便一直很低调。直到今天,时隔半年之久,AI 视频领域的王者,Runway 终于回来了!

一、视频展示

先来看几个官方示例感受一下:

下面所有视频都是使用 Gen-3 Alpha 生成的,没有经过任何修改。

视频上传不方便,Runway 官网看吧:

runwayml.com/blog/introd...

从这几个官方示例视频就可以看到,不管是从运镜效果、真实性、以及对非真实世界的概念的理解方面,都不禁让人感叹:AI 电影时代真的要来了!

二Runway Gen-3 有哪些重磅更新

从 Runway 官网来看,Gen-3 Alpha 在保真度、一致性以及动作方面,相比 Gen-2 都有了重大改进,是构建通用世界模型的一步。

1、更高的可控性

上周体验的快手的可灵(Kling)、Luma AI 的 Dream Machine,在可控性方面,可以说基本没有。

生成的视频如果不满意,只能调整提示词、一次次的 roll。

当然也可能是因为他们刚刚上线的原因,这方面还没有更新。

相比之下,Runway 的可控性就高很多了。

在 Runway Gen-3 之前,就已经有了运动画笔、高级摄像机控制、导演模式。

Gen-3 发布后,Runway 也将推出更多工具的支持,用于更精细地控制结构、风格和运动。

2、细粒度时间控制

Gen-3 Alpha 已经过高度描述性、时间密集的字幕训练,能够对场景中的元素进行富有想象力的过渡和精确的关键帧。

视频太多,传着太麻烦。视频示例直接看这里吧:

Sora不香了,Runway Gen-3震撼发布!AI电影时代真的要来了!(附与快手可灵对比测试)

**,时长00:10

Prompt: A tsunami coming through an alley in Bulgaria, dynamic movement.

提示:一场海啸从保加利亚的一条小巷中传来,动态运动。

**,时长00:10

Prompt: A first-person POV shot rapidly flies towards a house's front door at 10x speed.

提示:第一人称 POV 镜头以 10 倍的速度快速飞向房屋的前门。

3、逼真的照片级人物

Gen-3 Alpha 擅长通过各种动作、手势和情感生成富有表现力的人类角色,从而解锁新的讲故事机会。

**,时长00:10

Prompt: A middle-aged sad bald man becomes happy as a wig of curly hair and sunglasses fall suddenly on his head.

提示:一个中年悲伤的秃头男人变得快乐,因为一顶卷发和太阳镜突然落在他的头上。

可以看到表情的变化非常明显。同样的提示词,试了是快手的可灵:

**,时长00:05

快手的可灵(Kling),没有表现出太多情感的变化。还有头顶上放着好几个太阳镜。明显是并没有理解这个语义。

4、为艺术家打造

训练 Gen-3 Alpha 是由研究科学家、工程师和艺术家组成的跨学科团队的共同努力。可以很好地诠释各种风格和电影术语。

**,时长00:10

Prompt: Zooming through a dark forest with neon light flora lighting up. 提示:在黑暗的森林中放大,霓虹灯下的植物群被照亮。

**,时长00:10

Prompt: A giant humanoid, made of fluffy blue cotton candy, stomping on the ground, and roaring to the sky, clear blue sky behind them.

提示:一个巨大的人形生物,由毛茸茸的蓝色棉花糖制成,踩在地上,咆哮着冲天而起,身后是湛蓝的天空。

同样的提示词,试了试快手的可灵,除了有些呆、少了些震感的效果,其他还好:

**,时长00:05

5、行业定制

Runway 一直在与领先的娱乐和媒体组织进行合作,以创建 Gen-3 的定制版本,允许更风格化的控制和一致的角色,针对特定的艺术和叙事需求。

结束语

这一年,涌现出了太多的 AI 视频工具。我们时不时的就会在网上听到,哪家又开发出了一款多么炸裂的 AI 视频工具,哪家又发布了一项多么重大的更新。

2024,AI 视频不管是用于影视、广告、电商等行业的日常工作,还是用来做自媒体、做副业,都将大有可为。

更多 AI 视频工具,可以在【AI工具】专栏中查看,持续更新。


觉得文章有帮助,请帮忙点赞收藏关注一下呦~

我是程序员X小鹿,前互联网大厂程序员,自由职业2年+,也是一名 AIGC 爱好者,欢迎一起交流~

相关推荐
学习前端的小z11 小时前
【AIGC】ChatGPT提示词解析:如何打造个人IP、CSDN爆款技术文案与高效教案设计
人工智能·chatgpt·aigc
wgggfiy1 天前
chatgpt学术科研prompt模板有哪些?chatgpt的学术prompt有哪些?学术gpt,学术科研
论文阅读·人工智能·gpt·chatgpt·prompt·aigc
⊙月1 天前
CMU 10423 Generative AI:lec15(Scaling Laws 大规模语言模型的扩展法则)
人工智能·aigc
贪玩懒悦1 天前
用langchain+streamlit应用RAG实现个人知识库助手搭建
人工智能·ai·语言模型·langchain·aigc
CM莫问2 天前
大语言模型入门(一)——大语言模型智能助手
人工智能·算法·语言模型·自然语言处理·aigc
⊙月2 天前
CMU 10423 Generative AI:lec14(Vision Language Model:CLIP、VQ-VAE)
人工智能·aigc
⊙月2 天前
CMU 10423 Generative AI:lec16(Mixture of Experts 混合专家模型)
人工智能·aigc
杰说新技术3 天前
在实时语音交互上超过GPT-4o,端到端语音模型Mini-Omni部署
人工智能·aigc
AI极客菌3 天前
Stable Diffusion绘画 | 插件-Deforum:动态视频生成
人工智能·ai作画·stable diffusion·aigc·音视频·midjourney·人工智能作画
Hoper.J3 天前
用 LoRA 微调 Stable Diffusion:拆开炼丹炉,动手实现你的第一次 AI 绘画
人工智能·stable diffusion·lora·微调·aigc·文生图·ai绘画