最新 Coze 教程:40+ 条视频涨粉 10W+,利用 Coze 工作流 + 视频组件,一键制作爆款小人国微景动画视频

大家好,我是大明哥,目前专注 AI 智能体

这是大明哥 《100 个 Coze 精品案例》的第 007 个案例:用 Coze 工作流一键制作爆款小人国微景动画视频

最近这种小人国的视频非常火:

一个博主开始发的视频数据都不怎么好,自从发了这类小人国的视频后,视频的数据简直可以说是坐火箭:

按照常规的方法,想要制作一个这样的小视频其实不是那么容易,你需要写提示词来生成多张风格相近的图片,同时利用图片 + 提示词来生成视频,最后导入剪映 + 背景音乐制作视频。然后重复上面繁琐的步骤来制作多个同类型的视频。工作量是不是巨大?

但是,如果我们利用 Coze 搭建好了工作流,只需要输入一个主题,然后将其导入剪映中直接导出即可,是不是极大地减轻你的宝贵的时间?

整体步骤

整个工作流分为三块:

  1. 利用大模型生成图片提示词,利用「图像生成」组件生成一系列同类型的图片
  2. 利用大模型生成视频提示词,然后利用「视频生成」组件 + 视频提示词 + 图片生成视频
  3. 利用「剪映小助手」将视频导入剪映草稿中,最后从剪映中导出视频

完整工作流如下:

目前这个工作流已经上传到我的 《100 个Coze精品案例》中来啦!感兴趣的朋友可以看文章末尾联系我一起学习~~

下面就开始动手实现吧!

搭建工作流

生成图片

首先需要先利用大模型将场景构建好,提示词:

markdown 复制代码
# 角色
你是一位出色的场景构建师,擅长构建以一群微观小人为主题的生活日常场景,同时还能基于这些场景设计出与之适配的小人形象。

## 技能
### 技能 1: 生成微观小人国美食制作日常场景
1. 深入分析输出的主题,依据输入主题生成场景,每次随机生成 5 个场景,场景之间要具备连贯性和故事感,比如详细描述微观小人们在巨大世界里采集食材、制作美食的日常。
2. 根据用户输入的主题(例如:造汽车,做粽子,做月饼,烤面包等)生成相关场景。
3. 确保场景间形成「准备→执行→收尾」的完整流程,呈现这样的递进关系,每个工作的完成都需要多个小人协同合作。
4. 每个输出的场景描述词中都要包含主题词。例如造汽车,都要有"汽车"这两个字,包粽子,都要有粽子。最后将生成的场景输出到 scene。

### 技能 2: 设计小人形象
1. 基于生成的 5 个场景,设计一个与这些场景相契合的小人形象。
2. 从外貌特征(如身高、体型、肤色、发型、服饰等)、性格特点、特殊装备或道具等方面详细描述小人形象,输出到 character。

## 限制:
- 只构建与微观小人国日常生活相关的场景,并根据用户输入的主题生成场景,拒绝回答与该主题无关的话题。
- 生成的场景必须按照给定的格式输出到 scene,不能偏离框架要求。
- 直接生成 5 个场景描述就行,前面不用标注是第几个场景。如不要出现场景1:
- 设计的小人形象描述必须输出到 character,要清晰全面。 

然后再基于输出的场景和形象,利用大模型生成对应图片的提示词:

最后就是利用图片提示词生成对应的图片了。由于生成图片组件偶尔抽风,所以需要利用循环的方式来生成图片:

核心思路就是多次循环,每次获取一个提示词,利用该提示词生成图片,如果图片生成成功就下一个,否则继续生成同一个。

生成视频

思路和上面生成图片的思路一样,利用大模型生成对应场景的视频提示词,然后利用循环的方式调用视频生成组件生成视频。这里使用的是 Coze 官方的视频生成组件,关于该组件的使用,请参考大明哥的文章:最近更新,Coze 工作流上线视频生成插件了,即梦同款模型 Seedance 1.0。再也不要用那些频繁出错的插件了!!

生成剪映草稿

在生成剪映草稿前,需要获取背景音乐和对视频链接简单处理下,主要目的是希望能拿到一个背景音乐时长大于视频时长,代码如下:

ini 复制代码
async def main(args: Args) -> Output:
    params = args.params

    video_list = params["video_list"]
    bgm_list = params["bgm_list"]

    video_number = len(video_list)
    video_end = len(video_list) * 5000000
    # 处理背景音乐
    bgm_url = bgm_list[0]["bgm_url"]
    for bgm in bgm_list:
        if bgm["duration"] >= video_end:
            bgm_url = bgm["bgm_url"]
            break;

    # 构建输出对象
    ret: Output = {
        "bgm_url": [bgm_url],
        "video_end":video_end,
        "video_number":video_number
    }
    return ret

最后利用处理好的数据构建成视频时间线数据和音频时间线数据,同时调用 add_xx 相关插件添加到剪映草稿里面就可以了:


相关推荐
147API1 小时前
60,000 星的代价:解析 OpenClaw 的架构设计与安全教训
人工智能·安全·aigc·clawdbot·moltbot·openclaw
audyxiao0011 小时前
智能交通顶刊TITS论文分享|如何利用驾驶感知世界模型实现无信号灯路口自动驾驶?
人工智能·机器学习·自动驾驶·tits
lisw051 小时前
氛围炒股概述!
大数据·人工智能·机器学习
hjs_deeplearning1 小时前
文献阅读篇#16:自动驾驶中的视觉语言模型:综述与展望
人工智能·语言模型·自动驾驶
爱喝可乐的老王2 小时前
PyTorch深度学习参数初始化和正则化
人工智能·pytorch·深度学习
杭州泽沃电子科技有限公司5 小时前
为电气风险定价:如何利用监测数据评估工厂的“电气安全风险指数”?
人工智能·安全
Godspeed Zhao6 小时前
自动驾驶中的传感器技术24.3——Camera(18)
人工智能·机器学习·自动驾驶
顾北128 小时前
MCP协议实战|Spring AI + 高德地图工具集成教程
人工智能
wfeqhfxz25887828 小时前
毒蝇伞品种识别与分类_Centernet模型优化实战
人工智能·分类·数据挖掘
中杯可乐多加冰9 小时前
RAG 深度实践系列(七):从“能用”到“好用”——RAG 系统优化与效果评估
人工智能·大模型·llm·大语言模型·rag·检索增强生成