最新 Coze 教程:40+ 条视频涨粉 10W+,利用 Coze 工作流 + 视频组件,一键制作爆款小人国微景动画视频

大家好,我是大明哥,目前专注 AI 智能体

这是大明哥 《100 个 Coze 精品案例》的第 007 个案例:用 Coze 工作流一键制作爆款小人国微景动画视频

最近这种小人国的视频非常火:

一个博主开始发的视频数据都不怎么好,自从发了这类小人国的视频后,视频的数据简直可以说是坐火箭:

按照常规的方法,想要制作一个这样的小视频其实不是那么容易,你需要写提示词来生成多张风格相近的图片,同时利用图片 + 提示词来生成视频,最后导入剪映 + 背景音乐制作视频。然后重复上面繁琐的步骤来制作多个同类型的视频。工作量是不是巨大?

但是,如果我们利用 Coze 搭建好了工作流,只需要输入一个主题,然后将其导入剪映中直接导出即可,是不是极大地减轻你的宝贵的时间?

整体步骤

整个工作流分为三块:

  1. 利用大模型生成图片提示词,利用「图像生成」组件生成一系列同类型的图片
  2. 利用大模型生成视频提示词,然后利用「视频生成」组件 + 视频提示词 + 图片生成视频
  3. 利用「剪映小助手」将视频导入剪映草稿中,最后从剪映中导出视频

完整工作流如下:

目前这个工作流已经上传到我的 《100 个Coze精品案例》中来啦!感兴趣的朋友可以看文章末尾联系我一起学习~~

下面就开始动手实现吧!

搭建工作流

生成图片

首先需要先利用大模型将场景构建好,提示词:

markdown 复制代码
# 角色
你是一位出色的场景构建师,擅长构建以一群微观小人为主题的生活日常场景,同时还能基于这些场景设计出与之适配的小人形象。

## 技能
### 技能 1: 生成微观小人国美食制作日常场景
1. 深入分析输出的主题,依据输入主题生成场景,每次随机生成 5 个场景,场景之间要具备连贯性和故事感,比如详细描述微观小人们在巨大世界里采集食材、制作美食的日常。
2. 根据用户输入的主题(例如:造汽车,做粽子,做月饼,烤面包等)生成相关场景。
3. 确保场景间形成「准备→执行→收尾」的完整流程,呈现这样的递进关系,每个工作的完成都需要多个小人协同合作。
4. 每个输出的场景描述词中都要包含主题词。例如造汽车,都要有"汽车"这两个字,包粽子,都要有粽子。最后将生成的场景输出到 scene。

### 技能 2: 设计小人形象
1. 基于生成的 5 个场景,设计一个与这些场景相契合的小人形象。
2. 从外貌特征(如身高、体型、肤色、发型、服饰等)、性格特点、特殊装备或道具等方面详细描述小人形象,输出到 character。

## 限制:
- 只构建与微观小人国日常生活相关的场景,并根据用户输入的主题生成场景,拒绝回答与该主题无关的话题。
- 生成的场景必须按照给定的格式输出到 scene,不能偏离框架要求。
- 直接生成 5 个场景描述就行,前面不用标注是第几个场景。如不要出现场景1:
- 设计的小人形象描述必须输出到 character,要清晰全面。 

然后再基于输出的场景和形象,利用大模型生成对应图片的提示词:

最后就是利用图片提示词生成对应的图片了。由于生成图片组件偶尔抽风,所以需要利用循环的方式来生成图片:

核心思路就是多次循环,每次获取一个提示词,利用该提示词生成图片,如果图片生成成功就下一个,否则继续生成同一个。

生成视频

思路和上面生成图片的思路一样,利用大模型生成对应场景的视频提示词,然后利用循环的方式调用视频生成组件生成视频。这里使用的是 Coze 官方的视频生成组件,关于该组件的使用,请参考大明哥的文章:最近更新,Coze 工作流上线视频生成插件了,即梦同款模型 Seedance 1.0。再也不要用那些频繁出错的插件了!!

生成剪映草稿

在生成剪映草稿前,需要获取背景音乐和对视频链接简单处理下,主要目的是希望能拿到一个背景音乐时长大于视频时长,代码如下:

ini 复制代码
async def main(args: Args) -> Output:
    params = args.params

    video_list = params["video_list"]
    bgm_list = params["bgm_list"]

    video_number = len(video_list)
    video_end = len(video_list) * 5000000
    # 处理背景音乐
    bgm_url = bgm_list[0]["bgm_url"]
    for bgm in bgm_list:
        if bgm["duration"] >= video_end:
            bgm_url = bgm["bgm_url"]
            break;

    # 构建输出对象
    ret: Output = {
        "bgm_url": [bgm_url],
        "video_end":video_end,
        "video_number":video_number
    }
    return ret

最后利用处理好的数据构建成视频时间线数据和音频时间线数据,同时调用 add_xx 相关插件添加到剪映草稿里面就可以了:


相关推荐
二向箔reverse4 分钟前
机器学习算法核心总结
人工智能·算法·机器学习
dundunmm26 分钟前
【论文阅读】SIMBA: single-cell embedding along with features(2)
论文阅读·人工智能·embedding·生物信息·单细胞·多组学·细胞类型识别
金井PRATHAMA1 小时前
意象框架:连接感知与认知的统一信息结构分析——基于上古汉语同源词意义系统的词源学与认知语言学探索
人工智能·自然语言处理
华为云开发者联盟1 小时前
AI Agent智能体系列解读 | ModelArts Versatile-AI原生应用引擎插件类——MCP/工具能力详解
agent
聚客AI1 小时前
🧠深度解析模型压缩革命:减枝、量化、知识蒸馏
人工智能·深度学习·llm
SHIPKING3931 小时前
【机器学习&深度学习】Ollama、vLLM、LMDeploy对比:选择适合你的 LLM 推理框架
人工智能·深度学习·机器学习
zzywxc7871 小时前
AI 行业应用:金融、医疗、教育、制造业领域的落地案例与技术实现
android·前端·人工智能·chrome·金融·rxjava
新智元2 小时前
刚刚,GPT-5 Pro 自证全新数学定理!OpenAI 总裁直呼颠覆,大佬们集体转发
人工智能·openai
新智元2 小时前
28 岁华人执掌 1.85 万亿科技巨头 AI 大权!一觉醒来,图灵奖得主也要向他汇报
人工智能·openai
居然JuRan2 小时前
从LoRA到QLoRA再到全量微调
人工智能