用Claude Code把一篇文章自动做成视频,全程不用碰剪辑软件

引言

做短视频最烦的是什么?写文案、找素材、调时间轴、配音乐、导出......每一步都是手动操作。

今天分享一个骚操作:直接丢一篇 Markdown 文章给 Claude Code,它自动帮你生成一个带动画、配乐的视频 MP4 文件。

整个过程我全程没碰任何剪辑软件,全靠一条命令搞定。

用到的工具叫 HyperFrames,开源免费

GitHub 地址:

https://github.com/heygen-com/hyperframes

一、HyperFrames 是什么

简单说,它是一个 用 HTML 写视频 的框架。

  • 视频的每一帧都是 HTML + CSS

  • 动画用 GSAP(前端最流行的动画库)控制

  • 时序用 data-* 属性标记

  • 最终渲染成 MP4

配合 Claude Code 的 AI 能力,你只需要告诉它"我要什么风格的视频",它就能自动写出 HTML、配好动画、加上音乐,然后渲染出成品。

二、安装步骤

前置条件
  • Node.js ≥ 22

  • FFmpeg

  • Claude Code(或任意 AI 编程工具)

安装 HyperFrames 技能

在终端执行:

bash 复制代码
   
npx skills add heygen-com/hyperframes

执行后会列出 6 个 skill,首次建议全选(按空格键勾选全部,回车确认):

|

技能名

|

核心用途

|

| --- | --- |

| gsap |

GSAP 动画语法参考

|

| hyperframes |

核心技能:创建视频合成、动画、标题卡

|

| hyperframes-cli |

命令行工具:初始化、检查、预览、渲染

|

| hyperframes-registry |

安装官方组件库/预设模块

|

| remotion-to-hyperframes |

将 Remotion 项目转为 HyperFrames 格式

|

| website-to-hyperframes |

抓取网页并自动生成视频

|

安装完成后,重启 Claude Code 即可使用。

三、实操:把一篇文章做成视频

下面是我完整的操作流程,从一篇 Markdown 文章到一个 MP4 视频,全程自动化。

第一步:给 Claude Code 发指令

我有一篇自我介绍文章,路径是:

bash 复制代码
   
D:\project2026\fuwari\src\content\posts\Xenia\自我介绍.md

直接在 Claude Code 对话框发送:

bash 复制代码
   
把这个文章使用HyperFrames做个视频
第二步:选择风格和用途

Claude Code 会问你两个问题:

问题一:视觉风格

  • 科技感/暗色 --- 深色背景,霓虹高亮,适合技术博主

  • 简约/明亮 --- 白色背景,干净排版,适合品牌展示

  • 活力/彩色 --- 多彩渐变,适合社交媒体

问题二:视频用途

  • 短视频/社交媒体 --- 15-30 秒,竖屏 9:16

  • 个人介绍/B 站片头 --- 30-60 秒,横屏 16:10

  • 完整自我介绍视频 --- 1-2 分钟,横屏 16:9

我选了「科技感/暗色」+「完整自我介绍视频」。

第三步:自动初始化项目

Claude Code 会自动执行 npx hyperframes init,生成项目结构:

bash 复制代码
   
dqtx-self-intro/├── assets/                # 静态资源(图片、音乐等)├── AGENTS.md              # AI 协作文档├── CLAUDE.md              # Claude 技能配置├── DESIGN.md              # 视觉设计方案(颜色、字体、规范)├── hyperframes.json       # 项目配置├── index.html             # 核心!视频的源文件就是这个 HTML└── meta.json              # 项目元数据

其中 index.html 是最重要的文件------整个视频的画面、动画、时序全写在这里面。

第四步:自动创建视频内容

Claude Code 会根据你的文章内容,自动做这些事:

  1. 创建 DESIGN.md --- 定义配色方案、字体、视觉风格

  2. 分析文章结构 --- 把文章拆分成多个场景(Scene)

  3. 编写 HTML --- 每个场景是一个 <div>

    ,用 data-startdata-duration 控制出现时间

  4. 添加 GSAP 动画 --- 元素入场、退出、过渡效果

  5. 运行 lint 检查 --- 自动检查 HTML 是否有错误

我的自我介绍视频被拆成了 7 个场景:

|

场景

|

时间

|

内容

|

| --- | --- | --- |

|

  1. 标题

|

0-5s

|

"大强同学" 品牌开场

|

|

  1. 关于我

|

5-16s

|

个人介绍 + 正在做的事

|

|

  1. 项目展示

|

16-30s

|

8 个网站 + 开源项目

|

|

  1. 服务社群

|

30-44s

|

商业服务 + 社群列表

|

|

  1. 社交媒体

|

44-56s

|

粉丝数据 + 平台矩阵

|

|

  1. AI 工具链

|

56-68s

|

AI Agent + API 供应商

|

|

  1. 结尾

|

68-80s

|

联系方式收尾

|

第五步:本地预览

Claude Code 会启动一个本地预览服务器:

bash 复制代码
   
npx hyperframes preview

浏览器打开 http://localhost:3002 就能看到视频效果。修改 HTML 后会自动刷新,所见即所得。

第六步:反馈优化

这一步很关键。我看第一版后觉得:

  • 节奏太慢 --- 80 秒太长了
  • 没有音乐 --- 需要加 BGM

直接告诉 Claude Code,它会自动修改:

  • 把总时长从 80 秒压缩到 55 秒

  • 动画从 0.5 秒缩短到 0.35 秒

  • 卡片入场间隔从 0.08 秒压缩到 0.06 秒

  • 问我要音乐文件,然后自动添加到项目中

第七步:渲染导出 MP4

确认效果没问题后,执行渲染:

bash 复制代码
   
npx hyperframes render

渲染完成后,MP4 文件在:

bash 复制代码
   
项目目录/renders/dqtx-self-intro_2026-04-30_15-09-53.mp4

我的成品:1920×1080、55 秒、3.8 MB,带背景音乐,可以直接上传社交媒体。

已关注

关注

重播 分享 赞

关闭

观看更多

更多

退出全屏

切换到竖屏全屏**退出全屏

大强同学已关注

分享视频

,时长00:55

0/0

00:00/00:55

切换到横屏模式

继续播放

进度条,百分之0

播放\](javascript:😉 00:00 / 00:55 00:55 \[倍速\](javascript:😉 *全屏* 倍速播放中 \[0.5倍\](javascript:😉 \[0.75倍\](javascript:😉 \[1.0倍\](javascript:😉 \[1.5倍\](javascript:😉 \[2.0倍\](javascript:😉 \[超清\](javascript:😉 \[流畅\](javascript:😉 您的浏览器不支持 video 标签 继续观看 用Claude Code把一篇文章自动做成视频,全程不用碰剪辑软件 观看更多 原创 , 用Claude Code把一篇文章自动做成视频,全程不用碰剪辑软件 大强同学已关注 分享点赞在看 已同步到看一看\[写下你的评论\](javascript:😉 \[视频详情\](javascript:😉 #### 四、核心概念速览 ##### HTML 就是视频源文件 整个视频就是一个 HTML 文件,核心结构: ```bash

``` * data-start --- 这个元素从第几秒出现 * data-duration --- 持续几秒 * data-track-index --- 轨道编号(决定层级) ##### 动画用 GSAP 控制 ```bash const tl = gsap.timeline({ paused: true });// 入场动画:从下方滑入 + 淡入tl.from("#title", { opacity: 0, y: 40, duration: 0.5, ease: "power3.out"}, 0); // 0 = 在第 0 秒开始// 退出动画:向上滑出 + 淡出tl.to("#title", { opacity: 0, y: -25, duration: 0.25, ease: "power2.in"}, 2.8); // 在第 2.8 秒退出 ``` ##### 视觉方案在 DESIGN.md 中定义 ```bash ## Colors| 角色 | 色值 | 说明 ||-----------|----------|------------------|| 背景 | #0a0e1a | 深蓝黑,不是纯黑 || 强调色 | #3b82f6 | 电光蓝 || 辅助色 | #06b6d4 | 青色 || 文字 | #e2e8f0 | 暖白色 | ``` Claude Code 会严格遵守这个配色方案,不会乱用颜色。 #### 五、踩坑记录 ##### 1. 视频还没渲染出来 预览只是本地 HTML 渲染,要生成 MP4 必须手动执行 `npx hyperframes render`。 ##### 2. 第一版节奏大概率偏慢 AI 生成的视频默认节奏都比较保守,建议: * 直接告诉它"节奏加快,总时长控制在 X 秒" * 每个场景的动画时长建议 0.3-0.4 秒 ##### 3. 背景音乐需要自己提供 HyperFrames 支持添加音频,但音乐文件需要你自己准备。支持 mp3、wav、m4a 格式。 ##### 4. 字体加载需要联网 渲染时会从 Google Fonts 加载字体,首次渲染会慢一些。之后有缓存就快了。 ##### 5. 大文件渲染时间较长 55 秒的视频渲染大约需要 1-2 分钟,取决于你的电脑配置。 #### 总结 整个流程的核心思路就是:**用自然语言描述你想要的视频 → AI 自动生成 HTML → 渲染成 MP4**。 你不需要学 PR、不需要学剪映、不需要手动对齐时间轴。写一篇文章,跑一条命令,等几分钟,视频就出来了。 效果可能不一定完美,但你只需要先出第一版,之后让 AI 根据你的建议优化就行。整个过程耗时至少半小时,但**全程不用你动手**------你可以去忙别的,等它完成后再提修改意见。 以上,既然看到这里了,如果你觉得内容不错,随手**点个赞、在看、转发**三连吧!如果想第一时间收到推送,可以给我点个星标⭐~ 谢谢你看我的文章,我们,下次再见。 #### 参考资料 * 项目地址:https://github.com/heygen-com/hyperframes * 作者推文:https://x.com/liu8in/status/2044827628700684463

相关推荐
郭源潮17 小时前
从8k嘈杂到16k清晰,我是如何使用RNNoise+libresample构建音频降噪管道的?
c++·音视频·实时音视频
YWamy7 小时前
音视频SDK赋能智能硬件:实时RTC技术的应用难点与落地实践
音视频·实时音视频·智能硬件
科研前沿7 小时前
深耕数字孪生与视频孪生,打造行业标杆
音视频
Prannt7 小时前
星朗智能语音识别——视频转文字
人工智能·音视频·语音识别
ai产品老杨8 小时前
深度解析:基于 Docker 与异构计算的工业级 AI 视频管理平台架构 —— 从 GB28181 接入到全平台源码交付
人工智能·docker·音视频
911hzh9 小时前
Flutter 音视频通话集成实战:WebSocket 做信令,WebRTC 传音视频,附详细事件时序图
websocket·flutter·音视频
m0_7263658318 小时前
Ai漫剧系统 几分钟,让AI 把一篇小说变成了一部漫剧成片:从剧本到视频的全流程系统实现
人工智能·语言模型·ai作画·音视频
非凡ghost1 天前
可拓浏览器:给手机浏览器装上“外挂“!2W+拓展+AI搜索,玩出无限可能!
windows·智能手机·音视频·firefox
美狐美颜SDK开放平台1 天前
多场景美颜SDK解决方案:直播APP(iOS/安卓)开发接入详解
android·人工智能·ios·音视频·美颜sdk·第三方美颜sdk·短视频美颜sdk