大家好,我是小肥肠,专注AI干货知识分享,最近都在分享Coze工作流,今天将给大家分享一个Coze工作流实战案例:一键采集对标账号作品信息至飞书表格,同时还能对内容进行二创。
1. 前言
做自媒体的小伙伴想必都需要进行对标账号的作品信息的收集整理,实现方法有很多,如RPA、爬虫、手动整理等。今天我将给大家分享一个Coze工作流,这个工作流能实现一键将对标账号的作品信息全部采集至飞书表格,支持设置采集条件,如你只想要半个月以内的,或者只想要点赞超过一万的,同时还会将二创内容同步录入到飞书,效果展示:

目前,该工作流已支持抖音和小红书两大平台,未来还将陆续加入公众号、快手等更多平台。无论你是自媒体创作者、运营人员还是市场营销者,都能从中受益,显著提升效率。
2. 工作流设计思路整理
在深入工作流的细节之前,需要先捋清楚工作流的整体运行思路,这个工作流运行的整体步骤可以分为下面三步:
-
获取对标账号链接和cookie;
-
对平台进行判断,如平台为抖音则开始解析抖音链接,将视频信息如点赞数、分享数、视频链接、视频文案等录入到飞书表格;如识别平台为小红书,需要进行判断是否为视频,如为视频则将视频信息如点赞、分享、视频链接、视频文案等录入到飞书,如果为普通笔记,则将笔记信息如点赞、分享、图片、原文等录入到飞书;
-
基于原创文案进行二创,写入二创文案至飞书。

3. 工作流实现
本章还是按照惯例给大家讲解一下工作流实现的核心节点,整体工作流分为两部分,第一部分是依据对标账号信息识别平台:

第二部分根据不同的平台录入飞书:

3.1. 平台识别
开始节点: 开始节点接收参数为阿里云百炼的key,作为后面提取视频文案的关键参数:

search_record(插件): 这个节点的作用主要是读取对标账号信息。

对标账号信息需要提前录入飞书表格:

这里涉及到了获取cookie的操作,获取抖音和小红书的cookie我们进入相应网页,按住F12以后选择任意异步接口即可获取cookie:

接下来就是根据链接信息区分平台,根据不同平台选择不同插件来获取对标账号主页信息:

这一步结束后我们会获取对标账号主页的笔记列表或者视频列表,接下来就是将这些列表放入循环中,依次获取每个链接的具体信息(点赞、转发、视频链接、原文等)写入飞书表格。
3.2. 根据平台录入飞书
这个工作流承接上面的内容,作用是将对标账号15天内的作品信息录入到飞书首先对平台进行判断,如果是抖音平台则进入抖音作品录入技术路线,如果是小红书则进入小红书笔记录入路线。
3.2.1. 抖音作品录入飞书表格及二创
get_douyin_info(插件): 这个节点可以根据链接获取抖音短视频的各种信息,包括作者相关信息、字幕内容、无水印视频下载链接、音频链接、视频封面图链接、点赞数、评论数、分享数、收藏数、发布时间。

筛选符合规则的作品数据(代码):

拿到符合规格的作品信息,我们之后的操作就是提取抖音视频文案,基于文案进行二创,将内容一起写入飞书表格:

要写入飞书表格的信息都已经准备好,接下来我们只要将这些信息转换为飞书表格的适配内容就行,我这里用到了代码节点:

完整代码为:
js
import dayjs from 'dayjs';
import { Args, Output } from './types';
type Args = {
params: {
video_url: string,
nickname: string,
digg_count: number,
comment_count: number,
collect_count: number,
share_count: number,
datetime_string: string,
download_url: string,
platform: string,
imageSrc: string,
content: string,
new_content:string
};
};
async function main({ params}: Args): Promise<Output> {
const { video_url, nickname, digg_count, comment_count, collect_count, share_count, datetime_string, download_url, platform, imageSrc,content,new_content} = params;
// 将datetime_string转换为数字形式的年月日
//const date_number = parseInt(dayjs(datetime_string).format('YYYY/MM/DD'));
const data = [
{
"链接": video_url,
"点赞": digg_count.toString(),
"评论": comment_count.toString(),
"收藏": collect_count.toString(),
"转发": share_count.toString(),
"博主名字": nickname,
"发布时间": datetime_string,
"下载链接":{
"link": download_url
},
"平台": platform,
"封面": {
"link": imageSrc
},
"原文内容": content,
"二创内容": new_content
}
];
const output = data.map(item => ({
fields: {
链接: item["链接"],
点赞: item["点赞"],
评论: item["评论"],
收藏: item["收藏"],
转发: item["转发"],
博主名字: item["博主名字"],
发布时间: item["发布时间"],
下载链接: item["下载链接"],
平台: item["平台"],
封面: item["封面"],
原文内容: item["原文内容"],
二创内容: item["二创内容"]
}
}));
return output;
}
接下来我们只需要使用add_records这个插件将内容写入到飞书表格即可:

3.2.2. 小红书录入飞书表格及二创
小红书录入飞书的技术路线和抖音的差不多,只是插件有区别,小红书有图文和视频,我设置了两个路线进行录入,在开始就需要判断笔记的类型,是视频还是普通笔记:

之后就是获取符合规格的笔记,然后获取笔记内容进行二创,最后写入飞书表格,和抖音那条技术路线一样,我不再赘述,上述就是整个 工作流 的主要流程,整个工作流涉及到几十个节点,流程相对复杂,动手能力强的读者可以根据以上思路研究一下。如果想直接获取工作流,可以加入社群后我拉你进Coze空间直接学习使用。
4. 资料领取
你觉得大模型不好用,可能是你不会写提示词,小肥肠为你准备了海量提示词模板和DeepSeek相关教程,只需关注gzh后端小肥肠,点击底部【资源】菜单即可领取。
本文的提示词和完整工作流已经上传至coze空间,感兴趣的朋友可以私信小肥信详细了解~
5. 结语
通过本文的详细讲解,相信你对如何使用 Coze 工作流 批量采集 抖音 和 小红书 对标账号信息,并将其整理到 飞书表格 中有了更清晰的认识。虽然整个工作流涉及的节点较多,流程也相对复杂,但只要理清思路,掌握关键节点的配置方法,你也能搭建出属于自己的高效情报收集系统。
如果本文对你有帮助不要忘记动动小手点点赞哦~你的支持是我最大更新动力~
