前言
最近,我要对eBay中部分商品进行价格监控,一开始我只是想做一件很普通的事:按关键词抓一批 eBay 商品,把价格导出来给同事看。但是,真正做起来才发现,难点从来不是把请求跑通,而是后面的重复劳动------今天换关键词,明天换导出格式,后天又要把原始 JSON 整成业务能直接看的报告。脚本本身不难写,难的是每次都要重新拼一遍流程 。后来我索性不再维护一次性脚本,而是把这条链路封装成一个 Skill ,用 👉Bright Data Web Scraper API负责采集,再把下载、导出和价格报告生成统一进固定工作流里。
一、为什么商品采集这么难
如果只是做一次 demo,eBay 商品采集看起来并不复杂。但如果你想把它放进真实工作流,麻烦很快就会从"能不能抓到"变成"怎么稳定交付"。
| 环节 | 常见问题 | DIY 代价 |
|---|---|---|
| 关键词搜索 | 结果量大、字段层级不稳定 | 每次都要重新核对结构 |
| 数据导出 | JSON、CSV、NDJSON 需求不同 | 需要手动转换 |
| 字段清洗 | 价格、币种、运费、卖家字段命名不统一 | 还要补清洗脚本 |
| 结果交付 | 技术同事看原始数据,业务同事要看报告 | 还得再做一层展示 |
真正麻烦的不是"调一次 API",而是把搜索、下载、清洗、导出、报告串成一个能重复执行的流程。只要其中任何一步还依赖人工,这套东西就很难复用,更别说交给团队里的其他人继续使用。
二、这套方案是怎么工作的
我最后采用的方案很简单:Bright Data 负责把数据采回来,Skill 负责告诉 AI 应该按什么顺序把整件事做完。
这里的 Skill 本质上是一份可执行的操作说明书。用户只需要给出关键词和想要的输出,Codex 或 Claude 就会根据 SKILL.md 里的约定,自动完成搜索、获取快照、下载导出文件,并在需要时生成 HTML 价格报告。
text
用户输入关键词
↓
Codex / Claude 调用 ebay-product-search skill
↓
Bright Data Web Scraper API 返回 snapshot_id
↓
导出 json / csv / ndjson / jsonl
↓
生成 HTML 价格报告
↓
继续让 AI 基于结果做总结或分析
总的来说就是:Bright Data 解决采集执行层,Skill 固化流程,HTML 报告解决结果交付层。它不只是"把数据抓下来",而是完整的数据处理流程。
三、前置准备
开始之前,需要准备下面几样东西:
- Bright Data 账号
- Bright Data API Token
- 可用的 Codex 或 Claude 环境
- 本地
ebay-product-searchskill - Python 运行环境
如果你还没有账号,可以先看 👉Bright Data Web Scraper API 页面。后文用到的 API Key 都统一写成 YOUR_BRIGHTDATA_API_KEY,替换成你自己的即可。
四、详细教程
配置 Bright Data Web Scraper API
这一步很关键:先在 Bright Data 控制台获取 API Token。我的脚本里已经内置了 eBay 数据集 ID ,大多数情况下只需要配置 BRIGHTDATA_TOKEN;如果你的账号使用的是其他数据集,再额外覆盖 BRIGHTDATA_EBAY_DATASET_ID。
注册非常的简单,使用邮件即可,👉Bright Data Web Scraper API,注册并输入折扣码(tao20)即送20美元体验金。

设置-用户管理界面点击应用促销代码。

然后输入tao20 折扣码,就可以获得20美元体验金。

进入控制台,在用户管理界面就可以找到API Token。

这两个参数是读取的环境变量,执行命令如下:
bash
export BRIGHTDATA_TOKEN=YOUR_BRIGHTDATA_API_KEY
export BRIGHTDATA_EBAY_DATASET_ID=gd_ltr9mjt81n0zzdk1fb
这样配置好之后,Skill 在执行时就能直接调用 Bright Data Web Scraper API,后续的快照导出和报告生成也都会基于这个 token 完成。
在 Codex / Claude 中启用 Skill
skill下载地址:github 地址,目录如下,可以对比一下下载是否正确。

拿到ebay-product-search skill之后,可以直接把这个skill放到对应客户端的目录下。
claude code 就是.cluade/skills,codex 就是.codex/skills,其他软件同理,比如这里我就放到了codex目录下作为演示。

然后我们可以直接在对话栏中给自然语言的描述,说出你想要的内容比如:
text
请使用 $ebay-product-search 搜索 eBay 上的"baby toys",获取10条数据即可,导出 JSON 和 CSV,并生成一份 HTML 价格报告。
说完这句话模型就会自动把多个步骤串起来。可以看到给出了结果那就没有问题了!这样做的好处很实际:只需要一句话就可以获得想要的内容。
成功调用样式展示:

生成文档内容展示:


如果你也想试试可以立即注册 Bright Data,使用 Web Scraper API 在 5 分钟内构建你的eBay 数据采集自动化流程。
eBay 商品价格监控实战
我们的最终目标不是手工跑一串命令,而是把流程交给 Skill。SKILL.md 里已经定义了整条链路:先确认关键词和输出目录,再发起搜索,接着下载快照导出,最后按需生成 HTML 报告。
我在正文里只演示一个场景:输入一个关键词,让 Skill 自动完成 eBay 商品搜索、结构化导出和价格报告生成。比如我常用的示例词是 baby toys。

在这个场景里,用户不需要自己分步骤执行脚本,只要把需求说清楚即可。Skill 会完成背后的搜索和导出流程,最终交付几类结果:
- 原始搜索响应,用来保留任务记录和快照信息
- JSON / CSV /NDJSON /JSONL 导出文件,用来做后续筛选或二次处理
- HTML 价格报告,用来直接浏览、分享和汇报
到这里其实还可以再往前走一步:不是停在"报告生成完成",而是让 AI 继续读取结果做分析。比如生成 HTML 报告之后,我会继续追加一句:
text
请根据刚生成的价格报告,总结价格区间、最低价商品、运费差异,
并标出值得关注的低价结果。


这样一来,Skill 负责把数据采集和整理做好,AI 再接着把结果进行解释。对于业务同事来说,最终交付就不只是原始数据,而是一份更接近可直接消费的信息摘要。
测试与基准测试
对我自己来说,这套 Skill 化方案带来的改进,主要体现在工程效率上,而不是某个夸张的营销数字。
| 指标 | 临时脚本方案 | Skill + Bright Data 方案 |
|---|---|---|
| 跑通一次需求所需时间 | 依赖手动串步骤 | 流程固定,可重复执行 |
| 导出格式支持 | 通常只做一种 | 可直接导出多种格式 |
| 报表交付 | 需要额外整理 | 可直接生成 HTML 报告 |
| 新人接手成本 | 需要先读代码 | 先读 Skill 再使用 |
| 重复执行成本 | 每次都要回忆流程 | 按固定方式复用 |
真正节省下来的,不是某一条命令少敲几秒,而是不用反复重建上下文。以前脚本是"我能跑";现在 Skill 是"团队能复用"。这两者的差别,长期看非常明显。
五、所有资料自取
本文相关文件包括:
SKILL.mdscripts/search_ebay.pyscripts/download_snapshot.pyscripts/build_price_report.pyreferences/workflow.mdreferences/field_mapping.md
使用方式也很简单:
- 放置或安装
ebay-product-searchskill - 配置
BRIGHTDATA_TOKEN=YOUR_BRIGHTDATA_API_KEY - 用自然语言触发 skill,生成导出文件和 HTML 价格报告
下载地址,可以直接去github中下载使用:ebay-product-search skill github 地址
六、成本分析
如果只看单次请求,一次性脚本似乎更省事;但把需求拉长到一周或一个月,维护成本很快就会反超。Skill 化之后,采集、导出和报告生成都变成固定流程,省下来的不是几秒执行时间,而是反复改脚本、补格式、做交接的工程时间。对个人开发者来说,这是少返工;对团队来说,这是可复用。
同时说一下我为什么选择Bright Data Web Scraper API ,
因为它是采用按结果付费模式(Pay-per-result),只有成功返回数据才计费,非常适合大规模数据采集和自动化流程。并且Bright Data Web Scraper API 支持 100+ 网站,包括:eBay、Amazon、Walmart、LinkedIn、Google Maps、TikTok等等。
七、总结
写完这套 eBay 商品采集 Skill 之后,我最大的感受是:很多时候我们缺的不是"再多一个脚本",而是"把脚本组织成工作流"的那一步。
Bright Data 解决的是采集执行层,Skill 解决的是流程复用层,HTML 报告和后续 AI 分析解决的是结果交付层。三者组合起来,才让这套方案真正从"能跑"变成"能交付、能复用"。
如果你也想试试这条链路,可以先注册 Bright Data,拿到试用额度后,把这篇文章对应的 Skill 和示例文件下载下来,再把 YOUR_BRIGHTDATA_API_KEY 替换成你自己的 token 跑第一遍。免费注册并输入折扣码(tao20) 👉Bright Data,立即获得 $20 美金试用额度。下载本文skill,5分钟内搭建你的多平台数据采集流水线。只为成功采集的数据付费。