有了 25k Star 的MediaCrawler爬虫库加持,三分钟搞定某红书、某音等平台爬取!

大家好,我是程序员凌览

今天给大家介绍一个超实用的Python爬虫实战项目------MediaCrawler

这个项目可以实现小红书、抖音、快手、B站和微博的爬虫功能,覆盖了当下热门的自媒体平台。

它能够高效抓取这些平台上的视频、图片、评论、点赞和转发等信息。

MediaCrawler 支持的平台及功能如下图:

快速开始

下载项目代码

访问 MediaCrawler GitHub 仓库,点击"Code"按钮下载项目代码。

项目代码结构:

安装 Python 环境

如果尚未安装 Python,推荐使用 uv 软件包管理器进行安装。uv 是一款便捷的工具,可以简化 Python 的安装过程。安装 uv 的方法如下:

bash 复制代码
curl -LsSf https://astral.sh/uv/install.sh | sh

更多安装方式和详细信息请参考 uv 安装文档。如果已有 Python 环境,可跳过此步骤。

安装项目依赖

切换到MediaCrawler ,项目目录,运行以下命令安装依赖库:

bash 复制代码
pip install -r requirements.txt

安装 Playwright 浏览器驱动

为了确保爬虫正常运行,需要安装 Playwright 浏览器驱动。运行以下命令完成安装:

bash 复制代码
playwright install

配置爬虫参数

在运行爬虫之前,可以根据需要对爬虫进行配置。具体的配置选项可以在 base_config.py 文件中修改。例如,可以启用或禁用评论爬取功能、设置IP代理池等。请根据项目需求进行相应配置。

执行爬虫代码

环境搭建完成后,就可以运行爬虫程序了。根据需要选择对应的平台和功能,执行以下命令:

bash 复制代码
python main.py --platform <平台名称> --lt <登录方式> --type <爬取类型>

例如,爬取小红书的帖子信息和评论:

bash 复制代码
python main.py --platform xhs --lt qrcode --type search

更多使用方法可以通过运行 python main.py --help 查看。

实验

以小红书作为例子,命令行运行代码,保存的数据如下:

数据存储支持 MySQL 数据库CSV 文件JSON 文件 。如果选择存储为 CSV 文件JSON 文件 ,文件将被自动放置在项目根目录下的 data/ 文件夹中。

MediaCrawler仓库地址:github.com/NanmiCoder/...

最后

给大家推荐几款超实用的工具:

  • 密码管家 是一款 utools 插件,能帮你轻松管理各种繁杂的账号和密码,再也不用担心忘记密码啦!
  • 微信公众号排版编辑器 是专为微信公众号运营者设计的排版工具,无论是图文排版,还是格式调整,都能轻松搞定,让你的文章看起来更加专业、美观。

对了,我还会不定时分享更多好玩、有趣的 GitHub 开源项目,欢迎持续关注哦!

相关推荐
qq_372906938 分钟前
如何在 Vuetify 中可靠捕获 Chip 关闭事件(包括键盘触发)
jvm·数据库·python
Ulyanov9 分钟前
用Pyglet打造AI数字猎人:从零开始的Python游戏开发与强化学习实践
开发语言·人工智能·python
zopple24 分钟前
ThinkPHP5常见问题及解决方案
python·php·laravel
希望永不加班29 分钟前
Spring AOP 代理模式:CGLIB 与 JDK 动态代理区别
java·开发语言·后端·spring·代理模式
木斯佳31 分钟前
前端八股文面经大全:携程前端一面(2026-04-17)·面经深度解析
前端·状态模式
Java后端的Ai之路37 分钟前
LangChain ReAct Agent 核心技术问答
前端·react.js·langchain
码喽7号1 小时前
Vue学习七:MockJs前端数据模拟
前端·vue.js·学习
23471021271 小时前
4.15 学习笔记
开发语言·软件测试·python
qq_372154231 小时前
SQL嵌套查询中常见报错排查_语法与权限处理
jvm·数据库·python
浮游本尊1 小时前
一次合同同步背后的多阶段流水线:从外部主数据到本地歧义消解
后端