有了 25k Star 的MediaCrawler爬虫库加持,三分钟搞定某红书、某音等平台爬取!

大家好,我是程序员凌览

今天给大家介绍一个超实用的Python爬虫实战项目------MediaCrawler

这个项目可以实现小红书、抖音、快手、B站和微博的爬虫功能,覆盖了当下热门的自媒体平台。

它能够高效抓取这些平台上的视频、图片、评论、点赞和转发等信息。

MediaCrawler 支持的平台及功能如下图:

快速开始

下载项目代码

访问 MediaCrawler GitHub 仓库,点击"Code"按钮下载项目代码。

项目代码结构:

安装 Python 环境

如果尚未安装 Python,推荐使用 uv 软件包管理器进行安装。uv 是一款便捷的工具,可以简化 Python 的安装过程。安装 uv 的方法如下:

bash 复制代码
curl -LsSf https://astral.sh/uv/install.sh | sh

更多安装方式和详细信息请参考 uv 安装文档。如果已有 Python 环境,可跳过此步骤。

安装项目依赖

切换到MediaCrawler ,项目目录,运行以下命令安装依赖库:

bash 复制代码
pip install -r requirements.txt

安装 Playwright 浏览器驱动

为了确保爬虫正常运行,需要安装 Playwright 浏览器驱动。运行以下命令完成安装:

bash 复制代码
playwright install

配置爬虫参数

在运行爬虫之前,可以根据需要对爬虫进行配置。具体的配置选项可以在 base_config.py 文件中修改。例如,可以启用或禁用评论爬取功能、设置IP代理池等。请根据项目需求进行相应配置。

执行爬虫代码

环境搭建完成后,就可以运行爬虫程序了。根据需要选择对应的平台和功能,执行以下命令:

bash 复制代码
python main.py --platform <平台名称> --lt <登录方式> --type <爬取类型>

例如,爬取小红书的帖子信息和评论:

bash 复制代码
python main.py --platform xhs --lt qrcode --type search

更多使用方法可以通过运行 python main.py --help 查看。

实验

以小红书作为例子,命令行运行代码,保存的数据如下:

数据存储支持 MySQL 数据库CSV 文件JSON 文件 。如果选择存储为 CSV 文件JSON 文件 ,文件将被自动放置在项目根目录下的 data/ 文件夹中。

MediaCrawler仓库地址:github.com/NanmiCoder/...

最后

给大家推荐几款超实用的工具:

  • 密码管家 是一款 utools 插件,能帮你轻松管理各种繁杂的账号和密码,再也不用担心忘记密码啦!
  • 微信公众号排版编辑器 是专为微信公众号运营者设计的排版工具,无论是图文排版,还是格式调整,都能轻松搞定,让你的文章看起来更加专业、美观。

对了,我还会不定时分享更多好玩、有趣的 GitHub 开源项目,欢迎持续关注哦!

相关推荐
heartmoonq2 分钟前
深入理解 Vue 3 响应式系统原理:Proxy、Track 与 Trigger 的协奏曲
前端
zdw3 分钟前
fit parse解析佳明.fit 运动数据,模仿zwift数据展示
python
我叫黑大帅3 分钟前
Sequelize:让你和数据库唠嗑像聊微信一样简单 😎
后端·node.js
独立开阀者_FwtCoder26 分钟前
放弃 JSON.parse(JSON.stringify()) 吧!试试现代深拷贝!
前端·javascript·github
剑桥折刀s34 分钟前
Python打卡:Day46
python
巴里巴气1 小时前
Python爬虫图片验证码和滑块验证码识别总结
爬虫·python
wuxuanok1 小时前
Web后端开发-分层解耦
java·笔记·后端·学习
sword devil9001 小时前
PYQT实战:智能家居中控
python·智能家居·pyqt
NetX行者1 小时前
FastMCP:用于构建MCP服务器的开源Python框架
服务器·python·开源