scrapyd及gerapy的使用及docker-compse部署

一、scrapyd的介绍

scrapyd是一个用于部署和运行scrapy爬虫的程序,它允许你通过JSON API(也即是web api)来部署爬虫项目和控制爬虫运行,scrapyd是一个守护进程,监听爬虫的运行和请求,然后启动进程来执行它们

  1. scrapyd的安装
bash 复制代码
scrapyd服务端: pip install scrapyd
scrapyd客户端: pip install scrapyd-client
  1. 启动scrapyd服务

在scrapy项目路径下 启动scrapyd的命令:sudo scrapyd 或 scrapyd。启动之后就可以打开本地运行的scrapyd,浏览器中访问本地6800端口可以查看scrapyd的监控界面

  • 点击Job可以查看任务监控
  1. 通过scrapyd部署scrapy项目
  • 配置需要部署的项目:编辑需要部署的项目的scrapy.cfg文件(需要将哪一个爬虫部署到scrapyd中,就配置该项目的该文件)
  • 部署项目到scrapyd

同样在scrapy项目路径下执行:

bash 复制代码
scrapyd-deploy 部署名(配置文件中设置的名称) -p 项目名称
以上面配置文件为例子:scrapyd-deploy Baidu -p my_spider 
  1. 管理项目

启动项目:

bash 复制代码
curl http://localhost:6800/schedule.json -d project=project_name -d spider=spider_name

这里就可以看到使用web api调度有多么麻烦了,于是引入下面的gerapy

二、gerapy

  1. 什么是gerapy

Gerapy 是一款分布式爬虫管理框架,支持 Python 3,基于 Scrapy、Scrapyd、Scrapyd-Client、Scrapy-Redis、Scrapyd-API、Scrapy-Splash、Jinjia2、Django、Vue.js 开发,Gerapy 可以帮助我们:​

  1. 更方便地控制爬虫运行
  2. 更直观地查看爬虫状态
  3. 更实时地查看爬取结果
  4. 更简单地实现项目部署
  5. 更统一地实现主机管理

通俗的解释:Gerapy 的最主要的目标是将 Scrapyd 的命令行操作转化为直观的 Web 点击操作。它提供了一个可视化的 Web 界面,让用户通过界面轻松地进行 Scrapy 项目的管理、监控和部署,而不必直接使用 Scrapyd 的命令行

  1. Gerapy的安装
  • 执行如下命令,等待安装完毕
bash 复制代码
​ pip3 install gerapy
  • 验证gerapy是否安装成功

​ 在终端中执行 gerapy 会出现如下信息

go 复制代码
Usage:​ gerapy init [--folder=]​ gerapy migrate​ gerapy createsuperuser​ gerapy runserver []`
  1. Gerapy配置启动
  • 新建一个项目:gerapy init

​ 执行完该命令之后会在当前目录下生成一个gerapy文件夹,进入该文件夹,会找到一个名为projects的文件夹

对数据库进行初始化(在gerapy目录中操作),执行如下命令

clike 复制代码
​ gerapy migrate

​ 对数据库初始化之后会生成一个SQLite数据库,数据库保存主机配置信息和部署版本等​

  1. 启动 gerapy服务: gerapy runserver

​此时启动gerapy服务的这台机器的8000端口上开启了Gerapy服务,在浏览器中输入http://localhost:8000就能进入Gerapy管理界面,在管理界面就可以进行主机管理和界面管理

  1. 通过Gerapy配置管理scrapy项目
  • 添加主机

    需要添加 IP、端口,以及名称,点击创建即可完成添加,点击返回即可看到当前添加的 Scrapyd 服务列表,创建成功后,我们可以在列表中查看已经添加的服务

  • 执行爬虫,就点击调度.然后运行. (前提是: 我们配置的scrapyd中,已经发布了爬虫.)


  • 配置Projects.我们可以将scarpy项目直接放到 /gerapy/projects下


点击部署点击部署按钮进行打包和部署,在右下角我们可以输入打包时的描述信息,类似于 Git 的 commit 信息,然后点击打包按钮,即可发现 Gerapy 会提示打包成功,同时在左侧显示打包的结果和打包名称。


  • 选择一个站点,点击右侧部署,将该项目部署到该站点上

来到clients界面,找到部署该项目的节点,点击调度

三、基于docker-compose的方式

docker-compose的优势就不说了,直接贴文件,应该有人需要的:

yaml 复制代码
version: '3'

services:
  scrapyd:
    container_name: scrapyd
    image: germey/scrapyd:latest
    #network_mode: "host"
    ports:
         - "6800:6800"
    volumes:
         - /opt/docker/scrapyd_gerapy/scrapyd/app:/app
    restart: always

  gerapy:
    container_name: gerapy
    image: germey/gerapy:latest
    #environment:
    # - GERAPY_PORT=8001(有大佬知道如何覆盖镜像里的默认端口麻烦告知一下)
        #network_mode: "host"
    ports:
             - "8001:8000"
    volumes:
      - /opt/docker/scrapyd_gerapy/gerapy:/app/gerapy
    depends_on:
      - scrapyd
    restart: always
相关推荐
苏州向日葵2 小时前
virtualBox安装ubuntu,常用知识点
linux·运维·ubuntu
夜光小兔纸2 小时前
SQL Server 修改数据库名及物理数据文件名
运维·数据库·sql server
yangzx的网工日常2 小时前
网络的那些事——初级——OSPF(1)
运维·服务器·网络
955.2 小时前
k8s从入门到放弃之k3s轻量级
云原生·容器·kubernetes
代码写到35岁9 小时前
Jenkins自动发布C# EXE执行程序
运维·c#·jenkins
悟纤13 小时前
Docker 操作容器[SpringBoot之Docker实战系列] - 第538篇
spring boot·docker·容器
苹果醋314 小时前
AI大模型竞赛升温:百度发布文心大模型4.5和X1
java·运维·spring boot·mysql·nginx
Tony66668888815 小时前
【基于阿里云上Ubantu系统部署配置docker】
阿里云·docker·云计算
liulilittle15 小时前
OpenSSL 的 AES-NI 支持机制
linux·运维·服务器·算法·加密·openssl·解密