Ubuntu20.04 使用scrapy-splash爬取动态网页

我们要先安装splash服务,使用dock安装,如果dock没有安装,请参考我的上一篇博文:

按照官方文档:https://splash.readthedocs.io/en/stable/install.html

1.下载splash

 sudo docker pull scrapinghub/splash

2.安装scrapy,它是python的包,我们用包管理器安装:

pip3 install scrapy

3.创建scrapy项目,神似与django

 scrapy startproject baiduSpider

其中报错了

 cannot import name 'PseudoElement' from 'cssselect.parser' 

是因为版本不兼容的原因,直接用下面的命令升级到新版尝试解决

 pip3 install --upgrade cssselect

最后,尝试成功,解决了依赖。

4.按照scrapy-splash模块,按照官方文档安装:
https://pypi.org/project/scrapy-splash/

 pip3 install scrapy-splash

在这里,我指定了pip3,怕弄混淆。

5.后台运行Splash服务

 docker run -d -p 8050:8050 scrapinghub/splash

因为用到是8050端口,可以使用如下程序,查到进程

sudo lsof -i :8050

再用kill,结束进程用来释放端口。

若要重新用docker在8050端口启动进程,请重启docker服务,来更新状态。

systemctl restart docker

6.如果你要远程访问splash服务,使用命令

docker run -d -p 0.0.0.0:yyyy:8050 scrapinghub/splash

其中,yyyy代表端口号。重要的两点切记

6.1ufw暴露该端口

6.2. 如果是云服务器,很多厂商会设置安全组,请前往服务器控制中心,暴露yyyy端口

6.3 8050是splash服务默认窗口,更改的办法应该是进入docker容器内部,改动配置文件才可以变更。所以在指定端口时候不要动8050,答应我好吗?就因为这个,我查了一天的问题,一天啊整整一天!!!!!!!!!!!!!!!!!!!!!!这个问题对世界基本毫无意义,但是请相信它对我太有意义了,虽然我改正之后正确的访问了splash服务,没改变什么,但是我好开心!!!再说一遍,我好开心。

7.反思:

命令的每个参数最好都搞清楚意义

8.因为splash其实是一个scrapy框架的插件scrapy-splah要用的服务,因此,我们要学习三个东西,包括splash的使用、scrapy的使用、以及用python操纵splash的插件scrapy-splash的使用。

splash的学习

占坑

scrapy的学习

老办法,我们从官方文档开始。
https://doc.scrapy.org/en/latest/intro/tutorial.html

占坑

scrapy-splash具体爬取动态网页,见另一篇博文

占坑

相关推荐
IT数据小能手2 天前
Scrapy框架与其他Python爬虫库的对比分析
爬虫·python·scrapy
Jesse_Kyrie3 天前
准备了一些简单的面试题
开发语言·python·scrapy·mongodb·node.js
武子康4 天前
小说爬虫-01爬取总排行榜 分页翻页 Scrapy SQLite SQL 简单上手!
爬虫·python·sql·scrapy·sqlite
Avaricious_Bear6 天前
Python爬虫从入门到入狱之爬取知乎用户信息
爬虫·python·scrapy
万邦Coco7 天前
Scrapy如何对爬虫数据进行清洗和处理?
爬虫·scrapy
#不吃香菜7 天前
scrapy模块的基础使用
scrapy
武子康7 天前
小说爬虫-02 爬取小说详细内容和章节列表 推送至RabbitMQ 消费ACK确认 Scrapy爬取 SQLite
后端·爬虫·scrapy·sqlite·rabbitmq
_Soy_Milk7 天前
数据可视化案例
爬虫·python·scrapy·信息可视化·pandas·数据可视化·pyecharts
我就是全世界8 天前
Python爬虫框架:Scrapy、EasySpider与FEAPDER的比较与实践
爬虫·python·scrapy