Ubuntu20.04 使用scrapy-splash爬取动态网页

我们要先安装splash服务,使用dock安装,如果dock没有安装,请参考我的上一篇博文:

按照官方文档:https://splash.readthedocs.io/en/stable/install.html

1.下载splash

 sudo docker pull scrapinghub/splash

2.安装scrapy,它是python的包,我们用包管理器安装:

pip3 install scrapy

3.创建scrapy项目,神似与django

 scrapy startproject baiduSpider

其中报错了

 cannot import name 'PseudoElement' from 'cssselect.parser' 

是因为版本不兼容的原因,直接用下面的命令升级到新版尝试解决

 pip3 install --upgrade cssselect

最后,尝试成功,解决了依赖。

4.按照scrapy-splash模块,按照官方文档安装:
https://pypi.org/project/scrapy-splash/

 pip3 install scrapy-splash

在这里,我指定了pip3,怕弄混淆。

5.后台运行Splash服务

 docker run -d -p 8050:8050 scrapinghub/splash

因为用到是8050端口,可以使用如下程序,查到进程

sudo lsof -i :8050

再用kill,结束进程用来释放端口。

若要重新用docker在8050端口启动进程,请重启docker服务,来更新状态。

systemctl restart docker

6.如果你要远程访问splash服务,使用命令

docker run -d -p 0.0.0.0:yyyy:8050 scrapinghub/splash

其中,yyyy代表端口号。重要的两点切记

6.1ufw暴露该端口

6.2. 如果是云服务器,很多厂商会设置安全组,请前往服务器控制中心,暴露yyyy端口

6.3 8050是splash服务默认窗口,更改的办法应该是进入docker容器内部,改动配置文件才可以变更。所以在指定端口时候不要动8050,答应我好吗?就因为这个,我查了一天的问题,一天啊整整一天!!!!!!!!!!!!!!!!!!!!!!这个问题对世界基本毫无意义,但是请相信它对我太有意义了,虽然我改正之后正确的访问了splash服务,没改变什么,但是我好开心!!!再说一遍,我好开心。

7.反思:

命令的每个参数最好都搞清楚意义

8.因为splash其实是一个scrapy框架的插件scrapy-splah要用的服务,因此,我们要学习三个东西,包括splash的使用、scrapy的使用、以及用python操纵splash的插件scrapy-splash的使用。

splash的学习

占坑

scrapy的学习

老办法,我们从官方文档开始。
https://doc.scrapy.org/en/latest/intro/tutorial.html

占坑

scrapy-splash具体爬取动态网页,见另一篇博文

占坑

相关推荐
_曦2 天前
Scrapy如何设置iP,并实现IP重用, IP代理池重用
爬虫·scrapy
m0_7482552612 天前
【头歌】Scrapy爬虫(二)热门网站数据爬取
爬虫·scrapy
小白学大数据13 天前
Django多线程爬虫:突破数据抓取瓶颈
数据库·爬虫·scrapy·数据分析·django
声声codeGrandMaster15 天前
Scrapy中间件的使用
python·scrapy·中间件
蹦蹦跳跳真可爱58919 天前
Python----Python爬虫(Scrapy的应用:CrawlSpider 使用,爬取小说,CrawlSpider版)
爬虫·python·scrapy
百年੭ ᐕ)੭*⁾⁾23 天前
scrapy爬取图片
爬虫·python·scrapy
jidawanghao1 个月前
scrapy 教程
scrapy
后端常规开发人员1 个月前
Scrapy和Selenium结合使用完整步骤
python·selenium·scrapy
qq_375872691 个月前
16爬虫:使用requests和scrapy分别从链家获取二手房信息
爬虫·scrapy
qq_375872691 个月前
14爬虫:scrapy实现翻页爬取
爬虫·scrapy