爬虫学习笔记之Robots协议相关整理

定义

Robots协议也称作爬虫协议、机器人协议,全名为网络爬虫排除标准,用来告诉爬虫和搜索引擎哪些页面可以爬取、哪些不可以。它通常是一个叫做robots.txt的文本文件,一般放在网站的根目录下。

robots.txt文件的样例

  • 对有所爬虫均生效,只能爬取public目录
html 复制代码
User-agent:*
Disallow:/
Allow:/public/
  • 禁止所有爬虫访问所有目录
html 复制代码
User-agent:*
Disallow:/
  • 允许所有爬虫访问所有目录
html 复制代码
User-agent:*
Disallow:
  • 禁止所有爬虫访问网站某些目录也可以写做
html 复制代码
User-agent:*
Disallow:/private/
Disallow:/tmp/
  • 只允许某一个爬虫访问所有目录
html 复制代码
User-agent:WebCrawler
Disallow:
User-agent:*
Disallow:/

一些常见的爬虫名称

robotparser使用

该模块提供了一个类:RobotFileParser,它可以根据某网站的robots.txt文件判断一个爬虫是否有权限爬取这个网页。

RobotFileParser类的常用方法

  • set_url:用来设置robots.txt文件的链接。
  • read:读取robots.txt文件进行分析。
  • parse:用来解析robots.txt文件
  • can_fetch:该方法有两个参数,第一个是User-Agent,第二个是要抓取的URL。返回结果是True或者False,表示User-Agent指示的搜索引擎是否可以抓取这个URL。
  • mtime:返回上次抓取和分析robots.txt文件的时间。
  • modified:它对长时间分析和抓取的搜索爬虫很有帮助,可以将当前时间设置为上次抓取和分析robots.txt文件的时间

代码示例

html 复制代码
from urllib.robotparser import RobotFileParser

rp = RobotFileParser()
rp.set_url("http://www.baidu.com/robots.txt")
rp.read()

print(rp.can_fetch("Baiduspider", "http://www.baidu.com"))
print(rp.can_fetch("Baiduspider", "http://www.baidu.com/homepage/"))
print(rp.can_fetch("Googlebot", "http://www.baidu.com/homepage/"))
  • 这里能看到,Googlebot是被严格禁止了的,所以为false

以上,便是robots协议的学习笔记整理,来源于当前正在看的一本书--《Python3网络爬虫开发实战》。后面会持续学习并整理的。

感谢阅读~

相关推荐
Tassel_YUE1 小时前
napalm_ce 报错 No module named ‘netmiko.ssh_exception‘ 解决方案(随手记)
运维·python·ssh·netmiko·网络自动化
西猫雷婶2 小时前
python学opencv|读取图像(五十六)使用cv2.GaussianBlur()函数实现图像像素高斯滤波处理
python·opencv·计算机视觉
一只各种都搞一下的攻城狮2 小时前
3天用AI辅助完成资源卫星高光谱数据基本处理软件
python·ai辅助·遥感光谱·几何校正
白白糖2 小时前
Day 28 卡玛笔记
python·算法·力扣
Lx3522 小时前
Pandas高级数据处理:数据流处理
后端·python·pandas
AI量化投资实验室3 小时前
celery策略回测任务运行及金融量化数据增量更新|年化18.8%,回撤8%的组合策略(python代码)
开发语言·python·金融
look_outs3 小时前
PyQt4学习笔记1】使用QWidget创建窗口
数据库·笔记·python·学习·pyqt
金融OG3 小时前
100.1 AI量化面试题:解释夏普比率(Sharpe Ratio)的计算方法及其在投资组合管理中的应用,并说明其局限性
大数据·人工智能·python·机器学习·金融
新与3 小时前
动态获取脚本名称作为日志文件的名称
python
明晚十点睡3 小时前
2022ACMToG | 寻找快速的去马赛克算法
人工智能·python·深度学习·算法·机器学习·计算机视觉