一.简介
Scrapy 是用 Python 实现的一个为了爬取网站数据、提取结构性数据而编写的应用框架(异步爬虫框架) 通常我们可以很简单的通过 Scrapy 框架实现一个爬虫,抓取指定网站的内容或图片。 Scrapy使用了Twisted异步网络框架,可以加快我们的下载速度
1.异步和非阻塞的区别

异步:调用在发出之后,这个调用就直接返回,不管有无结果 非阻塞:关注的是程序在等待调用结果时的状态,指在不能立刻得到结果之前,该调用不会阻塞当前线程
2.Scrapy的优缺点
优点:
- 
高效性: Scrapy采用异步IO模型,能够高效地处理大规模的数据抓取任务。 
- 
灵活性: 提供了丰富的扩展机制和定制选项,可以根据需求进行灵活的定制和扩展。 
- 
文档丰富: 拥有详细的官方文档和活跃的社区支持,对于新手和有经验的开发者都有很好的学习资源。 
缺点:
- 
学习曲线: 对于初学者来说,Scrapy的学习曲线可能相对陡峭,需要一定的时间和精力来掌握其各种概念和技巧。 
- 
对JavaScript渲染页面支持有限: Scrapy默认情况下不支持JavaScript渲染页面的抓取,需要配合其他工具或技术进行处理。 
- 
资源消耗较大: 在处理大规模数据抓取任务时,Scrapy可能会消耗较多的系统资源,需要合理配置和管理。 
二.Scrapy的工作流程
 1.Scrapy组件
1.Scrapy组件
1.引擎(engine) scrapy已经实现
scrapy的核心, 所有模块的衔接, 数据流程梳理
2.调度器(scheduler) scrapy已经实现
本质上这东西可以看成是一个队列,里面存放着一堆我们即将要发送的请求,可以看成是一个url的容器
它决定了下一步要去爬取哪一个url,通常我们在这里可以对url进行去重操作。
3.下载器(downloader) scrapy已经实现
它的本质就是用来发动请求的一个模块,小白们完全可以把它理解成是一个requests.get()的功能,
只不过这货返回的是一个response对象.
4.爬虫(spider) 需要手写
这是我们要写的第一个部分的内容, 负责解析下载器返回的response对象,从中提取到我们需要的数据
5.管道(Item pipeline)
这是我们要写的第二个部分的内容, 主要负责数据的存储和各种持久化操作
6.下载中间件(downloader Middlewares)
一般不用手写
可以自定义的下载扩展 比如设置代理 处理引擎与下载器之间的请求与响应(用的比较多)
7 .爬虫中间件(Spider Middlewares) 一般不用手写
可以自定义requests请求和进行response过滤(处理爬虫程序的响应和输出结果以及新的请求)
2.Scrapy文件说明
            
            
              python
              
              
            
          
              # 爬虫程序的名字
    name = 'bd'
    # 可以爬取的范围
    # 有可能我们在实际进行爬取的时候  第一页可能是xxx.com 第三页可能就变成了xxx.cn 
    # 或者xxx.yy 那么可能就会爬取不到数据
    # 所以我们需要对allowed_domains进行一个列表的添加
    allowed_domains = ['baidu.com']
    # 起始url地址  会根据我们的allowed_domains对网页前缀进行一定的补全 
    # 但有时候补全的url不对 所以我们也要去对他进行修改
    start_urls = ['https://www.baidu.com/']
    # 专门用于解析数据的
    def parse(self, response):  items.py 数据封装的
middlewares.py 中间件(爬虫中间件和下载中间件)
pipelines.py 管道(保存数据的)
settings.py Scrapy的配置项
1 自动生成的配置,无需关注,不用修改
            
            
              python
              
              
            
          
          BOT_NAME = 'mySpider'
SPIDER_MODULES = ['mySpider.spiders']
NEWSPIDER_MODULE = 'mySpider.spiders'2 取消日志
            
            
              python
              
              
            
          
          LOG_LEVEL = 'WARNING'3 设置UA,但不常用,一般都是在MiddleWare中添加
            
            
              python
              
              
            
          
          USER_AGENT = 'mySpider (+http://www.yourdomain.com)'4 遵循robots.txt中的爬虫规则,很多人喜欢False,当然我也喜欢....
            
            
              python
              
              
            
          
          ROBOTSTXT_OBEY = True5 对网站并发请求总数,默认16
            
            
              python
              
              
            
          
          CONCURRENT_REQUESTS = 326 相同网站两个请求之间的间隔时间,默认是0s。相当于time.sleep()
            
            
              python
              
              
            
          
          DOWNLOAD_DELAY = 37 禁用cookie,默认是True,启用
            
            
              python
              
              
            
          
          COOKIES_ENABLED = False8 默认的请求头设置
            
            
              python
              
              
            
          
          DEFAULT_REQUEST_HEADERS = {
  'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/103.0.0.0 Safari/537.36',
  'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
  'Accept-Language': 'en',
}9 配置启用爬虫中间件,Key是class,Value是优先级
            
            
              python
              
              
            
          
          SPIDER_MIDDLEWARES = {
   'mySpider.middlewares.MyspiderSpiderMiddleware': 543,
}10 配置启用Downloader MiddleWares下载中间件
            
            
              python
              
              
            
          
          DOWNLOADER_MIDDLEWARES = {
   'mySpider.middlewares.MyspiderDownloaderMiddleware': 543,
}11 开启管道 配置启用Pipeline用来持久化数据
            
            
              python
              
              
            
          
          ITEM_PIPELINES = {
   'mySpider.pipelines.MyspiderPipeline': 300,
}三.Scrapy快速入门
安装Scrapy: 在命令行中使用pip安装Scrapy:
pip install scrapy
创建一个新项目: 在命令行中使用scrapy startproject命令创建一个新的Scrapy项目。例如:
scrapy startproject myproject
定义爬虫: 进入项目目录,并使用scrapy genspider命令创建一个新的爬虫。例如:
cd myproject scrapy genspider myspider example.com
编写爬虫代码: 打开新创建的爬虫文件(位于spiders目录下),在其中编写抓取逻辑和数据提取规则。
执行爬虫程序:
scrapy crawl bd
scrapy crawl:固定的
db:执行的爬虫程序的名字可以通过start.py文件执行爬虫项目:
from scrapy import cmdline
cmdline.execute("scrapy crawl bd".split())

