scrapy爬虫基础

一、初识

创建项目:

python 复制代码
scrapy startproject my_one_project    # 创建项目命令
cd my_one_project                     # 先进去, 后面在里面运行
运行爬虫命令为:scrapy crawl tk

spiders下创建test.py

其中name就是scrapy crawl tk ,运行时用的

python 复制代码
# spiders脚本
import scrapy

class TkSpider(scrapy.Spider):
    name = 'tk'                    # 运行爬虫命令为:scrapy crawl tk
    start_urls = ['https://www.baidu.com/']
    def parse(self, response, **kwargs):
        print(1111)
        print(response.text)

运行时:

scrapy.downloadermiddlewares.robotstxt\] DEBUG: Forbidden by robots.txt: \ so所以: **settings.py中** ```python 访问百度地址就设置这个 ROBOTSTXT_OBEY = False 不想看那么多东西,可以设置这个 LOG_LEVEL = 'ERROR' #分别为 CRITICAL< ERROR < WARNING < INFO < DEBUG (设置为 ERROR ,就不会展示INFO) ``` 再次运行 ![](https://i-blog.csdnimg.cn/direct/834be33be3844a3380a34836a6314a1a.png) ## 二、内部如何请求的 在执行parse前,实际上是执行了 start_requests的,在这里面实现了请求。如下图1中的内容写了或者不写都是一样的效果。 ![](https://i-blog.csdnimg.cn/direct/47c838435a2a4003a852af1be4bcc6c0.png) 但是写的话,可以在start_requests方法中, 1. 发出请求之前执行一些额外的操作。如放一个cookie值、headers来请求 ![](https://i-blog.csdnimg.cn/direct/61edad0d9a69480c9747157250a62303.png) 传递了cookie请求后就能获取响应了 2. 请求发出之后,如获取本次请求使用的header ![](https://i-blog.csdnimg.cn/direct/90cd32e2014b4d548558e4c4c69a9cdd.png)

相关推荐
青春不朽5129 小时前
Scrapy框架入门指南
python·scrapy
深蓝电商API11 小时前
处理字体反爬:woff字体文件解析实战
爬虫·python
NPE~12 小时前
自动化工具Drissonpage 保姆级教程(含xpath语法)
运维·后端·爬虫·自动化·网络爬虫·xpath·浏览器自动化
喵手19 小时前
Python爬虫实战:电商价格监控系统 - 从定时任务到历史趋势分析的完整实战(附CSV导出 + SQLite持久化存储)!
爬虫·python·爬虫实战·零基础python爬虫教学·电商价格监控系统·从定时任务到历史趋势分析·采集结果sqlite存储
摘星|19 小时前
正则匹配与爬虫爬取图片路径综合练习
爬虫
喵手19 小时前
Python爬虫实战:京东/淘宝搜索多页爬虫实战 - 从反爬对抗到数据入库的完整工程化方案(附CSV导出 + SQLite持久化存储)!
爬虫·python·爬虫实战·零基础python爬虫教学·京东淘宝页面数据采集·反爬对抗到数据入库·采集结果csv导出
0思必得020 小时前
[Web自动化] Selenium获取元素的子元素
前端·爬虫·selenium·自动化·web自动化
搂着猫睡的小鱼鱼1 天前
Ozon 商品页数据解析与提取 API
爬虫·php
深蓝电商API1 天前
住宅代理与数据中心代理在爬虫中的选择
爬虫·python
csdn_aspnet1 天前
Libvio.link爬虫技术深度解析:反爬机制破解与高效数据抓取
爬虫·反爬·libvio