scrapy入门例子:获取百度热搜

想要创建一个Scrapy项目来爬取百度的搜索结果,虽然百度的搜索结果通常受到robots.txt的限制并且可能需要处理JavaScript渲染的内容,但我们可以创建一个基础的Scrapy项目来演示如何定义这样的结构和爬虫。请注意,实际爬取百度或其他大型网站时,应遵守其robots.txt规则和使用条款。

  1. 创建Scrapy项目

在命令行中创建一个新的Scrapy项目:

bash 复制代码
scrapy startproject baidu_scraper
  1. 定义Item

baidu_scraper/baidu_scraper/items.py文件中,定义一个BaiduResultItem类:

python 复制代码
import scrapy

class BaiduResultItem(scrapy.Item):
    seq = scrapy.Field()
    title = scrapy.Field()
  1. 编写Spider

baidu_scraper/baidu_scraper/spiders目录下创建一个名为baidu_spider.py的文件,并编写你的Spider:

python 复制代码
import scrapy
from baidu_scraper.items import BaiduResultItem

class BaiduSpider(scrapy.Spider):
    name = 'baidu'
    allowed_domains = ['baidu.com']
    start_urls = ['https://www.baidu.com']

    def parse(self, response):
        # 使用XPath选择热搜的li元素    
        hots = response.xpath('//*[@id="s_xmancard_news_new"]/div/div[1]/div/div/ul/li')    
        # 解析每个搜索结果的序号和标题
        for hot in hots:
            item = BaiduResultItem()
            item['seq'] = hot.xpath('./a/span[0]/text()').get()
            item['title'] = hot.xpath('./a/span[1]/text()').get()
            print(item)
            yield item
  1. 运行Spider

最后,你可以在命令行中运行你的Spider:

bash 复制代码
cd baidu_scraper
scrapy crawl baidu

以上步骤展示了如何用Scrapy创建一个基础的爬虫项目,但请记得在实际应用中要遵循合法合规的原则。

请注意,百度的结果页面通常会动态加载内容,且其结构可能会频繁改变。上面的代码可能无法正确工作,请根据实际情况进行微调。

如果包含动态页面,你可能需要使用如Selenium或Splash等工具,或者使用API(如果有的话)。同时,对于百度这样的大型网站,其robots.txt文件可能禁止爬虫访问某些页面,因此在进行任何爬取活动前,请确保阅读并遵守目标网站的使用条款和robots.txt文件。

相关推荐
0思必得06 分钟前
[Web自动化] 反爬虫
前端·爬虫·python·selenium·自动化
2301_8223827624 分钟前
Python上下文管理器(with语句)的原理与实践
jvm·数据库·python
喵手41 分钟前
Python爬虫实战:从零搭建字体库爬虫 - requests+lxml 实战采集字体网字体信息数据(附 CSV 导出)!
爬虫·python·爬虫实战·零基础python爬虫教学·csv导出·采集字体库数据·字体库字体信息采集
2301_790300961 小时前
Python深度学习入门:TensorFlow 2.0/Keras实战
jvm·数据库·python
程序员敲代码吗3 小时前
用Python生成艺术:分形与算法绘图
jvm·数据库·python
Yyyyy123jsjs3 小时前
如何通过免费的外汇API轻松获取实时汇率数据
开发语言·python
喵手3 小时前
Python爬虫实战:GovDataMiner —— 开放数据门户数据集元数据采集器(附 CSV 导出)!
爬虫·python·爬虫实战·python爬虫工程化实战·零基础python爬虫教学·open data·开放数据门户数据集列表
历程里程碑3 小时前
滑动窗口---- 无重复字符的最长子串
java·数据结构·c++·python·算法·leetcode·django
人工智能AI技术4 小时前
【Agent从入门到实践】43 接口封装:将Agent封装为API服务,供其他系统调用
人工智能·python