通过scrapy和Django登录、爬取和持久化数据

使用 ScrapyDjango 实现登录、爬取和持久化数据的完整流程,可以通过以下步骤完成:

  1. 创建 Django 项目和数据库模型:定义一个存储爬取数据的数据库模型。
  2. 创建 Scrapy 项目:实现登录并抓取目标页面的数据。
  3. 整合 Scrapy 和 Django:在 Scrapy 中使用 Django 的模型保存爬取的数据到数据库。

问题背景

在将 Django 和 Scrapy 成功集成后,用户想要持久化爬取到的数据到数据库中。但是,存储后发现,部分元素丢失了。用户猜测自己可能遗漏了一些东西,但无法解决。

以下是用户的爬虫代码:

python 复制代码
from scrapy.http import FormRequest, Request
from scrapy.spider import BaseSpider
from scrapy.selector import HtmlXPathSelector
from scrapy import log
from scrapy.contrib.loader import XPathItemLoader
from datacrowdscrapy.items import DatacrowdItem

class DatacrowdSpider(BaseSpider):
    name = 'datacrowd'
    start_urls = ['https://www.exemple.com/login']

    def parse(self, response):
        parsed = [FormRequest.from_response(
            response,
            formdata={
                'login': 'email@gmail.com',
                'password': 'password'
            },
            callback=self.after_login)]

        return parsed

    def after_login(self, response):
        # check login succeed before going on
        if "authentication failed" in response.body:
            self.log("Login failed", level=log.ERROR)
            return

        selector = HtmlXPathSelector(response)
        investmentsLinks = selector.select('//a[contains(@class, "myClass")]/@href').extract()
        for link in investmentsLinks:
            curDatacrowdItem = XPathItemLoader(item=DatacrowdItem(), response=response)
            curDatacrowdItem.add_value('url', link)
            curRequest = Request(url=link, callback=self.parse_investments, meta={'item': curDatacrowdItem})
            yield curRequest


    def parse_investments(self, response):
        selector = HtmlXPathSelector(response)
        curDatacrowdItem = response.meta['item']

        # Details
        details = selector.select('//td/div[contains(@class, "myClass")]/text()').extract()
        curDatacrowdItem.add_value('someVal', details[0].strip())
        /* ... */

        # Get nbInvestors
        investorLink = selector.select('//ul[contains(@id, "myId")]/li/@onclick').re(r'window.location.href=\'(http.+/data.+)\'')
        curRequest = Request(url=investorLink[0], callback=self.parse_investors, meta={'item': curDatacrowdItem})
        yield curRequest


        # Get last company details
        detailsLink = selector.select('//ul[contains(@id, "myData")]/li/@onclick').re(r'window.location.href=\'(http.+/company-details.+)\'')
        curRequest = Request(url=detailsLink[0], callback=self.parse_details, meta={'item': curDatacrowdItem})
        yield curRequest

    def parse_investors(self, response):
        selector = HtmlXPathSelector(response)
        curDatacrowdItem = response.meta['item']
        nbInvestors = len(selector.select('//ul/li[contains(@class, "myClass")]'))
        curDatacrowdItem.add_value('nbInvestors', nbInvestors)
        return curDatacrowdItem

    def parse_details(self, response):
        selector = HtmlXPathSelector(response)
        curDatacrowdItem = response.meta['item']

        # Company name
        name = selector.select('//div[contains(@class, "myClass")]/h2/text()').extract()
        curDatacrowdItem.add_value('name', name[0].strip())
        item = curDatacrowdItem.load_item()
        item.save() # Here I'm persisiting datas
        return item

用户收到的错误日志如下:

复制代码
[datacrowd] ERROR: Spider must return Request, BaseItem or None, got 'XPathItemLoader' in <GET http://www.exemple.com/url/slug>

解决方案

用户犯的错误是,他正在返回一个 XPathItemLoader 对象,而不是一个 Item 对象。在 "after_login" 方法中,用户将一个 XPathItemLoader 对象添加到 meta 中,然后尝试在稍后返回它。正确的做法是使用 load_item 方法来返回 Item 对象。

要解决这个问题,用户可以将以下代码添加到 "after_login" 方法中:

python 复制代码
curRequest = Request(url=link, callback=self.parse_investments, meta={'item': curDatacrowdItem.load_item()})

另外,建议用户重命名变量,以避免类似的错误。

总结

这段代码展示了如何结合 ScrapyDjango 登录、抓取和持久化数据的基本流程。这个组合适用于需要在 Web 项目中自动抓取并存储数据的需求,如商品数据爬取。

相关推荐
稀饭过霍1 分钟前
数据类型【TINYINT、SMALLINT、INT、BIGINT、decimal(18,2)】表示意思
数据库
charlie1145141913 分钟前
通用GUI编程技术——图形渲染实战(三十八)——顶点缓冲与输入布局:GPU的第一个三角形
开发语言·c++·学习·图形渲染·win32
IT猿手5 分钟前
SCI一区:章鱼优化算法(Octopus Optimization Algorithm, OOA)求解23个测试函数,出图丰富,提供完整MATLAB代码
开发语言·算法·matlab
程序员JerrySUN5 分钟前
Jetson边缘嵌入式实战课程第二讲:JetPack 和 SDK Manager 是什么
c语言·开发语言·网络·udp·音视频
俺不要写代码5 分钟前
数据库:DML
数据库·oracle
不知名的老吴5 分钟前
后端知识点:Python处理加权点赞
开发语言·python
这个DBA有点耶8 分钟前
两张百万级大表JOIN跑崩了?试试这3招
数据库·代码规范
IntMainJhy14 分钟前
「Flutter三方库sqflite的鸿蒙化适配与实战指南:从入门到踩坑的本地数据库开发全记录」
数据库·flutter·华为·信息可视化·数据库开发·harmonyos
海参崴-15 分钟前
C++ STL篇 AVL树的模拟实现
开发语言·c++
Cyber4K23 分钟前
【Python专项】基础语法(2)
开发语言·python