Python爬虫框架:Scrapy、EasySpider与FEAPDER的比较与实践

本文对比分析了Python爬虫框架Scrapy、EasySpider和FEAPDER,深入探讨了它们的架构、功能特性、使用场景和实战应用。通过实例,读者可以了解如何选择和使用这些框架进行数据采集和分析。同时,文章还涵盖了其他Python爬虫框架的推荐和相关资源,帮助开发者根据需求选择合适的工具。

文章目录

  • [1. 引言](#1. 引言)
    • [2. Scrapy:Python爬虫框架](#2. Scrapy:Python爬虫框架)
      • [2.1 Scrapy框架概述](#2.1 Scrapy框架概述)
      • [2.2 Scrapy系统架构](#2.2 Scrapy系统架构)
      • [2.3 Scrapy组件详解](#2.3 Scrapy组件详解)
    • [3. EasySpider:可视化无代码爬虫软件](#3. EasySpider:可视化无代码爬虫软件)
    • [4. FEAPDER:强大的Python爬虫框架](#4. FEAPDER:强大的Python爬虫框架)
      • [4.1 FEAPDER简介](#4.1 FEAPDER简介)
      • [4.2 FEAPDER内置爬虫类型](#4.2 FEAPDER内置爬虫类型)
      • [4.3 FEAPDER功能与优势](#4.3 FEAPDER功能与优势)
      • [4.4 FEAPDER断点续爬与监控](#4.4 FEAPDER断点续爬与监控)
      • [4.5 FEAPDER与FEAPlat集成](#4.5 FEAPDER与FEAPlat集成)
    • [5. 其他Python爬虫框架推荐](#5. 其他Python爬虫框架推荐)
      • [5.1 PySpider:简单易用的爬虫框架](#5.1 PySpider:简单易用的爬虫框架)
      • [5.2 Maigret:社交网络账号爬虫](#5.2 Maigret:社交网络账号爬虫)
      • [5.3 WebCrawler:网站数据采集工具](#5.3 WebCrawler:网站数据采集工具)
      • [5.4 SpiderAdmin:爬虫项目可视化管理工具](#5.4 SpiderAdmin:爬虫项目可视化管理工具)
      • [5.5 INFO-SPIDER:爬虫工具箱](#5.5 INFO-SPIDER:爬虫工具箱)
      • [5.6 CrawlabLite:轻量级爬虫管理平台](#5.6 CrawlabLite:轻量级爬虫管理平台)
      • [6.1 根据需求选择框架](#6.1 根据需求选择框架)
      • [6.2 Scrapy在大规模数据采集中的应用](#6.2 Scrapy在大规模数据采集中的应用)
      • [6.3 EasySpider在无代码爬取场景的应用](#6.3 EasySpider在无代码爬取场景的应用)
      • [6.4 FEAPDER在复杂项目中的优势](#6.4 FEAPDER在复杂项目中的优势)
    • [7.1 Scrapy在微信、淘宝等平台的爬取示例](#7.1 Scrapy在微信、淘宝等平台的爬取示例)
    • [7.2 EasySpider的可视化爬取过程](#7.2 EasySpider的可视化爬取过程)
    • [7.3 FEAPDER在分布式爬取中的实践](#7.3 FEAPDER在分布式爬取中的实践)

1. 引言

在信息爆炸的时代,网络数据的规模和复杂性日益增长,数据采集与分析的重要性不言而喻。Python,作为一门强大且易于学习的编程语言,其丰富的库和框架为数据处理提供了极大的便利。在Python的众多爬虫框架中,Scrapy、EasySpider和FEAPDER因其各自的特点和优势,备受开发者青睐。本文将对比分析这三款框架,深入探讨它们的架构、功能特性、使用场景和实战应用,帮助读者根据实际需求选择合适的工具。

Scrapy以其强大的异步处理能力和高度模块化的架构,适合处理大规模、复杂的数据采集任务。EasySpider则是一款可视化无代码爬虫软件,降低了爬虫开发的门槛,适用于对编程不熟悉但需要快速实现数据采集的用户。FEAPDER则是一款功能强大的爬虫框架,支持断点续爬和分布式爬取,特别适合处理复杂且需要持续监控的项目。

本文将首先介绍Scrapy的基本概念和架构,然后深入剖析EasySpider的可视化操作和FEAPDER的高级特性。接下来,我们将对比其他Python爬虫框架,如PySpider、Maigret等,并讨论如何根据应用场景选择合适的框架。最后,我们将通过实战示例展示这三款框架在不同场景下的应用,并提供相关资源,帮助读者进一步学习和实践。

无论你是初学者还是经验丰富的开发者,本文都将为你提供有价值的信息,帮助你在Python爬虫的世界中找到最适合你的工具。在阅读本文的过程中,你将了解:

  • Scrapy、EasySpider和FEAPDER的基本特性和适用场景
  • 如何根据项目需求选择合适的Python爬虫框架
  • 如何使用Scrapy、EasySpider和FEAPDER进行数据采集和分析
  • Python爬虫框架的其他选择,如PySpider、Maigret等
  • 实战示例,展示如何在微信、淘宝等平台使用Scrapy,如何利用EasySpider进行无代码爬取,以及如何在分布式环境中应用FEAPDER
  • 相关开源项目代码与资源,帮助你快速上手和深入学习

让我们一起探索Python爬虫框架的奥秘,掌握数据采集的高效工具,为你的数据分析工作提供强大的支持。

2. Scrapy:Python爬虫框架

2.1 Scrapy框架概述

Scrapy是一个专为大规模数据抓取和解析而设计的Python框架,它提供了一整套解决方案,包括数据抓取、解析、清洗、存储和分析。Scrapy以其高效、模块化和可扩展的特性而闻名,使得开发者能够快速构建和维护复杂的爬虫项目。Scrapy支持多种数据源,如HTML、XML和JSON,并提供了丰富的内置功能,如自动处理JavaScript、处理cookies、管理请求队列和错误处理等。

2.2 Scrapy系统架构

Scrapy的系统架构基于组件模型,由以下几个核心组件构成:

  1. Scrapy Engine:负责协调整个爬虫的运行,包括调度请求、处理响应、存储数据和处理错误。
  2. Scheduler:管理待抓取的URL队列,根据优先级和策略决定抓取顺序。
  3. Downloader:负责下载网页内容,处理HTTP请求和响应,支持设置下载延迟,防止被目标网站封禁。
  4. Spider:解析下载的网页内容,提取所需数据,并生成新的URL以供调度器抓取。
  5. Item Pipeline:负责处理解析器提取的物品(Item),进行清洗、验证和存储。
  6. Middleware:在不同组件之间提供钩子,用于处理数据流,如设置User-Agent、处理Cookies等。
  7. Storage:用于持久化存储爬取的数据,支持多种存储后端,如文件、数据库等。

2.3 Scrapy组件详解

  • Scrapy Engine:引擎是Scrapy的核心,它驱动整个爬虫的生命周期,包括处理请求、响应和错误。
  • Scrapy Scheduler:调度器管理待爬取的URL队列,支持多种调度策略,如广度优先、深度优先等。
  • Scrapy Downloader:下载器负责下载网页内容,处理HTTP请求和响应,支持设置下载延迟,防止被目标网站封禁。
  • Scrapy Spider:解析器使用正则表达式、BeautifulSoup或lxml等库解析HTML,提取所需数据。
  • Scrapy Middleware:中间件可以插入到数据流的各个节点,用于处理请求、响应或物品,如设置User-Agent、处理Cookies等。
  • Scrapy Item Pipeline:管道负责对解析器提取的物品进行清洗、验证和存储,支持多种存储后端,如CSV、SQLite等。
  • Scrapy Storage:Scrapy支持多种存储后端,如文件、数据库(如SQLite

3. EasySpider:可视化无代码爬虫软件

3.1 EasySpider简介

EasySpider是一款专为非技术背景的用户设计的Python爬虫软件,它提供了一种直观的可视化方式来创建和管理爬虫,无需编写任何代码。这款软件的出现降低了网络爬虫的使用门槛,使得数据采集工作变得简单易行,即使是不懂编程的人也能轻松上手。通过拖拽和配置,用户可以快速构建爬虫,实现对目标网站数据的抓取。

3.2 EasySpider功能特性

无代码操作

EasySpider的核心特性是其可视化操作界面,用户无需了解Python或爬虫技术,只需通过图形界面即可完成爬虫的构建。

智能识别

软件内置智能识别功能,能够自动分析网页结构,帮助用户快速定位需要抓取的数据元素,如标题、内容、图片等。

数据导出

抓取的数据可以导出为CSV、Excel、JSON等多种格式,方便后续的数据分析和处理。

定时任务

支持定时任务,用户可以设置爬虫在特定时间自动运行,实现数据的定期更新,如每日、每周或自定义时间。

多线程爬取

EasySpider支持多线程爬取,提高数据采集的效率,同时减轻目标网站的服务器压力。

代理支持

为了应对网站的反爬机制,EasySpider提供了代理IP的支持,用户可以设置代理池,以确保爬取的稳定性和成功率。

错误处理

内置错误处理机制,能够自动处理常见的网络和解析错误,提高爬虫的鲁棒性,确保数据采集的可靠性。

3.3 EasySpider使用教程

  1. 安装与启动:从EasySpider的官方网站下载并安装软件,启动后进入主界面。
  2. 新建项目:点击"新建项目",输入项目名称和描述,选择数据类型。
  3. 添加目标:在项目中添加需要爬取的网站,输入网址并选择数据类型。
  4. 数据采集:通过拖拽和配置,定义需要抓取的数据元素,如标题、内容、图片等。
  5. 设置规则:根据需要设置爬取规则,如深度、频率、过滤条件等。
  6. 保存并运行:完成配置后,保存项目并启动爬虫,软件会自动开始抓取数据。
  7. 导出数据:爬取完成后,选择导出选项,将数据导出为所需格式,如CSV、Excel或JSON。

3.4 EasySpider的未来

随着数据需求的日益增长,EasySpider将持续优化其功能,以满足更多用户的需求。未来可能的改进方向包括:

  • 更强大的数据处理能力:支持对复杂数据结构和非结构化数据的处理,如表格、图片、视频等。
  • 更智能的爬取策略:通过机器学习技术,自动优化爬取策略,提高数据采集的效率和质量。
  • 更丰富的插件和扩展:提供更多的插件和扩展,支持与其他工具的集成,如数据分析工具、数据库管理等。
  • 更完善的社区支持:建立活跃的用户社区,提供技术支持和案例分享,促进用户之间的交流和学习。
  • 跨平台支持:支持更多操作系统,如Windows、MacOS和Linux,以及移动设备,提高易用性。

EasySpider的未来将致力于简化数据采集流程,让更多人能够轻松地从互联网中获取有价值的信息,同时保持其易用性和功能的实用性。

4. FEAPDER:强大的Python爬虫框架

4.1 FEAPDER简介

FEAPDER(Fast Easy All-Purpose Python Data Extractor)是一款专为Python开发者设计的高效、易用且功能强大的爬虫框架。它旨在简化数据抓取流程,提供多种内置爬虫类型以适应不同场景的需求,同时具备断点续爬、监控报警、浏览器渲染、海量数据去重等功能,为开发者提供一站式解决方案。FEAPDER的易用性和功能强大,使得它在Python爬虫框架中脱颖而出,尤其适合处理复杂的数据采集任务。通过与FEAPlat的集成,FEAPDER为开发者提供了从开发到部署的完整解决方案。

4.2 FEAPDER内置爬虫类型

FEAPDER内置了多种爬虫类型,以满足不同场景下的数据采集需求。这些内置爬虫类型包括但不限于:

  • 通用爬虫:适用于抓取标准HTML页面,支持CSS选择器和XPath解析。
  • Ajax爬虫:支持处理JavaScript动态加载的页面数据,通过模拟浏览器行为抓取实时内容。
  • API爬虫:用于抓取基于RESTful API或GraphQL等接口的数据,支持多种数据格式的处理。
  • 社交媒体爬虫:专门针对Facebook、Twitter等社交平台的数据抓取,支持用户信息、帖子、评论等数据的提取。
  • 论坛爬虫:用于抓取论坛、博客等用户生成内容,支持多级页面的深度爬取。
  • 电商网站爬虫:针对淘宝、京东等电商平台,抓取商品信息、用户评价等数据。

4.3 FEAPDER功能与优势

FEAPDER的主要功能和优势包括:

  • 易用性:FEAPDER的API设计简洁,上手快速,提供丰富的文档和示例代码。
  • 高效性:通过多线程、异步IO和分布式爬取,FEAPDER能够高效地抓取大量数据。
  • 稳定性:内置错误处理和重试机制,保证爬虫在遇到问题时能够持续运行。
  • 灵活性:支持自定义爬取规则和数据处理逻辑,用户可以根据需求进行定制。
  • 数据处理:FEAPDER支持数据清洗、格式转换和存储,可以方便地将数据导出为CSV、JSON或数据库格式。
  • 监控与日志:提供详细的爬取日志和实时监控,方便开发者了解爬虫运行状态。
  • 分布式爬取:支持多节点分布式爬取,可轻松扩展到大规模数据采集。

4.4 FEAPDER断点续爬与监控

FEAPDER支持断点续爬功能,即使在爬取过程中遇到意外中断,也能从上次爬取的进度继续,避免重复工作。同时,FEAPDER提供了实时监控工具,可以监控爬虫的运行状态,包括爬取速度、已抓取数据量等,便于开发者及时发现和解决问题。

4.5 FEAPDER与FEAPlat集成

FEAPDER与FEAPlat的集成使得爬虫的管理更加便捷。FEAPlat是一个基于FEAPDER的爬虫项目管理平台,它提供了一站式的爬虫项目管理、任务调度、监控和数据分析功能。通过FEAPlat,用户可以集中管理多个FEAPDER爬虫项目,实现爬虫的集群化部署和运维,大大提升了爬虫项目的组织和执行效率。

总结来说,FEAPDER以其强大的功能、易用的接口和灵活的定制能力,成为Python爬虫开发者的一个重要选择,尤其适合处理复杂、大规模的数据采集任务。通过与FEAPlat的集成,FEAPDER进一步提升了爬虫项目的组织和执行效率,使得爬虫开发变得更加高效和可控。

5. 其他Python爬虫框架推荐

Python爬虫生态的多样性为开发者提供了丰富的选择。除了我们之前讨论的Scrapy、EasySpider和FEAPDER,还有许多其他优秀的Python爬虫框架,它们各有特色,适用于不同的场景和需求。以下是其中的一些推荐:

5.1 PySpider:简单易用的爬虫框架

PySpider是一个轻量级的Python爬虫框架,由阿里云开发,它以其简洁的API和友好的用户界面而受到欢迎。PySpider支持多任务并行处理,能够快速地抓取和处理数据。它内置了Web UI,使得用户可以直观地编写、调试和管理爬虫任务,特别适合初学者快速上手和快速原型开发。

5.2 Maigret:社交网络账号爬虫

Maigret是一个专注于检测在线平台用户账号存在的工具,它支持超过1500个网站,包括Twitter、Facebook、Instagram等。Maigret对于安全研究人员进行账户泄露检查,或者进行社交媒体分析非常实用。它通过命令行界面运行,无需编写复杂的爬虫代码,易于使用。

5.3 WebCrawler:网站数据采集工具

WebCrawler是一个基于Python的简单网页抓取工具,它使用XPath表达式来提取网页中的数据。WebCrawler的配置简单,用户只需要提供一个配置文件,即可开始抓取数据。对于简单的数据采集任务,WebCrawler是一个快速有效的解决方案。

5.4 SpiderAdmin:爬虫项目可视化管理工具

SpiderAdmin是一个基于Web的爬虫项目管理平台,它允许用户在浏览器中创建、编辑和运行爬虫任务。SpiderAdmin提供了任务调度、日志查看、数据统计等功能,使得爬虫项目的管理更加直观和便捷。对于团队协作或大型爬虫项目,SpiderAdmin是一个理想的选择。

5.5 INFO-SPIDER:爬虫工具箱

INFO-SPIDER是一个Python爬虫工具箱,它包含了一系列爬虫相关的实用工具,如数据清洗、数据处理、数据库操作等。INFO-SPIDER的设计目标是提供一个完整的爬虫解决方案,使得开发者可以专注于爬虫逻辑的实现,而无需关心数据处理的细节。

5.6 CrawlabLite:轻量级爬虫管理平台

CrawlabLite是Crawlab的轻量级版本,它是一个开源的爬虫管理平台,支持分布式爬取、任务调度、数据可视化等功能。CrawlabLite提供了丰富的API和Web界面,用户可以方便地管理爬虫项目,适合于企业级的爬虫项目管理。

这些Python爬虫框架和工具各有优势,开发者可以根据项目需求、团队规模和技能水平来选择合适的工具。在实际应用中,可能需要结合使用多个工具,以实现最佳的爬取效果和数据处理能力。

6.1 根据需求选择框架

选择Python爬虫框架时,首要考虑的是项目需求、团队技术能力以及项目规模。以下是对Scrapy、EasySpider和FEAPDER在不同场景下的应用分析:

  • Scrapy:适合处理大规模数据采集和复杂网页结构的抓取任务,尤其在需要深度解析、处理和存储大量数据的项目中,Scrapy的高效异步I/O和强大的中间件系统使其成为理想选择。对于有Python编程基础的开发者,Scrapy的灵活性和可扩展性提供了丰富的定制选项。

  • EasySpider:适合初学者和对编程不熟悉的用户,或者需要快速构建爬虫的场景。它的可视化界面和无代码操作降低了技术门槛,用户无需编写代码即可定义爬取规则,适合简单的数据抓取任务,如获取新闻标题、产品信息等。

  • FEAPDER:适用于处理复杂项目,特别是需要处理多任务、多线程、分布式爬取的场景。FEAPDER的内置爬虫类型丰富,支持断点续爬、任务监控以及与FEAPlat的集成,提供了强大的功能和稳定性,适合有技术背景的团队使用。

6.2 Scrapy在大规模数据采集中的应用

Scrapy因其高效的爬取性能、强大的解析能力以及灵活的数据处理流程,常被用于大规模数据采集项目。例如,在新闻聚合网站、电商网站或社交媒体平台,Scrapy可以快速抓取大量数据,如新闻标题、用户评论、商品信息等。Scrapy的中间件系统允许开发者自定义数据处理逻辑,如处理反爬虫策略、数据清洗和存储等,确保数据的准确性和完整性。

6.3 EasySpider在无代码爬取场景的应用

EasySpider在无代码爬取场景中特别受欢迎,它通过直观的图形界面和简单的配置,使得非技术背景的用户也能快速构建爬虫。对于简单的数据抓取任务,如获取产品价格、用户评论,或者进行市场调研,EasySpider简化了开发流程,降低了技术要求。

6.4 FEAPDER在复杂项目中的优势

FEAPDER在处理复杂项目时,其优势主要体现在其强大的功能集和易用性上。它支持多种爬取模式,如网站爬取、API调用、数据库爬取等,能够满足不同数据源的需求。FEAPDER的断点续爬功能确保了在爬取过程中遇到异常时,能够自动恢复,保证数据的完整性。此外,FEAPDER与FEAPlat的集成,使得项目管理、任务调度和数据可视化更为便捷,适合团队协作和企业级项目。

在选择框架时,开发者应根据项目规模、团队技术能力、数据处理需求以及爬取的复杂性来综合评估,选择最适合的工具。对于需要快速原型验证、无代码爬取的场景,EasySpider是理想选择;对于大规模数据采集和复杂逻辑,Scrapy提供了强大的功能;而对于需要处理复杂项目和分布式爬取的场景,FEAPDER则展现出显著优势。

7.1 Scrapy在微信、淘宝等平台的爬取示例

Scrapy作为Python爬虫框架的代表,其强大的功能和灵活性使其适用于各种复杂的数据抓取任务。以下是一些使用Scrapy爬取微信公众号文章和淘宝商品信息的示例。

微信公众号文章爬取

首先,创建一个Scrapy项目并定义爬虫:

bash 复制代码
scrapy startproject wechat_crawler
cd wechat_crawler

然后,在wechat_crawler/spiders目录下编写爬虫文件,如wechat_spider.py,定义爬虫的起始URL和解析规则:

python 复制代码
import scrapy

class WeChatSpider(scrapy.Spider):
    name = 'wechat'
    allowed_domains = ['mp.weixin.qq.com']
    start_urls = ['https://mp.weixin.qq.com']

    def parse(self, response):
        # 解析文章列表
        articles = response.css('.item')
        for article in articles:
            title = article.css('h3 a::text').get()
            link = article.css('h3 a::attr(href)').get()
            yield {'title': title, 'link': link}

        # 处理翻页
        next_page = response.css('li.next a::attr(href)').get()
        if next_page is not None:
            yield response.follow(next_page, self.parse)

淘宝商品信息抓取

对于淘宝商品信息的抓取,Scrapy可以处理动态加载的内容,例如使用Selenium或Scrapy Splash来辅助抓取:

python 复制代码
import scrapy
from scrapy_splash import SplashRequest

class TaobaoSpider(scrapy.Spider):
    name = 'taobao'
    start_urls = ['https://item.taobao.com/item.htm?id=123456789']

    def parse(self, response):
        # 解析商品信息
        title = response.css('.title::text').get()
        price = response.css('.price::text').get()
        yield {'title': title, 'price': price}

7.2 EasySpider的可视化爬取过程

EasySpider作为一款无代码爬虫软件,其可视化界面使得爬取过程变得简单易懂。以下是一个简单的步骤,展示如何使用EasySpider抓取一个网站的新闻标题:

  1. 启动EasySpider:打开软件,选择新建项目。
  2. 添加任务:输入目标网站的URL。
  3. 定义规则:使用拖拽和点击,选择需要抓取的元素,如标题。
  4. 设置保存:配置数据导出格式,如CSV或Excel。
  5. 运行爬取:点击开始按钮,软件会自动执行爬取并保存数据。

7.3 FEAPDER在分布式爬取中的实践

FEAPDER在处理大规模数据采集时表现出色,支持分布式爬取。以下是一个使用FEAPDER进行分布式爬取的示例:

python 复制代码
from feapder import Spider

class MySpider(Spider):
    name = 'my_spider'
    start_urls = ['http://example.com']
    concurrency = 10  # 设置并发数

    def parse(self, response):
        # 解析数据并返回
        data = response.json()
        yield data

if __name__ == '__main__':
    spider = MySpider()
    spider.start()

在FEAPDER中,可以通过设置并发数来

  1. 结语

在本文的深入探讨中,我们对比分析了Python爬虫框架的三个代表:Scrapy、EasySpider和FEAPDER。我们不仅介绍了它们的架构、功能特性,还探讨了它们在不同场景下的应用,并通过实例展示了如何在实际项目中使用这些框架进行数据采集和分析。此外,我们还推荐了其他Python爬虫框架,以满足不同开发者的需求和项目特点。

Scrapy以其强大的功能和灵活性,成为处理大规模数据采集和复杂爬取任务的首选,尤其适合有编程基础的开发者。EasySpider则以其可视化无代码操作降低了爬虫开发的门槛,让非技术人员也能快速构建简单的爬虫。FEAPDER则在易用性和功能上找到了平衡,特别在处理复杂项目和分布式爬取时表现出色。

在选择Python爬虫框架时,开发者应根据项目规模、数据复杂性、团队技术背景以及对爬虫可视化和易用性的需求来做出决策。对于初学者和快速原型开发,EasySpider可能是最佳选择;对于需要处理大规模数据和复杂爬取任务,Scrapy和FEAPDER提供了更强大的功能;而对于需要高级功能和定制化需求的项目,FEAPDER的灵活性和扩展性是其优势。

在实际应用中,Scrapy可以用于微信、淘宝等平台的数据抓取,通过合理的架构设计,可以实现高效的数据提取和处理。EasySpider则通过其直观的可视化界面,使得非技术背景的用户也能轻松进行数据采集。FEAPDER在分布式爬取中,通过其强大的管理功能,可以实现爬虫的高效并发执行和状态监控。

ython爬虫框架为数据采集和分析提供了强大的工具,选择合适的框架能够极大地提高工作效率和数据处理能力。随着技术的不断发展,新的框架和工具将不断涌现,开发者应持续关注相关社区和资源,以便在爬虫的世界中保持竞争力。希望本文能帮助你在Python爬虫的世界中找到最适合的工具,开启数据采集的新篇章。在数据驱动的世界里,让我们继续探索和实践,挖掘数据的无限潜力。

相关推荐
Appreciate(欣赏)7 分钟前
python流程控制语句
开发语言·python
eclipsercp11 分钟前
第15天:测试驱动开发(TDD)
python·django·课程设计
金融小白数据分析之路13 分钟前
python自动移除excel文件密码(小工具)
linux·python·excel
Mopes__17 分钟前
Python | Leetcode Python题解之第208题实现Trie(前缀树)
python·leetcode·题解
划过手的泪滴t24 分钟前
【每日一练】python运算符
服务器·笔记·python
milong52126 分钟前
Flask请求、响应和请求扩展
后端·python·flask
NLP工程化28 分钟前
Pydantic 库介绍
python·pydantic
执笔为剑31 分钟前
第2章-Python编程基础
python
java一只鱼35 分钟前
基于Volov7的安全帽检测系统
python·pyqt5·yolov7
数据分析螺丝钉43 分钟前
扣第212题“单词搜索 II”
经验分享·python·算法·leetcode·面试