巨细!【python爬虫实战案例】

这篇是纯干货分享,对python感兴趣的可以认真看起来!

一、爬虫的基本概述

1、基本概念

爬虫(又称为网页蜘蛛,网络机器人,在 FOAF 社区中间,更经常的称为网页追逐者);它是一种按照一定的规则,自动地抓取网络信息的程序或者脚本。如果我们把互联网比作一张大的蜘蛛网,那一台计算机上的数据便是蜘蛛网上的一个猎物,而爬虫程序就是一只小蜘蛛,他们沿着蜘蛛网抓取自己想要的猎物/数据。

2、基本流程

3、爬虫核心技巧

3.1 请求库

请求库有:requests、selenium、urllib、aiohttp,我个人比较推荐新手小白掌握urllib和requests请求库。

3.2 抓包工具分析网络请求

抓取工具主要有chrome firefox fidder appium,其中fidder基本可以说目前最为全面和强大的抓包工具。

3.3 解析数据库

解析库有非常多可以选择,比如CSS、pyqery、re、xpath等,比较建议掌握Beautiful Soup和Xpath

3.4 保存数据

小规模数据可以使用txt文件、json文件、csv文件等方式来保存文件。

大规模数据就需要使用数据库像mysql,mongodb、redis等,就比较方便查询管理。

二、代码分解

首先,导入需要用到的库:

然后,定义各个国家的请求地址:

定义一个请求头request header:

解析每个字段信息:

最后,保存Excel数据:

相关推荐
helloweilei14 小时前
python 抽象基类
python
用户83562907805114 小时前
Python 实现 PPT 转 HTML
后端·python
雨中飘荡的记忆15 小时前
保证金系统入门到实战
java·后端
Nyarlathotep011315 小时前
Java内存模型
java
暮色妖娆丶20 小时前
不过是吃了几年互联网红利罢了,我高估了自己
java·后端·面试
zone773920 小时前
004:RAG 入门-LangChain读取PDF
后端·python·面试
zone773920 小时前
005:RAG 入门-LangChain读取表格数据
后端·python·agent
NE_STOP20 小时前
MyBatis-参数处理与查询结果映射
java
狂奔小菜鸡21 小时前
Day40 | Java中的ReadWriteLock读写锁
java·后端·java ee