初学Python爬虫

文章目录

  • 前言
    • [一、 爬虫的初识](#一、 爬虫的初识)
      • [1.1 什么是爬虫](#1.1 什么是爬虫)
      • [1.2 爬虫的核心](#1.2 爬虫的核心)
      • [1.3 爬虫的用途](#1.3 爬虫的用途)
      • [1.4 爬虫分类](#1.4 爬虫分类)
      • [1.5 爬虫带来的风险](#1.5 爬虫带来的风险)
      • [1.6. 反爬手段](#1.6. 反爬手段)
      • [1.7 爬虫网络请求](#1.7 爬虫网络请求)
      • [1.8 爬虫基本流程](#1.8 爬虫基本流程)
    • 二、urllib库初识
      • [2.1 http和https协议](#2.1 http和https协议)
      • [2.2 编码解码的使用](#2.2 编码解码的使用)
      • [2.3 urllib的基本使用](#2.3 urllib的基本使用)
      • [2.4 一个类型六个方法](#2.4 一个类型六个方法)
      • [2.5 下载网页数据](#2.5 下载网页数据)
      • [2.6 带单个参数的页面抓取(get请求)](#2.6 带单个参数的页面抓取(get请求))
      • [2.7 定制request使用ua反爬](#2.7 定制request使用ua反爬)
      • [2.8 多字段的字符转码](#2.8 多字段的字符转码)
      • [2.9 post请求的使用](#2.9 post请求的使用)
      • [2.10 异常处理](#2.10 异常处理)
    • [三、 requests请求的使用](#三、 requests请求的使用)
      • [3.1 下载requests包](#3.1 下载requests包)
      • [3.2 requests的基本使用](#3.2 requests的基本使用)
      • [3.3 响应的保存](#3.3 响应的保存)
      • [3.4 响应对象的其他属性](#3.4 响应对象的其他属性)
      • [3.5 用户代理介绍](#3.5 用户代理介绍)
      • [3.6 构建ua池](#3.6 构建ua池)
      • [3.7 带参数的请求](#3.7 带参数的请求)
      • [3.8 通过面向对象的方式来获取数据](#3.8 通过面向对象的方式来获取数据)
      • [3.9 post请求](#3.9 post请求)
  • 总结

前言

在当今信息爆炸的时代,互联网上的数据呈指数级增长,如何高效地获取、处理和分析这些数据成为一项重要的技能。网络爬虫(Web Crawler)作为一种自动化数据采集工具,能够帮助我们快速地从海量网页中提取有价值的信息,广泛应用于搜索引擎、数据分析、市场调研、舆情监控等领域。

学习爬虫技术不仅能提升我们的编程能力,还能培养数据思维,为后续的数据挖掘、机器学习等方向奠定基础。然而,爬虫开发并非简单的"请求-解析"过程,它涉及HTTP协议、HTML解析、反爬机制应对、数据存储等多个技术点,同时还需遵守相关法律法规,合理合法地使用爬虫技术。

本教程将从基础概念入手,逐步介绍爬虫的核心技术,并结合实际案例,帮助读者掌握爬虫开发的完整流程。无论你是编程初学者,还是希望提升数据采集能力的开发者,都可以通过本教程系统地学习爬虫技术,并将其应用于实际项目中。


一、 爬虫的初识

1.1 什么是爬虫

如果我们把互联网比作一张大的蜘蛛网,那一台计算机上的数据便是蜘蛛网上的一个猎物,而爬虫程序就是一只小蜘蛛,沿着蜘蛛网抓取自己想要的数据

  • 解释1: 通过一个程序,根据url(http://www.taobao.com)进行爬取网页,获取有用信息

  • 解释2: 使用程序模拟浏览器,去向服务器发送请求,获取响应信息

1.2 爬虫的核心

  • 爬取网页:爬取整个网页 包含了网页中所有得内容

  • 解析数据:将网页中你得到的数据 进行解析

  • 难点:爬虫和反爬虫之间的博弈

1.3 爬虫的用途

  • 数据分析/人工数据集

  • 社交软件冷启动

  • 舆情监控

  • 竞争对手监控

1.4 爬虫分类

  • 通用爬虫(不常用):抓取系统重要组成部分,抓取的是一整张页面的数据。

  • 聚焦爬虫:建立在通用爬虫的基础上,抓取的是页面中特定的局部内容。

  • 增量式爬虫:检测网站中数据更新的情况,只抓取网站中最新更新的数据。



1.5 爬虫带来的风险

  • 爬虫干扰了被访问网站的正常运营

  • 爬虫抓取了受到法律保护的特定类型的数据或信息

1.6. 反爬手段

1.7 爬虫网络请求

请求过程: 客户端,指web浏览器向服务器发送请求

请求分为四部分:

  • 请求网址 --request url

  • 请求方法 --request methods

  • 请求头 -- request header

  • 请求体 -- request body

可以通过F12查看请求响应

1.8 爬虫基本流程

  • 确认目标:目标url:www.baidu.com
  • 发送请求: 发送网络请求,获取到特定的服务端给你的响应
  • 提取数据:从响应中提取特定的数据jsonpath/xpath/re
  • 保存数据:本地(html、json、txt)、数据库

注意: 获取到的响应中,有可能会提取到还需要继续发送请求的ur1,可以拿着解析到的url继续发送请求


二、urllib库初识

2.1 http和https协议

概念和区别

http协议:超文本传输协议,默认端口号是80

  • 超文本:不仅仅限于文本,还包括图片、音频、视频

  • 传输协议:指使用共用约定的固定格式来传递转换成字符串的超文本内容

https协议: http+ ssl(安全套接字层)默认端口号是443

  • 带有安全套接字层的超文本传输协议

  • ssl对传输的内容进行加密

https比http更安全,但是性能更低

2.2 编码解码的使用

图片、视频、音频需要以bytes类型的格式来存储

python 复制代码
# 编码--encode() 将str转变为对应的二进制
str = '周杰伦'
print(str.encode())

# 解码--decode() 将二进制转为str
str = b'\xe5\x91\xa8\xe6\x9d\xb0\xe4\xbc\xa6'
print(str.decode())

2.3 urllib的基本使用

python 复制代码
# 前提:获取数据的前提要联网!!!!

# 需求:使用urllib获取百度首页的源码

# 1. 导入urllib包(不用安装)
import urllib.request

# 1.定义一个url(就是需要访问的地址)
url = 'http://www.baidu.com'

# 2.模拟浏览器向服务器发送请求
# response包含页面源码和响应头信息等等
response = urllib.request.urlopen(url)

# 3.获取响应中的页面源码(只要源码)
# read方法返回的是带b的二进制的数据
content = response.read()

# 4.打印数据
# print(content) 二进制

# 5.该编码格式(解码 decode方法)
# decode的默认解码就是utf-8 因而也可以省略参数
print(content.decode('utf-8'))

2.4 一个类型六个方法

python 复制代码
# 基础操作
import urllib.request

url = 'http://www.baidu.com'

response = urllib.request.urlopen(url)


# 一个类型和六个方法

# 判断类型
# <class 'http.client.HTTPResponse'>
# print(type(response))

# read()方法是单字节的读取数据(速度慢)
# content = response.read()
# 表示只读5个字节
# content = response.read(5)
# print(content)

# readline()方法 读取一行(速度快)
# content = response.readline()
# print(content)

# readlines()方法 读取所有行
# content = response.readlines()
# print(content)

# 返回状态码 200表示成功 证明逻辑是对的
print(response.getcode())

# 返回url地址
print(response.geturl())

# 返回状态信息和响应头
print(response.getheaders())

2.5 下载网页数据

python 复制代码
# 可以下载文件/音频/视频.....
# 适用于批量下载

import urllib.request

url_page = 'http://baidu.com'

# 使用urlretrieve()方法
# 第一个参数是url地址,第二个参数是保存的文件名
# 返回的是html文件,所以后缀写html
# urllib.request.urlretrieve(url_page, 'baidu.html')

# 下载图片
url_img = 'https://tse1-mm.cn.bing.net/th/id/OIP-C.hMxUTa_ah0EEEKjzMrcKZgHaJF?w=204&h=318&c=7&r=0&o=7&cb=iwp1&dpr=1.1&pid=1.7&rm=3.jpg'
urllib.request.urlretrieve(url_img, 'img.jpg')

# 下载视频(mp4)不再演示

2.6 带单个参数的页面抓取(get请求)

python 复制代码
import urllib.request
import urllib.parse

# url = "http://www.baidu.com/s?ie=UTF-8&wd=%E8%94%A1%E5%BE%90%E5%9D%A4"
# url = "http://www.baidu.com/s?ie=UTF-8&wd=蔡徐坤"
# 需要将中文进行编码 导入quote即可
name = urllib.parse.quote("蔡徐坤")
# print(name)

# 将%E8%94%A1%E5%BE%90%E5%9D%A4 转化为 蔡徐坤
# 使用unquote即可
# rename = urllib.parse.unquote(name)
# print(rename)

# 可以用户自己输入名字进行修改name
url = "http://www.baidu.com/s?ie=UTF-8&wd=" + name
response = urllib.request.urlopen(url)
content = response.read().decode()
print(content)

2.7 定制request使用ua反爬

再来了解一下ua反爬

user Agent中文名为用户代理,简称 UA,它是一个特殊字符串头,使得服务器能够识别客户使用的操作系统及版本、CPU 类型、浏览器及版本、浏览器渲染引、浏览器语言、浏览器插件等。

通俗的讲: ua能使得浏览器认为是请求不来自我们的爬虫程序,而是来自浏览器本身

python 复制代码
import urllib.request
import urllib.parse

name = urllib.parse.quote("蔡徐坤")

url = "https://www.baidu.com/s?ie=UTF-8&wd=" + name
# 定制request
header = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/135.0.0.0 Safari/537.36'
}
request = urllib.request.Request(url=url, headers=header)
response = urllib.request.urlopen(request)
content = response.read().decode()
print(content)

2.8 多字段的字符转码

python 复制代码
# 当url为多个参数的时候进行转码
import urllib.parse
import urllib.request

# http://www.baidu.com/s?wd=周杰伦&sex=男

# 必须用字典才可以
data = {
    "wd": "周杰伦",
    "sex": "男"
}

a = urllib.parse.urlencode(data)
# print(a)
# 获取网页源码
url = "https://www.baidu.com/s?" + a
# print(url)
header = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/135.0.0.0 Safari/537.36'
}
request = urllib.request.Request(url=url, headers=header)
response = urllib.request.urlopen(request)
content = response.read().decode()
print(content)

2.9 post请求的使用

python 复制代码
import json
import urllib.request
import urllib.parse

url = 'https://fanyi.baidu.com/sug'

# 构建post请求的数据 字典形式
data = {
    'kw': 'translate'
}
# post请求必须添加编码 转变为二进制的数据
data = urllib.parse.urlencode(data).encode('utf-8')
# print(data)
request = urllib.request.Request(url = url, data = data)
response = urllib.request.urlopen(request)
content = response.read().decode('utf-8')
print(content)
# 获取的数据是json格式 字符串被编码了,转化为字典字符串正常显示
obj = json.loads(content)
print(obj,type(obj))

2.10 异常处理

python 复制代码
import urllib.request
url = 'http://www.baidu.com1'
try:
    response = urllib.request.urlopen(url)
    print(response.read().decode('utf-8'))
except urllib.error.URLError:
    print("发送错误")

三、 requests请求的使用

上面单纯使用urllib的方式,显然麻烦了不少,并且不易于理解,那么有没有更简单更容易上手的方法呢,有的兄弟有的,可以直接使用requests的方式。

3.1 下载requests包

方式一:使用命令行安装

  1. 打开命令行cmd(win + R)
  2. 输入pip -V 查看pip是否正常安装(python正常安装的情况下,pip自动安装)
  3. 输入 pip install requests(默认国外地址,安装较慢,这里使用国内地址)
shell 复制代码
 pip install requests -i https://pypi.tuna.tsinghua.edu.cn/simple
  1. 等待安装成功提示即可

方式二:使用pycharm直接安装

在右下脚找到python软件包,搜索requests下载安装即可(也可以使用国内地址进行安装)

Tip: 可以使用pip uninstall 包名 来卸载指定的包。

3.2 requests的基本使用

python 复制代码
# 爬取百度页面的源码

# 1. 导包
import requests

# 2. 发送请求
# 进入百度查看是否是get请求
url = 'http://www.baidu.com'
response = requests.get(url)
# print(response) #<Response [200]>可以直接获取响应码

# 获取相应
# text属性会自动寻早一个解码方式去解码会出现报错
# 解决方式为 讲response直接加入encoding即可
# response.encoding = 'utf-8'
# print(response.text)

# 方式二 使用content方法 加上解码即可
print(response.content.decode())

3.3 响应的保存

  1. 图片的保存
python 复制代码
# 用resquests来保存一张图片

import requests
url = 'https://ww4.sinaimg.cn/mw690/0078WY2egy1i139fqp2wqj31jk2bcn61'
# 先判断get请求
res = requests.get(url)
# b形式数据图片存储
# print(res.content)
# 通过文件的形式保存 一定要带上b模式啊
with open('img.jpg', 'wb') as f:
    f.write(res.content)
  1. 百度页面的保存
python 复制代码
import requests
url = 'http://www.baidu.com'
res = requests.get(url)
with open("baidu.html", "w",encoding="utf-8") as f:
    f.write(res.content.decode())

3.4 响应对象的其他属性

python 复制代码
import requests
url = 'http://www.baidu.com'
res = requests.get(url)
#打印响应的ur1
print(res.url)#打印响应对象的请求头
print(res.request.headers)# 打印响应头
print(res.headers)

3.5 用户代理介绍

python 复制代码
import requests
url1 = 'http://www.baidu.com'  #509723
url2 = 'https://www.baidu.com' #227

# res = requests.get(url2)
# content = res.content.decode()
# print(len(content))

#  使用用户代理反爬虫
# 依旧是写成字典形式
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36'
}

# 添加ua 让服务器认为是浏览器在发送请求

response = requests.get(url2,headers=headers)
content = response.content.decode()
print(len(content)) # 28918

3.6 构建ua池

python 复制代码
import random
# 构建ua池,防止多次调用被反爬

# 方法1 自己写ua池
uAlist = [
    'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/135.0.0.0 Safari/537.36',
    'Mozilla/5.0 (iPhone; CPU iPhone OS 16_6 like Mac OS X) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/16.6 Mobile/15E148 Safari/604.1',
    'Mozilla/5.0 (Linux; Android 8.0.0; SM-G955U Build/R16NW) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/135.0.0.0 Mobile Safari/537.36'
]
# 随机获取一个ua
# print(random.choice(uAlist))

# 方法2 外包生成ua
# 下载fake-useragent包
# 频繁调用的时候可能会报错
from fake_useragent import UserAgent
print(UserAgent().random)

3.7 带参数的请求

python 复制代码
# 带参数数据的请求爬取
import requests

url = 'https://www.baidu.com/s?ie=UTF-8'

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36'
}
data = {
    'wd': '蔡徐坤'
}

res = requests.get(url,headers=headers,params=data)
content = res.content.decode()
print(content)

3.8 通过面向对象的方式来获取数据

python 复制代码
# 获取明星页面信息并且保存
import  requests
class Star:
    def __init__(self):
        self.url = 'https://www.baidu.com/s?ie=UTF-8'
        self.headers = {
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/135.0.0.0 Safari/537.36'
        }
        # 发送数据
    def send(self,params):
        response = requests.get(self.url,headers=self.headers,params=params)
        return response.text

        # 保存数据
    def save(self,content):
        with open('star.html','w',encoding='utf-8') as f:
            f.write(content)

    def run(self):
        name = input('请输入明星名称:')
        params = {
            'wd':name
        }
        content = self.send(params)
        self.save(content)

star = Star()
star.run()

3.9 post请求

post请求: 登录注册,传输大文本内容# requests.post(url,data)# data参数接收一个字典

get跟post区别

  • get请求---比较多

  • post请求 -- 比较少

  • get请求直接向服务器发送请求,获取应内容

  • post请求是先给服务器一些数据,然后再获取响应

  • get请求携带参数-- params

  • post诗求携带参数- data

python 复制代码
# 百度翻译案例
import json

import requests

url = "https://fanyi.baidu.com/sug"

headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36"
}
data = {
    "kw": "eye"
}
response = requests.post(url,headers=headers,data=data)
content = response.text
# print(content)
obj = json.loads(content)
print(obj)

总结

通过本教程的学习,我们系统地掌握了网络爬虫的基本原理和关键技术。从HTTP请求、HTML解析,到动态页面渲染、反爬策略应对,再到数据的清洗与存储,我们一步步构建了一个完整的爬虫知识体系。

爬虫技术不仅仅是一种数据采集手段,更是连接互联网世界与数据分析的桥梁。掌握爬虫技能后,我们可以高效地获取所需数据,为商业分析、学术研究、自动化运维等场景提供强大的数据支持。

然而,爬虫开发并非没有边界。在实践过程中,我们必须遵守目标网站的robots.txt协议,尊重版权和隐私,避免对服务器造成过大压力。同时,随着反爬技术的不断升级,爬虫开发者也需要持续学习,灵活应对各种挑战。

未来,随着人工智能和大数据的发展,爬虫技术将继续演进,与自然语言处理(NLP)、机器学习(ML)等技术结合,创造更大的价值。希望读者能够在本教程的基础上,进一步探索爬虫的高级应用,如分布式爬虫、智能解析等,不断提升自己的技术能力。

数据驱动未来,爬虫赋能探索! 🚀

相关推荐
纪元A梦27 分钟前
华为OD机试真题——荒岛求生(2025A卷:200分)Java/python/JavaScript/C/C++/GO最佳实现
java·c语言·javascript·c++·python·华为od·go
Mi Manchi262 小时前
力扣热题100之搜索二维矩阵 II
python·leetcode·矩阵
电商数据girl2 小时前
【Python爬虫电商数据采集+数据分析】采集电商平台数据信息,并做可视化演示
java·开发语言·数据库·爬虫·python·数据分析
仰望星空的凡人2 小时前
【JS逆向基础】WEB自动化
python
明月看潮生2 小时前
Windows_PyCharm Python语言开发环境构建
windows·python·青少年编程·pycharm·编程与数学
生信碱移3 小时前
TCGA数据库临床亚型可用!贝叶斯聚类+特征网络分析,这篇 NC 提供的方法可以快速用起来了!
人工智能·python·算法·数据挖掘·数据分析
测试老哥3 小时前
Selenium使用指南
自动化测试·软件测试·python·selenium·测试工具·职场和发展·测试用例
小白学大数据3 小时前
分布式爬虫去重:Python + Redis实现高效URL去重
开发语言·分布式·爬虫·python
Nina_7173 小时前
python简易实现勒索病毒
网络·python·网络安全
小江-3 小时前
基于计算机视觉的试卷答题区表格识别与提取技术
python·ocr