Python requests爬虫

Python的requests库是一个强大且易于使用的HTTP库,用于发送HTTP请求和处理响应。它是Python中最受欢迎的网络爬虫框架之一,被广泛用于从网页中提取数据、爬取网站和进行API调用。

使用requests库,你可以轻松地发送各种HTTP请求,包括GET、POST、PUT、DELETE等。你可以创建一个HTTP请求对象,设置请求头、请求体和其他参数,然后发送请求并获取响应。requests库提供了许多方便的方法来处理响应,包括获取响应内容、解析JSON、解析HTML等。

如果本地 Python 环境没有安装 requests,可以在命令提示符窗口输入命令

复制代码
pip install requests

安装 requests 模块

我们可以随便打开一个网页,F12->"Ctrl+R"刷新,双击名称中的项

可以看到User-Agent和Cookie

以下是一些常用的requests库功能和用法:

  1. 发送GET请求:

    复制代码
    response = requests.get(url)
  2. 发送POST请求:

    复制代码
    response = requests.post(url, data=payload)
  3. 设置请求头:

    复制代码
    headers = {'User-Agent': 'Mozilla/5.0'}
    response = requests.get(url, headers=headers)
  4. 传递URL参数:

    复制代码
    params = {'key1': 'value1', 'key2': 'value2'}
    response = requests.get(url, params=params)
  5. 发送文件:

    复制代码
    files = {'file': open('file.txt', 'rb')}
    response = requests.post(url, files=files)
  6. 获取响应内容:

    复制代码
    print(response.text)
  7. 解析JSON响应:

    复制代码
    json_data = response.json()
  8. 解析HTML响应:

    复制代码
    from bs4 import BeautifulSoup
    soup = BeautifulSoup(response.text, 'html.parser')
  9. 处理异常:

    复制代码
    try:
        response = requests.get(url)
        response.raise_for_status()
    except requests.HTTPError as e:
        print('HTTPError:', e)
    except requests.ConnectionError as e:
        print('ConnectionError:', e)
    except requests.Timeout as e:
        print('Timeout:', e)
    except requests.RequestException as e:
        print('RequestException:', e)

以上只是requests库的一小部分功能,它还提供了许多其他高级功能和选项,例如会话管理、认证、代理设置等,可以帮助你轻松地进行网络爬虫和API调用。

完整的请求函数例程:

复制代码
import requests


def get_html(url):
    '''
    两个参数
    :param url:统一资源定位符,请求网址
    :param headers:请求头
    :return html 网页的源码
    :return sess 创建的会话
    '''
    
     # 请求头
    headers={'User-Agent': '复制了放这里'}
    # 创建Session, 并使用Session的get请求网页
    sess = requests.Session()
    response = sess.get(url=url,headers = headers)
    # 获取网页信息文本
    html = response.text

    return html, sess
相关推荐
waterHBO10 分钟前
( github actions + workflow 01 ) 实现爬虫自动化,每2小时爬取一次澎湃新闻
爬虫·自动化·github
Humbunklung1 小时前
全连接层和卷积层
人工智能·python·深度学习·神经网络·机器学习·cnn
q567315231 小时前
Java使用Selenium反爬虫优化方案
java·开发语言·分布式·爬虫·selenium
站大爷IP1 小时前
使用Python时要注意的十大陷阱
python
Keya1 小时前
使用 tinypng 脚本打包为exe 进行压缩图片
前端·python·程序员
Tom Boom2 小时前
Pytest断言全解析:掌握测试验证的核心艺术
自动化测试·python·测试开发·pytest
勤奋的知更鸟2 小时前
Java性能测试工具列举
java·开发语言·测试工具
YuTaoShao2 小时前
Java八股文——JVM「类加载篇」
java·开发语言·jvm
Jamesvalley2 小时前
【Django】性能优化-普通版
python·性能优化·django
StackOverthink2 小时前
[特殊字符] Altair:用Python说话,让数据自己讲故事!!!
开发语言·python·其他·信息可视化