Python requests爬虫

Python的requests库是一个强大且易于使用的HTTP库,用于发送HTTP请求和处理响应。它是Python中最受欢迎的网络爬虫框架之一,被广泛用于从网页中提取数据、爬取网站和进行API调用。

使用requests库,你可以轻松地发送各种HTTP请求,包括GET、POST、PUT、DELETE等。你可以创建一个HTTP请求对象,设置请求头、请求体和其他参数,然后发送请求并获取响应。requests库提供了许多方便的方法来处理响应,包括获取响应内容、解析JSON、解析HTML等。

如果本地 Python 环境没有安装 requests,可以在命令提示符窗口输入命令

复制代码
pip install requests

安装 requests 模块

我们可以随便打开一个网页,F12->"Ctrl+R"刷新,双击名称中的项

可以看到User-Agent和Cookie

以下是一些常用的requests库功能和用法:

  1. 发送GET请求:

    复制代码
    response = requests.get(url)
  2. 发送POST请求:

    复制代码
    response = requests.post(url, data=payload)
  3. 设置请求头:

    复制代码
    headers = {'User-Agent': 'Mozilla/5.0'}
    response = requests.get(url, headers=headers)
  4. 传递URL参数:

    复制代码
    params = {'key1': 'value1', 'key2': 'value2'}
    response = requests.get(url, params=params)
  5. 发送文件:

    复制代码
    files = {'file': open('file.txt', 'rb')}
    response = requests.post(url, files=files)
  6. 获取响应内容:

    复制代码
    print(response.text)
  7. 解析JSON响应:

    复制代码
    json_data = response.json()
  8. 解析HTML响应:

    复制代码
    from bs4 import BeautifulSoup
    soup = BeautifulSoup(response.text, 'html.parser')
  9. 处理异常:

    复制代码
    try:
        response = requests.get(url)
        response.raise_for_status()
    except requests.HTTPError as e:
        print('HTTPError:', e)
    except requests.ConnectionError as e:
        print('ConnectionError:', e)
    except requests.Timeout as e:
        print('Timeout:', e)
    except requests.RequestException as e:
        print('RequestException:', e)

以上只是requests库的一小部分功能,它还提供了许多其他高级功能和选项,例如会话管理、认证、代理设置等,可以帮助你轻松地进行网络爬虫和API调用。

完整的请求函数例程:

复制代码
import requests


def get_html(url):
    '''
    两个参数
    :param url:统一资源定位符,请求网址
    :param headers:请求头
    :return html 网页的源码
    :return sess 创建的会话
    '''
    
     # 请求头
    headers={'User-Agent': '复制了放这里'}
    # 创建Session, 并使用Session的get请求网页
    sess = requests.Session()
    response = sess.get(url=url,headers = headers)
    # 获取网页信息文本
    html = response.text

    return html, sess
相关推荐
玉小格1 分钟前
对py作业的一个复盘
开发语言·python
BU摆烂会噶2 分钟前
【LangGraph 持久化】让 AI Agent 拥有“记忆”
数据库·人工智能·python·langchain
Rust研习社2 分钟前
使用 Tonic 构建高性能异步 gRPC 服务
开发语言·网络·后端·http·rust
ZC跨境爬虫2 分钟前
移动端爬虫工具Fiddler完整配置流程:PC+安卓模拟器全覆盖,零基础一次配置成功
android·前端·爬虫·测试工具·fiddler
captain3764 分钟前
JDBC(Java Data Base Connectivity)
java·开发语言
南境十里·墨染春水12 分钟前
C++笔记 STL——vector
开发语言·c++·笔记
zhangchaoxies16 分钟前
c++怎么在Linux下获取文件被最后一次访问的精确纳秒时间【进阶】
jvm·数据库·python
拾-光17 分钟前
LTX-Video 2.3 实战:用图片生成视频,消费级显卡也能跑的开源 I2V 模型(GPT Image 2)
java·人工智能·python·深度学习·算法·机器学习·音视频
m0_7478545218 分钟前
c++怎么在Linux下获取文件被最后一次访问的精确纳秒时间【进阶】
jvm·数据库·python
AVA洋18 分钟前
初识Coze(扣子)工作流,ai视频自动化制作
人工智能·python·大模型