爬虫基础学习-链接协议分析,熟悉相关函数

1、urlparse:(python标准库中的一个模块,解析和操作url)

标准的url链接格式:scheme://netloc/path;params?query#fragment

scheme(协议) http or https

netloc(网络位置) host

path(路径)

params(携带的参数)

query(查询参数)

fragment(片段) 内部导航

2、urlunparse(组合)

http://www.baidu.com/index.html;user?id=0#comment

3、urlsplit(和urlparse不同的是 它不解析查询参数和片段部分,只分割url返回的是一个元组类型,可以用索引来取)

4、urlunsplit

5、urljoin 将一个相对URL 解析成一个绝对的url,base参数: 基本url,通常是一个绝对的url;url参数:这个是相对的url

结论:base_url 提供了三项内容 scheme、netloc 和 path。如果这 3 项在新的链接里不存在,就予以补充;如果新的链接存在,就使用新的链接的部分。而 base_url 中的 params、query 和 fragment 是不起作用的。

6、parse_qs(get参数的序列化)

7、parse_qsl(将参数转为元组组成列表)

8、quote(url编码)

9、unquote(url解码)

python 复制代码
#!/usr/bin/env python3

from urllib.parse import urlparse, urlunparse, urlsplit, urlunsplit, urljoin, parse_qs, parse_qsl, quote, unquote

url = 'http://www.baidu.com/index.html;user?id=0#comment'


# 1、############urlparse

# 输出URL网址的标准组成:scheme://netloc/path;params?query#fragment
response = urlparse(url=url)
print(response)
print(response.scheme)
print(response.netloc)
print(response.path)
print(response.params)
print(response.query)
print(response.fragment)

result = urlparse(url=url, scheme='https', allow_fragments=False)
print(result.scheme)
print(result.fragment)

# 2、############urlunparse

data = ['http', 'www.baidu.com', 'index.html', 'user', 'id=0', 'comment']
result = urlunparse(data)
print(result)

# 3、############urlsplit

response = urlsplit(url)
print(result)
print(response.scheme)
print(response[1])
print(response.netloc)
print(response.path)
print(response.query)
print(response.fragment)

# 4、############urlunsplit

data = ('http', 'www.baidu.com', 'index.html', 'id=0', 'comment')
result = urlunsplit(data)
print(result)

# 5、############urljoin

base_url = 'https://www.baidu.com'
relative = '/path/to/xxx'
result = urljoin(base_url, relative)
print(result)
print(urljoin('https://www.baidu.com', '/FAQ.html'))
print(urljoin('https://www.baidu.com', 'http://mashibing.com/FAQ.html'))
print(urljoin('https://www.baidu.com/admin.html', 'http://mashibing.com/FAQ.html'))
print(urljoin('https://www.baidu.com?wd=aaa', '?user=1#comment'))
print(urljoin('https://www.baidu.com#comment', '?user=1'))

# 6、############parse_qs

query = 'name=handsomewangbo&age=18'
result = parse_qs(query)
print(result)

# 7、############parse_qsl

query = 'name=handsome_wangbo&age=18'
result = parse_qsl(query)
print(result)

# 8、############quote

key = "帅哥"
result = url + quote(key)
print(result)

# 9、############unquote

print(unquote(result))
相关推荐
爱学习的大牛1234 分钟前
如何系统学习网络渗透测试:从入门到精通的完整指南
网络·学习
落子摘星44 分钟前
suricata学习杂记(一)
学习·modbus·suricata·pdu
charlie1145141911 小时前
深入理解C/C++的编译链接技术6——A2:动态库设计基础之ABI设计接口
c语言·开发语言·c++·学习·动态库·函数
white-persist1 小时前
【攻防世界】reverse | Reversing-x64Elf-100 详细题解 WP
c语言·开发语言·网络·python·学习·安全·php
YongCheng_Liang1 小时前
深度解析:GitHub API 爬虫工具 —— 自动化获取热门 / 推荐开源项目
爬虫·自动化·github
AI绘画哇哒哒5 小时前
【收藏必看】大模型智能体六大设计模式详解:从ReAct到Agentic RAG,构建可靠AI系统
人工智能·学习·ai·语言模型·程序员·产品经理·转行
ycydynq7 小时前
自动化验证码实现
爬虫·自动化
小奶包他干奶奶8 小时前
Webpack学习——Loader(文件转换器)
前端·学习·webpack
小奶包他干奶奶8 小时前
Webpack学习——原理理解
学习·webpack·devops
励志成为美貌才华为一体的女子9 小时前
强化学习PPO和GRPO逻辑学习
学习