python爬虫之爬虫入门

python 复制代码
import requests
r=requests.get("http://www.baidu.com")
print(r.status_code)#用status_code来确定页面状态是否正常
type(r)
r.headers

requests库入门

  1. status_code可以用来检验网页状态是否正常
  2. type(r)返回r的类型
  3. r.headers返回该页面头部信

运行结果如下:

返回的头部信息:

requests对象属性

|---------------------|------------------------------|
| 属性 | 说明 |
| r.status_code | HTTP请求返回状态,200表示连接成功,404表示失败 |
| r.text | HTTP响应内容的字符串形式,即url对应的页面内容 |
| r.encoding | 从HTTPheader中猜测的响应内容编码方式 |
| r.apparent_encoding | 从内容中分析出的内容编码方式 |
| r.content | HTTP响应内容的二进制形式 |

r.encoding和r.appatren_encoding的区别

r.encoding是从HTTP头部信息中的charset中获取的,当header中不存在charset时,则认为编码为"ISO-8859-1"

r.apparent_encoding则是从网页内容中分析出的编码形式

所以当我们利用r.text查看网页内容时,可看到返回是乱码的

此时利用r.apparent_encoding获取页面内容编码后将内容方式赋值给encoding后再次查看页面内容时则能正确解读后;所以当使用encoding不能正确解码内容时,我们就使用apparent_encoding。

requests库代码框架

python 复制代码
import requests

def getHTMLText(url):
    try:
        r.requests.get(url,timeout=30)
        r.raise_for_status#如果状态不是200,则会引发HTTPError
        r.encoding=r.apparent_encoding#使得解码正常
        return r.text
    except:
        return"产生错误"
if __name__=="__main__":
    url="http//:www.baidu.com"
    print(getHTMLText(url))
相关推荐
teeeeeeemo18 小时前
Webpack 模块联邦(Module Federation)
开发语言·前端·javascript·笔记·webpack·node.js
修炼室18 小时前
如何将Python脚本输出(含错误)全量保存到日志文件?实战指南
开发语言·python
@LetsTGBot搜索引擎机器人19 小时前
用 Python 打造一个 Telegram 二手交易商城机器人
开发语言·python·搜索引擎·机器人·.net·facebook·twitter
liu****19 小时前
2.c++面向对象(三)
开发语言·c++
linux kernel19 小时前
第二十四讲:C++中的IO流
开发语言·c++
WangMing_X19 小时前
《使用模块化分层来达到企业级项目要求》
开发语言·c#
kunge1v520 小时前
学习爬虫第三天:数据提取
前端·爬虫·python·学习
爱学习的小鱼gogo20 小时前
python 矩阵中寻找就接近的目标值 (矩阵-中等)含源码(八)
开发语言·经验分享·python·算法·职场和发展·矩阵
可爱的秋秋啊20 小时前
简单网站编写
开发语言·前端
冬夜戏雪20 小时前
[学习日记][springboot 1-7][leetcode 6道]
java·开发语言·学习