爬虫 知识点2以及SSL1129错误该怎么解决

python 复制代码
article_url = url_tag['href']
            article_response = requests.get(article_url, headers=headers)
            article_soup = BeautifulSoup(article_response.content, "html.parser")
            print(index)

(1)article_url = url_tag['href']

这行代码从一个名为url_tag的标签(通常是一个链接标签)中提取href属性的值,并将其赋给article_url变量。这个href属性通常包含了一个完整的网址,指向具体的文章或页面。

(2) article_response = requests.get(article_url, headers=headers)

这行代码使用requests.get()方法向article_url发送一个HTTP GET请求,以获取该网址的内容。headers=headers部分是为了模拟浏览器请求,其中headers是一个包含了User-Agent等信息的字典。

(3)article_soup = BeautifulSoup(article_response.content, "html.parser")

这行代码使用BeautifulSoup将article_response.content(即获取的网页内容)解析为一个BeautifulSoup对象。这样就可以方便地从网页中提取信息。

(4) print(index)

这行代码打印当前的index值,用于调试或跟踪当前处理的是第几个链接。

提取一个链接的href属性。

使用requests库获取该链接指向的页面内容。

使用BeautifulSoup解析该页面内容。

打印当前处理的链接的索引值。

2.爬虫要关掉小黄猫,因为网络会不稳定 (解决SSL1129的问题)

3.以及要换浏览器的请求头user_agent

相关推荐
q***952210 分钟前
SpringMVC 请求参数接收
前端·javascript·算法
|晴 天|12 分钟前
Vite 为何能取代 Webpack?新一代构建工具的崛起
前端·webpack·node.js
带只拖鞋去流浪17 分钟前
迎接2026,重新认识Webpack5
前端·webpack
HIT_Weston32 分钟前
43、【Ubuntu】【Gitlab】拉出内网 Web 服务:静态&动态服务
前端·ubuntu·gitlab
4***721332 分钟前
网络爬虫学习:借助DeepSeek完善爬虫软件,实现模拟鼠标右键点击,将链接另存为本地文件
爬虫·学习·计算机外设
t***316536 分钟前
爬虫学习案例3
爬虫·python·学习
LucidX37 分钟前
Web——反向代理、负载均衡与 Tomcat 实战部署
前端·tomcat·负载均衡
sen_shan1 小时前
《Vue项目开发实战》第八章:组件封装--vxeGrid
前端·javascript·vue.js
五点六六六1 小时前
双非同学校招笔记——离开字节入职小📕
前端·面试·程序员
IT_陈寒1 小时前
Redis实战:5个高频应用场景下的性能优化技巧,让你的QPS提升50%
前端·人工智能·后端