爬虫 知识点2以及SSL1129错误该怎么解决

python 复制代码
article_url = url_tag['href']
            article_response = requests.get(article_url, headers=headers)
            article_soup = BeautifulSoup(article_response.content, "html.parser")
            print(index)

(1)article_url = url_tag['href']

这行代码从一个名为url_tag的标签(通常是一个链接标签)中提取href属性的值,并将其赋给article_url变量。这个href属性通常包含了一个完整的网址,指向具体的文章或页面。

(2) article_response = requests.get(article_url, headers=headers)

这行代码使用requests.get()方法向article_url发送一个HTTP GET请求,以获取该网址的内容。headers=headers部分是为了模拟浏览器请求,其中headers是一个包含了User-Agent等信息的字典。

(3)article_soup = BeautifulSoup(article_response.content, "html.parser")

这行代码使用BeautifulSoup将article_response.content(即获取的网页内容)解析为一个BeautifulSoup对象。这样就可以方便地从网页中提取信息。

(4) print(index)

这行代码打印当前的index值,用于调试或跟踪当前处理的是第几个链接。

提取一个链接的href属性。

使用requests库获取该链接指向的页面内容。

使用BeautifulSoup解析该页面内容。

打印当前处理的链接的索引值。

2.爬虫要关掉小黄猫,因为网络会不稳定 (解决SSL1129的问题)

3.以及要换浏览器的请求头user_agent

相关推荐
发现一只大呆瓜4 小时前
深度解密 Rollup 插件开发:核心钩子函数全生命周期图鉴
前端·vite
java_nn5 小时前
一文了解前端技术
前端
发现一只大呆瓜5 小时前
深度解析 Rollup 配置与 Vite 生产构建流程
前端·vite
Luca_kill5 小时前
MCP数据采集革命:从传统爬虫到智能代理的技术进化
爬虫·python·ai·数据采集·mcp·webscraping·集蜂云
小码哥_常5 小时前
安卓黑科技:让手机成为你的“跌倒保镖”
前端
ZC跨境爬虫6 小时前
Scrapy分布式爬虫(单机模拟多节点):豆瓣Top250项目设置与数据流全解析
分布式·爬虫·python·scrapy
小李子呢02116 小时前
前端八股Vue---Vue2和Vue3的区别,set up的用法
前端·javascript·vue.js
m0_647057966 小时前
Harness Engineering 实践指南
前端
深蓝电商API6 小时前
小红书商品笔记抓取:笔记ID与商品关联关系解析
爬虫·小红书
邂逅星河浪漫6 小时前
【银行内网开发-管理端】Vue管理端+Auth后台开发+Nginx配置+Linux部署(详细解析)
linux·javascript·css·vue.js·nginx·html·前后端联调