爬虫 知识点2以及SSL1129错误该怎么解决

python 复制代码
article_url = url_tag['href']
            article_response = requests.get(article_url, headers=headers)
            article_soup = BeautifulSoup(article_response.content, "html.parser")
            print(index)

(1)article_url = url_tag['href']

这行代码从一个名为url_tag的标签(通常是一个链接标签)中提取href属性的值,并将其赋给article_url变量。这个href属性通常包含了一个完整的网址,指向具体的文章或页面。

(2) article_response = requests.get(article_url, headers=headers)

这行代码使用requests.get()方法向article_url发送一个HTTP GET请求,以获取该网址的内容。headers=headers部分是为了模拟浏览器请求,其中headers是一个包含了User-Agent等信息的字典。

(3)article_soup = BeautifulSoup(article_response.content, "html.parser")

这行代码使用BeautifulSoup将article_response.content(即获取的网页内容)解析为一个BeautifulSoup对象。这样就可以方便地从网页中提取信息。

(4) print(index)

这行代码打印当前的index值,用于调试或跟踪当前处理的是第几个链接。

提取一个链接的href属性。

使用requests库获取该链接指向的页面内容。

使用BeautifulSoup解析该页面内容。

打印当前处理的链接的索引值。

2.爬虫要关掉小黄猫,因为网络会不稳定 (解决SSL1129的问题)

3.以及要换浏览器的请求头user_agent

相关推荐
昭昭日月明几秒前
mac 效率工具:Raycast 的扩展开发
前端·mac·设计
white-persist4 分钟前
XXE 注入漏洞全解析:从原理到实战
开发语言·前端·网络·安全·web安全·网络安全·信息可视化
练习时长一年20 分钟前
Spring内置功能
java·前端·spring
SHUIPING_YANG32 分钟前
完美迁移:将 nvm 和 npm 完全安装到 Windows D 盘
前端·windows·npm
kunge1v533 分钟前
学习爬虫第五天:自动化爬虫
爬虫·python·自动化
lypzcgf1 小时前
Coze源码分析-资源库-编辑数据库-前端源码-核心组件
前端·数据库·源码分析·coze·coze源码分析·ai应用平台·agent平台
勤奋菲菲1 小时前
Koa.js 完全指南:下一代 Node.js Web 框架
前端·javascript·node.js
晒太阳5791 小时前
懒加载与按需加载
前端
10年前端老司机1 小时前
面试官爱问的 Object.defineProperty,90%的人倒在这些细节上!
前端·javascript