解决Python报错SSLError,如果试了网上一大堆方法还不行,看看这个吧!!

前言

这个问题困扰了群友一天,我怀着好奇心去试试看,不到5分钟给解决了哈哈。

报错代码

报错代码中对相关的host和url进行了替换,大家在网上发布内容也要注意隐私哈,多长个心眼子总没错。

python 复制代码
requests.exceptions.SSLError: HTTPSConnectionPool(host='xxx.com', port=443): Max retries exceeded with url: xxxxxxx?xxxxx=xxx&xxxx=xxxxx (Caused by SSLError(SSLError(1, '[SSL: BAD_ECPOINT] bad ecpoint (_ssl.c:1129)')))

你可能会这么解决

看报错是SSLError,第一想法就会想到是和https相关,然后就去度娘搜,你大概率会得到类似于下面的一系列操作。

  • 使用verify=False,忽略ssl验证。
  • requestsurllib库进行降级安装。
  • 重新安装openssl
  • 安装pyopenssl等一系列的第三方库。
    当你进行了以上一系列猛如虎的操作后,你会发现你的代码依旧是一片红

我的解决方式

正题来了,我在使用了浏览器和apipost对该网址进行了重发测试后,发现请求是正常的。然而我的开发环境对于其他https协议的url是可以正常请求获取数据的,再不行加个verify=False也可以了。

在确定了代码和环境都没有任何问题后,第一时间想到的就是会不会遇到了反爬 ?如果是反爬,大概率就是类似tls指纹这种认证了***(对哦,我声明一下,本人是学习阶段,还是小菜鸡,如果有什么地方描述有误或者理解有误,欢迎各位大佬指正,我会认真学习并且接受好的建议,谢谢各位大佬!!)***

我之前在各大论坛冲浪的时候,有接触到tls这种反爬技术,随后我就搜索关于tls指纹相关的文档,发现可以手写加密算法来替换指纹 或者直接调库侠 使用别人写好的第三方库,现在,给大家推荐一个第三方库curl_cffi,使用命令pip install curl_cffi即可。

curl_cffi使用方式

python 复制代码
from curl_cffi import requests # 使用该requests代替原本的requests使用即可
# response = requests.get/post(url, headers=headers)
# 如果在使用response调用text或者json()没有相关提示时可以这样改写,这样就有提示了
from requests import Response
response: Response = requests.get/post(url, headers=headers)

结论

由此可见,掌握丰富的知识积累是非常有必要的,如果你从来没有听说过tls指纹认证技术 ,或者我的文章不曾有幸被你看到,你的问题会在多长时间可以得到解决呢?

第一次发文章,有很多不足之处,请大佬们多多见谅,希望可以帮到在网上冲浪求解的你们。

相关推荐
华科云商xiao徐1 天前
告别低效:构建健壮R爬虫的工程思维
爬虫
熊猫钓鱼>_>2 天前
2025反爬虫之战札记:从robots.txt到多层防御的攻防进化史
开发语言·c++·爬虫
Blurpath2 天前
如何利用静态代理IP优化爬虫策略?从基础到实战的完整指南
爬虫·网络协议·ip代理·住宅代理
wjayg2252 天前
网络爬虫是自动从互联网上采集数据的程序
爬虫
IT毕设实战小研2 天前
2026届大数据毕业设计选题推荐-基于大数据旅游数据分析与推荐系统 爬虫数据可视化分析
大数据·人工智能·爬虫·机器学习·架构·数据分析·课程设计
Villiam_AY2 天前
使用 chromedp 高效爬取 Bing 搜索结果
后端·爬虫·golang
爬虫程序猿3 天前
利用 Java 爬虫获取淘宝商品 SKU 详细信息实战指南
java·开发语言·爬虫
元Y亨H3 天前
Playwright 下载文件时页面被 Chrome 过滤的问题
爬虫
q567315233 天前
手把手教你用Go打造带可视化的网络爬虫
开发语言·爬虫·信息可视化·golang
q567315233 天前
无需Python:Shell脚本如何成为你的自动化爬虫引擎?
开发语言·爬虫·python·自动化·scala