import requests
link = "http://www.santostang.com"
header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.71 Safari/537.36 SE 2.X MetaSr 1.0" }
response = requests.get(link,headers = header)
print(response.text)
第一个简单爬虫:获取页面
FrankHuang8882024-04-25 11:53
相关推荐
搂着猫睡的小鱼鱼10 小时前
Ozon 商品页数据解析与提取 API深蓝电商API11 小时前
住宅代理与数据中心代理在爬虫中的选择csdn_aspnet12 小时前
Libvio.link爬虫技术深度解析:反爬机制破解与高效数据抓取0思必得014 小时前
[Web自动化] Selenium处理滚动条vx_biyesheji000116 小时前
豆瓣电影推荐系统 | Python Django 协同过滤 Echarts可视化 深度学习 大数据 毕业设计源码深蓝电商API16 小时前
爬虫IP封禁后的自动切换与检测机制喵手18 小时前
Python爬虫实战:公共自行车站点智能采集系统 - 从零构建生产级爬虫的完整实战(附CSV导出 + SQLite持久化存储)!喵手18 小时前
Python爬虫实战:地图 POI + 行政区反查实战 - 商圈热力数据准备完整方案(附CSV导出 + SQLite持久化存储)!芷栀夏19 小时前
从 CANN 开源项目看现代爬虫架构的演进:轻量、智能与统一喵手1 天前
Python爬虫实战:HTTP缓存系统深度实战 — ETag、Last-Modified与requests-cache完全指南(附SQLite持久化存储)!