import requests
link = "http://www.santostang.com"
header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.71 Safari/537.36 SE 2.X MetaSr 1.0" }
response = requests.get(link,headers = header)
print(response.text)
第一个简单爬虫:获取页面
FrankHuang8882024-04-25 11:53
相关推荐
喵手17 小时前
Python爬虫实战:HTTP缓存系统深度实战 — ETag、Last-Modified与requests-cache完全指南(附SQLite持久化存储)!喵手17 小时前
Python爬虫实战:容器化与定时调度实战 - Docker + Cron + 日志轮转 + 失败重试完整方案(附CSV导出 + SQLite持久化存储)!喵手19 小时前
Python爬虫实战:全站 Sitemap 自动发现 - 解析 sitemap.xml → 自动生成抓取队列的工业级实现!iFeng的小屋20 小时前
【2026年新版】Python根据小红书关键词爬取所有笔记数据Love Song残响20 小时前
揭秘Libvio爬虫:动态接口与逆向实战喵手1 天前
Python爬虫实战:构建招聘会数据采集系统 - requests+lxml 实战企业名单爬取与智能分析!iFeng的小屋1 天前
【2026最新当当网爬虫分享】用Python爬取千本日本相关图书,自动分析价格分布!数研小生1 天前
关键词搜索京东列表API技术对接指南喵手1 天前
Python爬虫实战:网页截图归档完全指南 - 构建生产级页面存证与历史回溯系统!Blurpath住宅代理1 天前
动态代理的五大优点:提升爬虫效率与安全性