import requests
link = "http://www.santostang.com"
header = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/94.0.4606.71 Safari/537.36 SE 2.X MetaSr 1.0" }
response = requests.get(link,headers = header)
print(response.text)
第一个简单爬虫:获取页面
FrankHuang8882024-04-25 11:53
相关推荐
失败又激情的man13 小时前
Scrapy进阶封装(第四阶段:中间件设置,动态UA,ip代理池)dme.18 小时前
Javascript之DOM操作K哥爬虫21 小时前
【APP逆向百例】某品会 app 逆向分析巴里巴气1 天前
selenium基础知识 和 模拟登录selenium版本凛铄linshuo2 天前
爬虫简单实操2——以贴吧为例爬取“某吧”前10页的网页代码weixin_416639972 天前
爬虫工程师Chrome开发者工具简单介绍科技苑2 天前
简单 Python 爬虫程序设计q567315233 天前
R语言初学者爬虫简单模板泡泡以安4 天前
安卓高版本HTTPS抓包:终极解决方案q567315234 天前
Java Selenium反爬虫技术方案