爬虫(二)使用urllib爬取百度贴吧的数据

下一期我就不用urllib来抓取数据了,因为urllib现在已经很少人用,大部分人用得是requests,requests也是基于底层urllib的一个模块。

首先我先来讲一下关于如何使用动态的UA!

动态UA就是指在自己创建的一个列表里随机选择一个UA当做请求浏览器的一个请求头.

我们先自定义一个列表User_Agents,然后将要添加的UA传进去.
UA大全

python 复制代码
User_Agents = [
        'User-Agent: Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36',
        'Opera/9.80 (Windows NT 6.1; U; zh-cn) Presto/2.9.168 Version/11.50',
        'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.1; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; InfoPath.3)']
        

传入进去之后我们使用random模块中的choice去随机选择UA

python 复制代码
from random import  choice
headers = {'User-Agent': choice(User_Agents)
               }

至此一个动态UA就完成了!

接下来给大家献上爬取百度贴吧的代码

思路:我们知道要爬取有页数的url就要找出其中的规律

我们根据百度贴吧每页翻页的url可以得出基础的url是base_html='https://tieba.baidu.com/f?ie=utf-8\&{}

python 复制代码
from urllib.request import urlopen,Request
from random import  choice
from urllib.parse import quote,urlencode
 #定义一个得到url数据的函数
def get_html(url):
    User_Agents = [
        'User-Agent: Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36',
        'Opera/9.80 (Windows NT 6.1; U; zh-cn) Presto/2.9.168 Version/11.50',
        'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.1; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; InfoPath.3)']

    headers = {'User-Agent': choice(User_Agents)

               }
	
	#伪装浏览器
    response = Request(url=url, headers=headers)
    #获取响应
    html = urlopen(response)
    #把读的到数据返回
    return html.read()

#定义一个保存数据文件的函数
def save_html(file_name,html_bytes):
    with open(file_name,'wb') as rfile:
        rfile.write(html_bytes)
        rfile.close()
#定义一个主函数
def main():
    concent = input('请输入要下载的内容:')
    num=input('请输入要下载的页数:')
    base_html='https://tieba.baidu.com/f?ie=utf-8&{}'
    for pn in range(int(num)):
        arg={
            'pn':pn*50,
            'kw':concent
        }
        file_name='第'+str(pn+1)+'页'
        #将arg转码
        arg = urlencode(arg)
        print(f'正在下载{concent}的'+file_name)
		#base_html='https://tieba.baidu.com/f?ie=utf-8&{pn*50}
        html=base_html.format(arg)
        #得到网页里的数据
        html_bytes=get_html(html)
        save_html(file_name,html_bytes)

#让程序跑起来
if __name__ == '__main__':
    main()
    print('下载完成')

这是爬取内容个每页的源代码,要获取相应的图片和内容还需要去解析提取。

看完的点个赞吧,喜欢的可以点点关注哦!

相关推荐
数据皮皮侠2 小时前
上市公司内源与债权股权融资协同数据(2009-2025)
大数据·人工智能·算法·microsoft·百度
智慧医养结合软件开源4 小时前
规范新增管控,凝聚志愿力量赋能康养服务
大数据·安全·百度·微信·云计算
川冰ICE4 小时前
Python爬虫实战⑱|Pandas分组聚合,一键生成统计报表
爬虫·python·pandas
财经三剑客5 小时前
百度智能云全矩阵产品升级 30余项新能力全面向企业开放
百度
码途漫谈6 小时前
Scrapling:让爬虫在现代 Web 里“活下来”的自适应抓取框架
前端·爬虫·ai·开源
硅基流动6 小时前
硅基流动上线百度 ERNIE-Image
人工智能·百度
KaMeidebaby18 小时前
卡梅德生物技术快报|禽类成纤维细胞 FISH 实验:鸟类性别染色体基因定位技术实现与数据验证
前端·数据库·其他·百度·新浪微博
S1998_1997111609•X20 小时前
针对犯罪集团etc/all,pid,IP的规划及量化逻辑原理
网络·安全·百度·缓存·量子计算
KaMeidebaby1 天前
卡梅德生物技术快报|细菌 FISH 实验 + 流式细胞术:尿路感染活菌快速定量系统实现与数据验证
前端·数据库·其他·百度·新浪微博
Marvel__Dead1 天前
基于 AI 大模型的百度旋转验证识别(通用能力极强)
人工智能·爬虫·python·验证码识别·ai 大模型