爬虫简单实操2——以贴吧为例爬取“某吧”前10页的网页代码

需求是将贴吧的【某个吧】里面【n页】的网页代码爬取下来,保存至本地

首先我们要思考这个贴吧爬虫的框架,要有方法可以构造url列表(就可以一次获取多个url),能请求获取相应,能把html保存到本地。

复制代码
import requests

class TiebaSpider(object): 
	# 初始化核心组件
    def __init__(self):  
    	....
        要有url
        要有headers
    def 构造url列表(self):  
    	pass
    def 获取响应(self):  
    	pass
    def 保存(self):  
    	pass

    def run(self):     
        '''主要业务逻辑'''
        #url列表
        #发送请求获取响应
        #保存
        
if __name__ == '__main__':  
    TiebaSpider=TiebaSpider()
    TiebaSpider.run()

一、初始化核心组件

找到贴吧某个吧【lol吧】的url: https://tieba.baidu.com/f?kw=lol\&ie=utf-8\&pn=450

pn是确定页面的参数,450/50=9,0是第1页,9是第10页。怎么获取【贴吧名字】,实例化对象的时候把参数写里面去,然后在初始化方法里面,加上tieba_name去获取传的名字。

复制代码
#将变量 tieba_name 绑定到当前类的实例上,使其成为实例变量,作用域贯穿实例的生命周期
self.tieba_name = tieba_name 

self.start_url = 'https://tieba.baidu.com/f?kw='+tieba_name+'&ie=utf-8&pn={}'

self.headers = {
      "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36"
}

二、构造存放url列表的函数

需要构建一个空列表url_list = [] ,用来保存这10页的 url ,这些url的参数是需要我们提供的,并且拼接起来,所以要思考怎么获取【页数】,每一页是50条数据,所以第1页是050,第2页是150,依次类推用到range()方法,range是从0开始的,然后每一条的页数信息也拼接上,url就完整了。

复制代码
format()的基本功能作用:将变量值填充到字符串的{}占位符中。


def get_url_list(self):
    # 构造URL列表
    url_list = []
    for i in range(10): #循环10次,也就是10页
        url_list.append(self.start_url.format(i*50))                                                        
    # print(url_list)  #检测url写对没
    return url_list  #然后返回url_list

run()函数里面也要调用这个 get_url_list()函数,把返回的url_list的值保存到变量url_list里面

复制代码
#构造URL列表
url_list = self.get_url_list() #调用所以这个列表会保存到url_list里面

三、构造发送请求获取响应的函数

想要得到响应,用到的就是requests.get(url)方法,保存到response变量里面,用response.text 或者 response.content.decode()获取网页源代码内容【也就是html】,那我们的url怎么得到并能在这个函数里面使用?就需要在这个构造函数里面加一个参数url。

复制代码
	def parse_url(self,url):
        print(url)
        # 发送请求,得到响应
        response = requests.get(url,headers=self.headers)
        response.encoding = 'utf-8'
        return response.text  #返回的值是网页代码

并且在run()里面要先循环存入 url_list 里面真实的 url 到 for循环的 变量url 里面,存的就是通过response.text获得的html代码,所以调用方法parse_url()保存到名为html的变量里面

复制代码
#遍历 发送请求获取响应
    for url in url_list:  #循环列表里元素个数的次数,然后每次把列表里面的元素按顺序赋值给url
        html = self.parse_url(url) #调用此方法传参url,所以方法里面要接受url,参数要加上url
        # print(html)
        page_num = url_list.index(url) + 1  #index()前面的对象要是列表,url只是列表里面的一个元素,是一个str类型

这个时候其实还没思考怎么传页数,后面再回头写page_num。现在也可以浅浅分析一下:因为在后面保存的时候,我需要页面的参数来命名【tieba_name-第i页.html】,所以这里的列表索引可以作为页数,比定义一个page_num = 0,然后用for...range 循环保存页数要高级,代码量也少些。index下标是从0开始,所以第1页就是 url_list.index(url) + 1 。注意index()括号里面写的是列表里面的这个元素对应的下标,所以括号里面是变量url。


四、构造保存html的函数

保存的时候我要知道【贴吧名】,【网页源代码】和【页数】,所以要把这些参数获取到。而【贴吧名 self.tieba_name】是初始化里面加了self.的实例变量,可以在任何构造函数里面使用或修改,故不需要在函数里传参(不需要在括号里面写参数名)。在函数括号里面加上【网页源代码】和【页数】这两个参数名即可。

复制代码
补充:实例变量(self.变量名):
通过 self.变量名 定义的变量属于当前实例,作用域贯穿实例的生命周期。	  
其他方法也可以通过 self.变量名 访问或修改它。

保存的HTML名字是这个类型:" tieba_name-第i页.html "

复制代码
def save_html(self,html,page_num):
    # 保存 tieba_name-第i页.html
    with open(self.tieba_name+'-第'+str(page_num)+'页.html','w',encoding='utf-8') as f:
   		f.write(html)

run() 方法里也要调用 save_html() 方法,因为 save_html() 方法 里面要获取【网页源代码】和【页数】,所以我们在调用 save_html() 方法 时候要传入 html , page_num 两个参数。

复制代码
#保存
self.save_html(html,page_num) #调用此方法传参html,所以方法里面要接受html,参数要加上html。然后把page_num传给save_html()方法

五、爬虫整体代码

python 复制代码
import requests

class TiebaSpider(object): #集成object 面向对象
    def __init__(self,tieba_name):  #init
        # 初始化核心组件  #https://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=450   pn是页面,一页50条
        self.tieba_name = tieba_name  #这样才可以在别的方法里使用到传过来的tieba_name,以 self.tieba_name 变量来使用
        self.start_url = 'https://tieba.baidu.com/f?kw='+tieba_name+'&ie=utf-8&pn={}'
        self.headers = {
            "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36"
        }

    def get_url_list(self):
        # 构造URL列表
        '''
        url_list = []
        for i in range(10): #10次10页
            url_list.append(self.start_url.format(i*50))                                                               
        # print(url_list) #检测url写对没
        return url_list  #然后返回url_list
        '''

        # 列表推导式(List Comprehension)是 Python 中一种简洁高效的构建列表的方式,可以替代显式的 for 循环和 append 操作。想要看结果也可以把推导式保存至变量,然后print出来
        return [self.start_url.format(i*50) for i in range(10)]

    def parse_url(self,url):
        print(url)
        # 发送请求,得到响应
        response = requests.get(url,headers=self.headers)
        response.encoding = 'utf-8'
        return response.text  #返回的值是网页代码

    def save_html(self,html,page_num):
        # 保存 tieba_name-第i页.html
        # print(page_num)
        with open(self.tieba_name+'-第'+str(page_num)+'页.html','w',encoding='utf-8') as f:
            f.write(html)


    def run(self):     #run方法
        '''主要业务逻辑'''

        #构造URL列表
        url_list = self.get_url_list() #调用所以这个列表会保存到url_list里面
        #遍历 发送请求获取响应
        for url in url_list:  #循环列表里元素个数的次数,然后每次把列表里面的元素按顺序赋值给url
            html = self.parse_url(url) #调用此方法传参url,所以方法里面要接受url,参数要加上url
            # print(html)
            page_num = url_list.index(url) + 1  #index()前面的对象要是列表,url只是列表里面的一个元素,是一个str类型
            #保存
            self.save_html(html,page_num) #调用此方法传参html,所以方法里面要接受html,参数要加上html。然后把page_num传给save_html()方法
            # exit()  #循环第一次就退出



if __name__ == '__main__':  #main
    TiebaSpider = TiebaSpider('lol')  #实例化这个类  lol贴吧名
    TiebaSpider.run()
    

最终点击html实现的效果,动手尝试一下吧!

相关推荐
檀越剑指大厂3 分钟前
【Python系列】使用 memory_profiler 诊断 Flask 应用内存问题
开发语言·python·flask
试着8 分钟前
零基础学习性能测试第五章:JVM性能分析与调优-垃圾回收器的分类与回收
jvm·学习·零基础·性能测试·垃圾回收器
livemetee13 分钟前
Flink2.0学习笔记:Stream API 常用转换算子
大数据·学习·flink
WXX_s16 分钟前
【OpenCV篇】OpenCV——03day.图像预处理(2)
人工智能·python·opencv·学习·计算机视觉
艾莉丝努力练剑1 小时前
【LeetCode&数据结构】二叉树的应用(二)——二叉树的前序遍历问题、二叉树的中序遍历问题、二叉树的后序遍历问题详解
c语言·开发语言·数据结构·学习·算法·leetcode·链表
花月mmc1 小时前
CanMV-K230 AI学习笔记系列
人工智能·笔记·学习
Jackilina_Stone1 小时前
【论文|复现】YOLOFuse:面向多模态目标检测的双流融合框架
人工智能·python·目标检测·计算机视觉·融合
fengye2071612 小时前
板凳-------Mysql cookbook学习 (十二--------6)
学习·mysql·adb
双叶8362 小时前
(Python)文件储存的认识,文件路径(文件储存基础教程)(Windows系统文件路径)(基础教程)
开发语言·windows·python
喜欢吃燃面2 小时前
C++:list(1)list的使用
开发语言·c++·学习