简单的爬虫脚本编写

一、数据来源分析

想爬取一个网站的数据,我们首先要进行数据分析。通过浏览器F12开发者工具栏进行抓包,可以分析我们想要的数据来源。

通过关键字搜索,可以找到相对应的数据包

二、爬虫实现

需要用到的模块为:request,parsel

1.发送请求

模拟浏览器对于分析得到的URL地址发送请求,返回响应包

复制代码
url = 'https://example.com'
#浏览器F12查看网络,请求头中可以查看User-Agent,目的是实现浏览器标识,请求合法化
headers={'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:132.0) Gecko/20100101 Firefox/132.0'}
#使用request,将响应数据传入res变量
res = requests.get(url=url,headers=headers)

2.获取数据

获取响应的数据包

复制代码
#创建Selector对象后,你可以使用它来提取网页中的特定数据。例如,你可以使用XPath或CSS选择器来查找元素:
selector = parsel.Selector(res.text)

3.解析数据

解析数据内容,获取我们想要的内容。

创建Selector对象后,你可以使用它来提取网页中的特定数据。可以使用XPath或CSS选择器来查找元素

复制代码
trs = selector.css('CSS选择器')
        #遍历每一组数据
        for tr in trs:
                #获取每一行的第一个数据
                first = tr.css('td:nth-child(1)::text').get()
                #将每一个数据写插入列表
                example_list.append(first)

4.保存数据

将爬取下来的目标数据进行保存.

复制代码
with open('example.txt','w',encoding=utf-8') as f:
        for item in example.list:
            f.write(str(item) + '\n')

在使用with语句打开文件时,不需要显式调用f.close()来关闭文件。with语句会在代码块执行完毕后自动关闭文件。

相关推荐
进击的雷神4 小时前
突破POST分页与IP封锁:基于表单提交和代理转发的新闻爬虫设计
爬虫·网络协议·tcp/ip
小邓睡不饱耶10 小时前
东方财富股吧话题爬虫实现:从接口请求到Excel数据落地
爬虫·excel
进击的雷神10 小时前
攻克动态列表页结构:基于ID与URL双字段协同提取的精准爬虫设计
爬虫·spiderflow
进击的雷神1 天前
分页参数推导、嵌套数据提取、多语言地址判断、去重插入检查——韩国Koplas展爬虫四大技术难关攻克纪实
爬虫·python
xxjj998a1 天前
Python 爬虫实战案例 - 获取社交平台事件热度并进行影响分析
开发语言·爬虫·python
三三有猫1 天前
爬虫代理基础知识:为什么用与怎么用
开发语言·c++·爬虫
白日与明月1 天前
Pandas 读取文本数据 (Text I/O) 速查表
爬虫·python·pandas
逆向新手1 天前
chrome-devtools-mcp不能远程调试的问题与解决方法_2026-03-25
爬虫·ai编程·逆向
ZTLJQ1 天前
数据采集的工业级武器:Python爬虫框架完全解析
开发语言·爬虫·python
0pen12 天前
Phone Control - 高效的 Android 设备群控解决方案
android·爬虫·ai编程