简单的爬虫脚本编写

一、数据来源分析

想爬取一个网站的数据,我们首先要进行数据分析。通过浏览器F12开发者工具栏进行抓包,可以分析我们想要的数据来源。

通过关键字搜索,可以找到相对应的数据包

二、爬虫实现

需要用到的模块为:request,parsel

1.发送请求

模拟浏览器对于分析得到的URL地址发送请求,返回响应包

复制代码
url = 'https://example.com'
#浏览器F12查看网络,请求头中可以查看User-Agent,目的是实现浏览器标识,请求合法化
headers={'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:132.0) Gecko/20100101 Firefox/132.0'}
#使用request,将响应数据传入res变量
res = requests.get(url=url,headers=headers)
2.获取数据

获取响应的数据包

复制代码
#创建Selector对象后,你可以使用它来提取网页中的特定数据。例如,你可以使用XPath或CSS选择器来查找元素:
selector = parsel.Selector(res.text)
3.解析数据

解析数据内容,获取我们想要的内容。

创建Selector对象后,你可以使用它来提取网页中的特定数据。可以使用XPath或CSS选择器来查找元素

复制代码
trs = selector.css('CSS选择器')
        #遍历每一组数据
        for tr in trs:
                #获取每一行的第一个数据
                first = tr.css('td:nth-child(1)::text').get()
                #将每一个数据写插入列表
                example_list.append(first)
4.保存数据

将爬取下来的目标数据进行保存.

复制代码
with open('example.txt','w',encoding=utf-8') as f:
        for item in example.list:
            f.write(str(item) + '
')

在使用with语句打开文件时,不需要显式调用f.close()来关闭文件。with语句会在代码块执行完毕后自动关闭文件。

相关推荐
亿牛云爬虫专家1 天前
Worker越简单,系统越稳定:从单机到集群
爬虫·python·集群·爬虫代理·单机·代理ip·worker
是有头发的程序猿1 天前
Python爬虫防检测实战:基于类封装的工程化解决方案(2026)
开发语言·爬虫·python
B站计算机毕业设计之家1 天前
AI大模型:基于大数据动漫数据分析可视化系统 漫画 番剧 知音漫客 Django框架 requests爬虫 大数据毕业设计(建议收藏)✅
大数据·人工智能·爬虫·python·数据分析·django·动漫
有味道的男人1 天前
京东关键词搜索商品列表的Python爬虫实战
开发语言·爬虫·python
小心我捶你啊2 天前
动态IP轮换技术解析:从代理池架构到爬虫风控规避
爬虫·网络协议·tcp/ip
大哥手下留情2 天前
Java异步爬虫高效抓取小红书短视频技术解析
java·爬虫·音视频
星川皆无恙2 天前
气象数据分析:基于python机器学习全国气象数据爬虫可视化预测分析系统
大数据·爬虫·python·机器学习·数据挖掘·数据分析·scikit-learn
ipooipoo11882 天前
详解动态住宅 IP 代理:核心定义、优势及典型应用场景(跨境 / 爬虫必备)
网络·爬虫·网络协议·tcp/ip
qq_317620312 天前
第23章-中级项目练习案例(15个)
数据库·爬虫·web开发·python项目·api开发·python案例
小白学大数据2 天前
未来趋势:AI 时代下 python 爬虫技术的发展方向
运维·人工智能·爬虫·python·自动化