免费爬虫软件“HyperlinkCollector超链采集器v0.1”

HyperlinkCollector超链采集器单机版v0.1

软件采用python的pyside2和selenium开发,暂时只支持window环境,抓取方式支持普通程序抓取和selenium模拟浏览器抓取。软件遵守robots协议。

首先下载后解压缩,然后运行app目录下的HyperlinkCollector.exe

运行后,我们先创建一个采集项目。

主要是填写项目名称和起始页url,如果采集多个列表页,可以添加完成后在"设置起始页"中进行修改。

创建好项目后,我们右键选择一个起始页,然后选择"抓取测试",运行后,会在下面显示抓取到的url。

这里我以抓取东方财富网新闻为例:我们要抓取文章的内容,设置一下内容页URL的规则,比如这里我们在"url必须包含"中填写"finance.eastmoney.com/a/"。

然后再重新右键选择起始页进行抓取测试。这时候获取的url就是根据我们设置的规则获取的内容url。然后继续选择其中一条内容url,右键选择"抓取测试"。这时候,测试结果里会显示抓取的内容字段(系统默认添加了一个title和一个body)。

点击切换到"预览"标签,这里显示的是内容页url的预览 ,可以鼠标划取要抓取的内容部分,比如我们要抓取文章内容,我们可以只划取内容开头的一段文字,这时候会弹出一个快捷菜单,可以获取所选内容的xpath或者css选择器名称。

我这里以css选择器为例,点击"获取css选择器"之后,弹出窗口中,显示了包含所选内容的所有"css选择器名称",这里可以对给出的css选择器进行测试,我们选择其中一个对应的。这里需要注意:获取的css选择器是当前选择内容的css选择器,实际中可能需要的是它的父级,这个要根据实际情况进行调节。比如我要抓取整篇文章,但划取后给出的css选择器是"html>body>div.main>div.contentwrap>div.contentbox>div.mainleft>div.zwinfos>div.txtinfos>p" ,只是其中我划取的那一段。这时候可以直接在文本框中修改,使用当前的父级"html>body>div.main>div.contentwrap>div.contentbox>div.mainleft>div.zwinfos>div.txtinfos",然后再点击测试按钮,看看获取的内容是否正确。

设置完成后,选择"添加到采集字段",将设置的 "css选择器"添加到采集字段

然后写一个字段名称保存。然后可以再进行一次测试看是否正常。

最后选择"保存当前项目设置",设置任何修改后,要记得保存,否则采集时还是按以前的规则采集。

做完上面设置后,我们可以在左边的 项目列表中,右键选择刚刚设置的项目,然后选择"运行所选项目"

然后软件就会进行抓取。

数据保存,可以设置保存为excel或导出到接口,默认情况时保存到excel。但实际应用中更实用的时通过一个接口程序保存,以便根据自己的需求对采集数据进行二次加工处理。保存到接口时,数据是以json格式post提交的。设置中给了一个php接收的示例,您可以根据实际情况进行修改。

CSDN下载地址:

免费爬虫软件"HyperlinkCollector超链采集器v0.1"单机版

软件现在免费使用,有些功能还在不断完善中,如果您在使用软件中有什么问题,或者有开发需求,可以与我联系。

相关推荐
攻城狮7号4 小时前
Python爬虫第2节-网页基础和爬虫基本原理
爬虫·python爬虫
π2704 小时前
爬虫:网络请求(通信)步骤,http和https协议
网络·爬虫
叫我王富贵i8 小时前
0基础入门scrapy 框架,获取豆瓣top250存入mysql
爬虫·python·scrapy
小爬虫程序猿8 小时前
利用 PHP 爬虫按关键字搜索淘宝商品
开发语言·爬虫·php
小爬虫程序猿8 小时前
淘宝商品信息如何存储到数据库?
数据库·爬虫·php
南玖yy12 小时前
Python网络爬虫:从入门到实践
爬虫·python
莓事哒14 小时前
selenium和pytessarct提取古诗文网的验证码(python爬虫)
爬虫·python·selenium·测试工具·pycharm
q5673152315 小时前
使用puppeteer库编写的爬虫程序
爬虫·python·网络协议·http
eqwaak015 小时前
量子计算与AI音乐——解锁无限可能的音色宇宙
人工智能·爬虫·python·自动化·量子计算
莓事哒18 小时前
使用pytesseract和Cookie登录古诗文网~(python爬虫)
爬虫·python·pycharm·cookie·pytessarct