CSDN热榜分析6:将实时爬取的热榜数据导入sqlite

文章目录

初始化数据库

引入数据库的目的不止是为了存储,更多地也是为了便于查询,否则也没必要用一个Text控件来展示信息了。

所以一个正常的工作逻辑是,一打开热榜分析系统,也就同步打开数据库,然后随用随查,而打开数据库之后需要检查是否已经建立了热榜表格,如果没建立那么就建立一下。

所以在初始化函数中新增一个self.initSql(),内容如下

python 复制代码
def initSql(self):
    self.dbCSDN = sqlite3.connect('csdn.db')
    HEADS = 'create table heat (日期 int, 时间 int, 热榜 text, 序号 int, '
    HEADS += '标题 text, 作者 text, 浏览 int, '
    HEADS += '评论 int, 收藏 int, 热度 int)'
    try: self.dbCSDN.execute(HEADS)
    except: pass

如果已经有了heat表格,那么再去创建就会报错,所以只要pass掉就可以了。

接口更改

相比于读取完所有数据之后一次性导入数据库,在数据爬取的过程中导入显然更加自然。

另一方面,读取数据需要新开一个线程,而sqlite3模块并不支持跨线程操作,所以只能等数据传回来再操作,

这两个条件,就基本框定了技术方案,只能在爬虫回调时写入数据库,但之前的回调函数是直接把当前爬取的数据列表传回,而非单条数据,所以需要花费一点精力修改接口,主要就是把大部分调用回调函数的地方,从类似callback(blogs)改为callback(b),然后将backOneSubHeat改成下列形式

python 复制代码
def backOneSubHeat(self, L, info, field=None):
    if field not in self.subHeats:
        self.subHeats[field] = []
    if L != []:
        self.subHeats[field].append(L)
    if info.endswith("完毕"):
        n = len(self.subHeats[field])
        self.addLogs(f"共读取了{field}领域{n}篇博客")

同时为了接口统一,之前的backAllSubHeat就没有必要存在了,同时更改getAllSubHeatInfos函数

python 复制代码
def getAllSubHeatInfos(callback):
    blogs = {}
    for key in SUB_HEATS:
        func = lambda L, info : callback(L, info, key)
        func([], f"正在读取{key}领域热榜")
        blogs[key] = getHeatInfos(func, key)
        func([], f"{key}已经读取完成")
    func([], f"所有领域热榜都已读取完成")
    return blogs

数据库写入

最麻烦的工作结束了,现在可以开始数据库写入

python 复制代码
# L为回传的数据
def importHeatToSql(self, L, field):
    CODE = "insert into heat values (date('now'), time('now'), "
    bInfo = ', '.join([f"'{iL}'" for iL in L])
    c = CODE + f"'{field}', {bInfo})" 
    try: 
        self.dbCSDN.execute(c)
    except Exception as e: 
        print(e, c)

最后,在关闭窗口时,别忘了存储和关闭数据库,首先在初始化函数中添加

python 复制代码
self.root.protocol("WM_DELETE_WINDOW", self.exit)

其self.exit内容如下

python 复制代码
def exit(self):
    self.dbCSDN.commit()
    self.dbCSDN.close()
    self.root.destroy()

为了确保的的确确把数据写入了数据库,可以用SQLiteStudio查看一下,

相关推荐
Caco.D24 分钟前
Aneiang.Pa.News:属于你自己的全平台热点聚合阅读器
爬虫·asp.net·aneiang.pa·热榜新闻
小白学大数据7 小时前
Java 异步爬虫高效获取小红书短视频内容
java·开发语言·爬虫·python·音视频
我想吃烤肉肉8 小时前
Python 中 asyncio 是什么?
爬虫·python·自动化
bjzhang759 小时前
Dorisoy.AMS--一款采用C# WinForm框架+SQLite数据库的企业/机构资产管理解决方案
sqlite·c#·资产管理
松涛和鸣12 小时前
DAY47 FrameBuffer
c语言·数据库·单片机·sqlite·html
派圣12 小时前
HTML:SQLite本地网页查看
sqlite
@杨某13 小时前
超级鹰的使用
爬虫·selenium
小白学大数据13 小时前
百科词条结构化抓取:Java 正则表达式与 XPath 解析对比
java·开发语言·爬虫·正则表达式
Rysxt_14 小时前
UniApp 集成 SQLite 数据库完整教程
sqlite·uniapp
泡泡以安15 小时前
【爬虫教程】第4章:HTTP客户端库深度定制(httpx/aiohttp)
爬虫·http·httpx