python实现批量化查询耗时SQL

python实现批量化查询耗时SQL

今天发现最近多了一些耗时SQL的查询,例如我去数据库一张千万级表查询一天的数据需要耗时20分钟,我总共需要查询一年的数据,我总不能一条一条的手动执行吧,这样也太伤身体,属实难崩啊。就算将这些SQL都弄好放到navicat里面执行,一个窗口最多只能展示20个结果,根本不够用,所以只能另想他法。于是我就计划用python程序解决这个问题,将每次查询的结果保存到一个CSV文件里面,这样我就能等它查询之后,一键复制就行,真实老婆婆吃豆腐------放120个心,哈哈哈哈哈,下面开始上程序!!!

import csv
from pymysql import *
import time
from datetime import datetime, timedelta

conn = connect(host='xxxxxx',
               port=3306,
               user='xxxxxx',
               password='xxxxxx',
               database='xxxxxx',
               charset='utf8mb4')

sites = ["bw_web", "bw_app"]

data_list = []
start_date = datetime(2024, 1, 1)
end_date = datetime(2024, 7, 22)
current_date = start_date
while current_date <= end_date:
    date = current_date.strftime("%Y-%m-%d")
    print(date)

    rows_list = [date]
    for site in sites:
        cs = conn.cursor()  # 获取光标
        sql = f"SELECT count(1) as pv, count( DISTINCT ( token_id ) ) as uv FROM msg2024{current_date.month} WHERE server_day = '{date}' AND track_event = '0' AND site_id = '{site}'; \n"
        start_time = time.time()
        cs.execute(sql)
        rows = cs.fetchall()
        # 记录结束时间
        end_time = time.time()
        # 计算执行时间
        execution_time = end_time - start_time
        conn.commit()
        pv_value = rows[0][0]
        uv_value = rows[0][1]

        print(f"======>track库共花费{execution_time:.6f}秒执行完毕,{sql},pv为{pv_value},uv为{uv_value}")

        rows_list.append(pv_value)
        rows_list.append(uv_value)

    data_list.append(rows_list)
    current_date += timedelta(days=1)

print(data_list)

with open('result.csv', 'w', newline='', encoding='utf-8-sig') as file:
    writer = csv.writer(file)
    csv_title = ['date', 'track-web-pv', 'track-web-uv', 'track-app-pv', 'track-app-uv']
    writer.writerow(csv_title)
    writer.writerows(data_list)

写在最后

编程精选网(www.codehuber.com),程序员的终身学习网站已上线!

如果这篇【文章】有帮助到你,希望可以给【JavaGPT】点个赞👍,创作不易,如果有对【后端技术 】、【前端领域 】感兴趣的小可爱,也欢迎关注❤️❤️❤️ 【JavaGPT】❤️❤️❤️,我将会给你带来巨大的【收获与惊喜】💝💝💝!

相关推荐
lucky_syq22 分钟前
Hive SQL和Spark SQL的区别?
hive·sql·spark
Kai HVZ27 分钟前
python爬虫----爬取视频实战
爬虫·python·音视频
古希腊掌管学习的神29 分钟前
[LeetCode-Python版]相向双指针——611. 有效三角形的个数
开发语言·python·leetcode
赵钰老师30 分钟前
【R语言遥感技术】“R+遥感”的水环境综合评价方法
开发语言·数据分析·r语言
m0_7482448332 分钟前
StarRocks 排查单副本表
大数据·数据库·python
就爱学编程38 分钟前
重生之我在异世界学编程之C语言小项目:通讯录
c语言·开发语言·数据结构·算法
B站计算机毕业设计超人38 分钟前
计算机毕业设计PySpark+Hadoop中国城市交通分析与预测 Python交通预测 Python交通可视化 客流量预测 交通大数据 机器学习 深度学习
大数据·人工智能·爬虫·python·机器学习·课程设计·数据可视化
路人甲ing..41 分钟前
jupyter切换内核方法配置问题总结
chrome·python·jupyter
游客5201 小时前
opencv中的常用的100个API
图像处理·人工智能·python·opencv·计算机视觉
Oneforlove_twoforjob1 小时前
【Java基础面试题025】什么是Java的Integer缓存池?
java·开发语言·缓存