大家好,我是"蒋点数分",多年以来一直从事数据分析工作。从今天开始,与大家持续分享关于数据分析的学习内容。
本文是第 2 篇,也是【SQL 周周练】系列的第 2 篇。该系列是挑选或自创具有一些难度的 SQL 题目,一周至少更新一篇。后续创作的内容,初步规划的方向包括:
后续内容规划
1.利用 Streamlit 实现 Hive 元数据展示
、SQL 编辑器
、 结合Docker 沙箱实现数据分析 Agent
2.时间序列异常识别、异动归因算法 3.留存率拟合、预测、建模 4.学习 AB 实验
、复杂实验设计等 5.自动化机器学习
、自动化特征工程 6.因果推断
学习
- ......
欢迎关注,一起学习。
第 2 期题目
题目来源:自创题目,场景来源于香港电影《无双》
一、题目介绍
《无双》是一部很不错的电影,其主题是伪造美钞。虽然已经上映多年,但其中"无酸纸"、"变色油墨"的梗,至今在网上依旧可以看到。其中的一个经典片段 ------"画家"(周润发)嗔怪"李问"(郭富城)订购了500吨无酸纸,说让"李文"活着给他印完(当然结尾展示了郭富城其实才是"画家")。那么由此而来,我想出了一道 SQL 题:
假设伪钞集团每日给你供应随机数量的变色油墨
、无酸纸
、安全线/防伪线
(未用完的材料可以留给后面用),凹版印刷机等其他材料和工具也已经准备好。
请你计算每天能制作伪钞多少张,并且根据当天的情况输出第二天最缺哪种材料:
列名 | 数据类型 | 注释 |
---|---|---|
date | string | 日期 |
acid_free_paper_supply | int | 无酸纸供应量(单位g) |
optically_variable_ink_supply | int | 变色油墨供应量(单位mg) |
security_thread_supply | int | 安全线供应量 |
假设 一张伪钞需要 1g 无酸纸,0.005g 的变色油墨,1 根安全线;印制过程中不考虑损耗
二、题目思路
想要答题的同学,可以先思考答案🤔。 .......
.......
.......
我来谈谈我的思路:这道题目的设计,材料是以固定比例的投入产生一张伪钞,哪种材料相对较少,哪种材料就限制住了伪钞的制造数量;所以可以单独计算三种材料能制造多少伪钞 ,然后用 least
求最小值,类似"木桶短板理论"。题目里提到了当日未用完的材料,可以后面再用;所以每天不需要单独计算,直接计算从开始到当天 => 这又用上了数据分析师的老朋友"窗口函数"。
下面,我用 NumPy
和 Scipy
生成模拟的数据集:
三、生成模拟数据
只关心 SQL 代码的同学,可以跳转到第四节(我在工作中使用 Hive
较多,因此采用 Hive
的语法)
模拟代码如下:
- 定义模拟逻辑需要的
常量
,计算目标数量的伪钞需要多少材料:
python
import numpy as np
import pandas as pd
import scipy
# 随机数种子
RANDOM_SEED = 2025
# 伪造开始日期
START_DATE = "2025-05-01"
# 伪造天数
NUM_DAY = 10
# 需要伪造的伪钞数量(张数,非金额)
NUM_TOTAL_COUNTERFEIT_CURRENCY = 1_000_000
# 一张伪钞需要多少无酸纸,简化问题只考虑重量(单位 g)
ACID_FREE_PAPER_EACH_COUNTERFEIT_CURRENCY = 1
# 所有伪钞需要的无酸纸(1.05 是一个冗余度,所有材料类似)
ACID_FREE_PAPER_ALL_NEED = (
ACID_FREE_PAPER_EACH_COUNTERFEIT_CURRENCY
* NUM_TOTAL_COUNTERFEIT_CURRENCY
* 1.05
)
# 一张伪钞需要多少变色油墨,重量(单位 mg)
OPTICALLY_VARIABLE_INK_EACH_COUNTERFEIT_CURRENCY = 5
# 所有伪钞需要的变色油墨
OPTICALLY_VARIABLE_INK_ALL_NEED = (
OPTICALLY_VARIABLE_INK_EACH_COUNTERFEIT_CURRENCY
* NUM_TOTAL_COUNTERFEIT_CURRENCY
* 1.05
)
# 一张伪钞需要多少安全线(单位 条)
SECURITY_THREAD_EACH_COUNTERFEIT_CURRENCY = 1
# 所有伪钞需要的防伪线
SECURITY_THREAD_ALL_NEED = (
SECURITY_THREAD_EACH_COUNTERFEIT_CURRENCY
* NUM_TOTAL_COUNTERFEIT_CURRENCY
* 1.05
)
- 伪钞需要的材料每天按照随机的权重提供,权重需要归一化:
python
# 权重范围,用来随机生成数据(需要归一化)
WEIGHT_RANGE = (0.2, 2)
# 无酸纸每天供应的随机权重
acid_free_paper_supply_weight = scipy.stats.uniform.rvs(
loc=WEIGHT_RANGE[0],
scale=WEIGHT_RANGE[1] - WEIGHT_RANGE[0],
size=NUM_DAY,
random_state=RANDOM_SEED - 1,
)
# 变色油墨每天供应的权重
optically_variable_ink_supply_weight = scipy.stats.uniform.rvs(
loc=WEIGHT_RANGE[0],
scale=WEIGHT_RANGE[1] - WEIGHT_RANGE[0],
size=NUM_DAY,
random_state=RANDOM_SEED,
)
# 安全线每天供应的权重
security_thread_supply_weight = scipy.stats.uniform.rvs(
loc=WEIGHT_RANGE[0],
scale=WEIGHT_RANGE[1] - WEIGHT_RANGE[0],
size=NUM_DAY,
random_state=RANDOM_SEED + 1,
)
# 将权重归一化,使得所有天数的供应比例和为 1
acid_free_paper_supply_weight /= acid_free_paper_supply_weight.sum()
optically_variable_ink_supply_weight /= optically_variable_ink_supply_weight.sum()
security_thread_supply_weight /= security_thread_supply_weight.sum()
- 将前面生成的数据转为
pd.DataFrame
,并输出为csv
文件:
python
df = pd.DataFrame(
{
"acid_free_paper_supply": ACID_FREE_PAPER_ALL_NEED
* acid_free_paper_supply_weight,
"optically_variable_ink_supply": OPTICALLY_VARIABLE_INK_ALL_NEED
* optically_variable_ink_supply_weight,
"security_thread_supply": SECURITY_THREAD_ALL_NEED
* security_thread_supply_weight
}
)
# 四舍五入并转为 int
df = df.round().astype(int)
df["date"] = pd.date_range(start=START_DATE, periods=NUM_DAY, freq="D")
# 在 Jupyter 中展示数据
display(df)
out_csv_path = "./dwd_conterfeit_material_daily_supply_records.csv"
columns = [
"date",
"acid_free_paper_supply",
"optically_variable_ink_supply",
"security_thread_supply"
]
# 导出 csv 用来让 hive load 数据,utf-8-sig 编码处理中文,虽然表里数据没有中文
df[columns].to_csv(out_csv_path, header=False, index=False, encoding="utf-8-sig")
- 创建新的
Hive
表,并将数据load
到表中:
python
from pyhive import hive
# 配置连接参数
host_ip = "127.0.0.1"
port = 10000
username = "蒋点数分"
with hive.Connection(host=host_ip, port=port) as conn:
cursor = conn.cursor()
drop_table_sql = """
drop table if exists data_exercise.dwd_conterfeit_material_daily_supply_records
"""
print(drop_table_sql)
cursor.execute(drop_table_sql)
create_table_sql = """
create table data_exercise.dwd_conterfeit_material_daily_supply_records (
`date` string comment "日期",
acid_free_paper_supply int comment "无酸纸供应量(单位g)",
optically_variable_ink_supply int comment "变色油墨供应量(单位mg)",
security_thread_supply int comment "安全线供应量"
)
comment "伪钞集团每天供应的伪钞原材料数量 | 文章编号:2c3d2561"
row format delimited fields terminated by ","
stored as textfile
"""
print(create_table_sql)
cursor.execute(create_table_sql)
import os
load_data_sql = f"""
load data local inpath "{os.path.abspath(out_csv_path)}"
overwrite into table data_exercise.dwd_conterfeit_material_daily_supply_records
"""
print(load_data_sql)
cursor.execute(load_data_sql)
cursor.close()
我通过使用
PyHive
包实现 Python 操作Hive
。我个人电脑部署了Hadoop
及Hive
,但是没有开启认证,企业里一般常用Kerberos
来进行大数据集群的认证。
四、SQL 解答
思路在第二节已经说明,下面是代码,细节参见注释。其中 cumulative_conterfeit_all_restriction
等于哪种材料的 cumulative_conterfeit_only...
就可以认为第二天最缺哪种材料(伪钞制造量被这种材料制约)。提示:order by
时,统计的窗口范围默认是 rows between preceding unbounded and current row
,写清楚更好。三种材料单独判断,然后用 concat_ws
合并结果(注意其他 SQL 方言不一定有 Hive
的这个函数)。
每天的伪钞制造量 action_daily_production
使用 cumulative_conterfeit_all_restriction
结合窗口函数 lag
减去上一行即可。
sql
with calc_single_material_restrict_production as (
-- 计算一种材料限制能造多少美元伪钞
select
`date`
, acid_free_paper_supply
, optically_variable_ink_supply
, security_thread_supply
-- 只考虑无酸纸,不考虑其他材料和每日最大制造量限制,累计伪钞制作数,下面以此类推
-- 有些材料比例为 1,因此不额外写除以 1
, sum(acid_free_paper_supply) over(order by `date` asc) as cumulative_conterfeit_only_acid_free_paper
-- 注意向下取整
, floor(sum(optically_variable_ink_supply) over(order by `date` asc) / 5) as cumulative_conterfeit_only_optically_variable_ink
, sum(security_thread_supply) over(order by `date` asc) as cumulative_conterfeit_only_security_thread
from data_exercise.dwd_conterfeit_material_daily_supply_records
)
, calc_all_restriction_prodection as (
select
`date`
, acid_free_paper_supply
, optically_variable_ink_supply
, security_thread_supply
, cumulative_conterfeit_only_acid_free_paper
, cumulative_conterfeit_only_optically_variable_ink
, cumulative_conterfeit_only_security_thread
-- 使用 least 计算最小值
, least(
cumulative_conterfeit_only_acid_free_paper,
cumulative_conterfeit_only_optically_variable_ink,
cumulative_conterfeit_only_security_thread
) as cumulative_conterfeit_all_restriction
from calc_single_material_restrict_production
)
select
`date`
, cumulative_conterfeit_only_acid_free_paper
, cumulative_conterfeit_only_optically_variable_ink
, cumulative_conterfeit_only_security_thread
, cumulative_conterfeit_all_restriction
-- 减去上一行的数据,获取每日伪钞制造量
, cumulative_conterfeit_all_restriction - lag(cumulative_conterfeit_all_restriction, 1, 0) over(order by `date` asc) as action_daily_production
, if( cumulative_conterfeit_all_restriction >= 1000000, null, -- 已经完成目标量,就不写缺哪种材料了
concat_ws(',',
if(cumulative_conterfeit_only_acid_free_paper=cumulative_conterfeit_all_restriction, '无酸纸', null),
if(cumulative_conterfeit_only_optically_variable_ink=cumulative_conterfeit_all_restriction, '变色油墨', null),
if(cumulative_conterfeit_only_security_thread=cumulative_conterfeit_all_restriction, '安全线', null)
)
) as `最缺的材料`
from calc_all_restriction_prodection
查询结果如下:
date | cumulative_conterfeit_only_acid_free_paper | cumulative_conterfeit_only_optically_variable_ink | cumulative_conterfeit_only_security_thread | cumulative_conterfeit_all_restriction | action_daily_production | 最缺的材料 |
---|---|---|---|---|---|---|
2025-05-01 | 139293 | 36604 | 51579 | 36604 | 36604 | 变色油墨 |
2025-05-02 | 300720 | 184888 | 133386 | 133386 | 96782 | 安全线 |
2025-05-03 | 360345 | 339815 | 303165 | 303165 | 169779 | 安全线 |
2025-05-04 | 391211 | 422448 | 334383 | 334383 | 31218 | 安全线 |
2025-05-05 | 454196 | 496570 | 426535 | 426535 | 92152 | 安全线 |
2025-05-06 | 497465 | 551300 | 598018 | 497465 | 70930 | 无酸纸 |
2025-05-07 | 664497 | 665371 | 646287 | 646287 | 148822 | 安全线 |
2025-05-08 | 821998 | 754988 | 805933 | 754988 | 108701 | 变色油墨 |
2025-05-09 | 938544 | 914610 | 910409 | 910409 | 155421 | 安全线 |
2025-05-10 | 1050000 | 1050000 | 1050001 | 1050000 | 139591 | null |

上面的图片,是我在 Python
中使用 pyvchart
库实现的,它是字节跳动开源的 vchart
的 Python 包,当然你也可以使用 pyecharts
。pd.melt
函数用于将"宽数据框"转"长数据框"。代码部分如下:
python
with hive.Connection(host=host_ip, port=port) as conn:
select_data_sql = ''' 我给出 SQL 答案 '''
df_outcome = pd.read_sql_query(select_data_sql, conn)
from pyvchart import render_chart
spec = {
"type": 'area',
"data": [
{
"id": 'lineData',
"values": pd.melt(df_outcome[[
'date','cumulative_conterfeit_only_acid_free_paper',
'cumulative_conterfeit_only_optically_variable_ink',
'cumulative_conterfeit_only_security_thread'
]], id_vars=['date']).to_dict(orient='records')
},
{
"id": 'areaData',
"values": pd.melt(df_outcome[['date','cumulative_conterfeit_all_restriction',
'最缺的材料']], id_vars=['date']).to_dict(orient='records')
},
],
"series": [
{
"type": 'line',
"dataId": 'lineData',
"xField": 'date',
"yField": 'value',
"seriesField": 'variable',
},
{
"type": 'area',
"dataId": 'areaData',
"xField": 'date',
"yField": 'value',
"seriesField": 'variable',
},
],
};
display(render_chart(spec))
😁😁😁 我现在正在求职数据类工作(主要是数据分析或数据科学);如果您有合适的机会,恳请您与我联系,即时到岗,不限城市。您可以发送私信或通过公众号联系我(全网同名:蒋点数分)。