【SQL周周练】给你无酸纸、变色油墨,你能伪造多少美金?

大家好,我是"蒋点数分",多年以来一直从事数据分析工作。从今天开始,与大家持续分享关于数据分析的学习内容。

本文是第 2 篇,也是【SQL 周周练】系列的第 2 篇。该系列是挑选或自创具有一些难度的 SQL 题目,一周至少更新一篇。后续创作的内容,初步规划的方向包括:

后续内容规划

1.利用 Streamlit 实现 Hive 元数据展示SQL 编辑器、 结合Docker 沙箱实现数据分析 Agent 2.时间序列异常识别、异动归因算法 3.留存率拟合、预测、建模 4.学习 AB 实验、复杂实验设计等 5.自动化机器学习、自动化特征工程 6.因果推断学习

  1. ......

欢迎关注,一起学习。

第 2 期题目

题目来源:自创题目,场景来源于香港电影《无双》

一、题目介绍

《无双》是一部很不错的电影,其主题是伪造美钞。虽然已经上映多年,但其中"无酸纸"、"变色油墨"的梗,至今在网上依旧可以看到。其中的一个经典片段 ------"画家"(周润发)嗔怪"李问"(郭富城)订购了500吨无酸纸,说让"李文"活着给他印完(当然结尾展示了郭富城其实才是"画家")。那么由此而来,我想出了一道 SQL 题:

假设伪钞集团每日给你供应随机数量的变色油墨无酸纸安全线/防伪线(未用完的材料可以留给后面用),凹版印刷机等其他材料和工具也已经准备好。

请你计算每天能制作伪钞多少张,并且根据当天的情况输出第二天最缺哪种材料:

列名 数据类型 注释
date string 日期
acid_free_paper_supply int 无酸纸供应量(单位g)
optically_variable_ink_supply int 变色油墨供应量(单位mg)
security_thread_supply int 安全线供应量

假设 一张伪钞需要 1g 无酸纸,0.005g 的变色油墨,1 根安全线;印制过程中不考虑损耗

二、题目思路

想要答题的同学,可以先思考答案🤔。 .......

.......

.......

我来谈谈我的思路:这道题目的设计,材料是以固定比例的投入产生一张伪钞,哪种材料相对较少,哪种材料就限制住了伪钞的制造数量;所以可以单独计算三种材料能制造多少伪钞 ,然后用 least 求最小值,类似"木桶短板理论"。题目里提到了当日未用完的材料,可以后面再用;所以每天不需要单独计算,直接计算从开始到当天 => 这又用上了数据分析师的老朋友"窗口函数"。

下面,我用 NumPyScipy 生成模拟的数据集:

三、生成模拟数据

只关心 SQL 代码的同学,可以跳转到第四节(我在工作中使用 Hive 较多,因此采用 Hive 的语法)

模拟代码如下:

  1. 定义模拟逻辑需要的常量,计算目标数量的伪钞需要多少材料:
python 复制代码
import numpy as np
import pandas as pd
import scipy

# 随机数种子
RANDOM_SEED = 2025
# 伪造开始日期
START_DATE = "2025-05-01"
# 伪造天数
NUM_DAY = 10
# 需要伪造的伪钞数量(张数,非金额)
NUM_TOTAL_COUNTERFEIT_CURRENCY = 1_000_000

# 一张伪钞需要多少无酸纸,简化问题只考虑重量(单位 g)
ACID_FREE_PAPER_EACH_COUNTERFEIT_CURRENCY = 1
# 所有伪钞需要的无酸纸(1.05 是一个冗余度,所有材料类似)
ACID_FREE_PAPER_ALL_NEED = (
    ACID_FREE_PAPER_EACH_COUNTERFEIT_CURRENCY 
    * NUM_TOTAL_COUNTERFEIT_CURRENCY 
    * 1.05
)

# 一张伪钞需要多少变色油墨,重量(单位 mg)
OPTICALLY_VARIABLE_INK_EACH_COUNTERFEIT_CURRENCY = 5
# 所有伪钞需要的变色油墨
OPTICALLY_VARIABLE_INK_ALL_NEED = (
    OPTICALLY_VARIABLE_INK_EACH_COUNTERFEIT_CURRENCY
    * NUM_TOTAL_COUNTERFEIT_CURRENCY
    * 1.05
)

# 一张伪钞需要多少安全线(单位 条)
SECURITY_THREAD_EACH_COUNTERFEIT_CURRENCY = 1
# 所有伪钞需要的防伪线
SECURITY_THREAD_ALL_NEED = (
    SECURITY_THREAD_EACH_COUNTERFEIT_CURRENCY 
    * NUM_TOTAL_COUNTERFEIT_CURRENCY 
    * 1.05
)
  1. 伪钞需要的材料每天按照随机的权重提供,权重需要归一化:
python 复制代码
# 权重范围,用来随机生成数据(需要归一化)
WEIGHT_RANGE = (0.2, 2)

# 无酸纸每天供应的随机权重
acid_free_paper_supply_weight = scipy.stats.uniform.rvs(
    loc=WEIGHT_RANGE[0],
    scale=WEIGHT_RANGE[1] - WEIGHT_RANGE[0],
    size=NUM_DAY,
    random_state=RANDOM_SEED - 1,
)

# 变色油墨每天供应的权重
optically_variable_ink_supply_weight = scipy.stats.uniform.rvs(
    loc=WEIGHT_RANGE[0],
    scale=WEIGHT_RANGE[1] - WEIGHT_RANGE[0],
    size=NUM_DAY,
    random_state=RANDOM_SEED,
)

# 安全线每天供应的权重
security_thread_supply_weight = scipy.stats.uniform.rvs(
    loc=WEIGHT_RANGE[0],
    scale=WEIGHT_RANGE[1] - WEIGHT_RANGE[0],
    size=NUM_DAY,
    random_state=RANDOM_SEED + 1,
)

# 将权重归一化,使得所有天数的供应比例和为 1
acid_free_paper_supply_weight /= acid_free_paper_supply_weight.sum()
optically_variable_ink_supply_weight /= optically_variable_ink_supply_weight.sum()
security_thread_supply_weight /= security_thread_supply_weight.sum()
  1. 将前面生成的数据转为 pd.DataFrame,并输出为 csv 文件:
python 复制代码
df = pd.DataFrame(
    {
        "acid_free_paper_supply": ACID_FREE_PAPER_ALL_NEED
        * acid_free_paper_supply_weight,
        "optically_variable_ink_supply": OPTICALLY_VARIABLE_INK_ALL_NEED
        * optically_variable_ink_supply_weight,
        "security_thread_supply": SECURITY_THREAD_ALL_NEED
        * security_thread_supply_weight
    }
)

# 四舍五入并转为 int
df = df.round().astype(int)
df["date"] = pd.date_range(start=START_DATE, periods=NUM_DAY, freq="D")

# 在 Jupyter 中展示数据
display(df)

out_csv_path = "./dwd_conterfeit_material_daily_supply_records.csv"
columns = [
    "date",
    "acid_free_paper_supply",
    "optically_variable_ink_supply",
    "security_thread_supply"
]
# 导出 csv 用来让 hive load 数据,utf-8-sig 编码处理中文,虽然表里数据没有中文
df[columns].to_csv(out_csv_path, header=False, index=False, encoding="utf-8-sig")
  1. 创建新的 Hive 表,并将数据 load 到表中:
python 复制代码
from pyhive import hive

# 配置连接参数
host_ip = "127.0.0.1"
port = 10000
username = "蒋点数分"


with hive.Connection(host=host_ip, port=port) as conn:
    cursor = conn.cursor()

    drop_table_sql = """
    drop table if exists data_exercise.dwd_conterfeit_material_daily_supply_records
    """
    print(drop_table_sql)
    cursor.execute(drop_table_sql)

    create_table_sql = """
    create table data_exercise.dwd_conterfeit_material_daily_supply_records (
        `date` string comment "日期",
        acid_free_paper_supply int comment "无酸纸供应量(单位g)",
        optically_variable_ink_supply int comment "变色油墨供应量(单位mg)",
        security_thread_supply int comment "安全线供应量"
    )
    comment "伪钞集团每天供应的伪钞原材料数量 | 文章编号:2c3d2561"
    row format delimited fields terminated by ","
    stored as textfile
    """
    
    print(create_table_sql)
    cursor.execute(create_table_sql)

    import os
    
    load_data_sql = f"""
    load data local inpath "{os.path.abspath(out_csv_path)}" 
    overwrite into table data_exercise.dwd_conterfeit_material_daily_supply_records
    """
    
    print(load_data_sql)
    cursor.execute(load_data_sql)

    cursor.close()

我通过使用 PyHive 包实现 Python 操作 Hive。我个人电脑部署了 HadoopHive,但是没有开启认证,企业里一般常用 Kerberos 来进行大数据集群的认证。

四、SQL 解答

思路在第二节已经说明,下面是代码,细节参见注释。其中 cumulative_conterfeit_all_restriction 等于哪种材料的 cumulative_conterfeit_only... 就可以认为第二天最缺哪种材料(伪钞制造量被这种材料制约)。提示:order by 时,统计的窗口范围默认是 rows between preceding unbounded and current row,写清楚更好。三种材料单独判断,然后用 concat_ws 合并结果(注意其他 SQL 方言不一定有 Hive 的这个函数)。

每天的伪钞制造量 action_daily_production 使用 cumulative_conterfeit_all_restriction 结合窗口函数 lag 减去上一行即可。

sql 复制代码
with calc_single_material_restrict_production as (
    -- 计算一种材料限制能造多少美元伪钞
    select
      `date`
    , acid_free_paper_supply
    , optically_variable_ink_supply
    , security_thread_supply
    -- 只考虑无酸纸,不考虑其他材料和每日最大制造量限制,累计伪钞制作数,下面以此类推
    -- 有些材料比例为 1,因此不额外写除以 1
    , sum(acid_free_paper_supply) over(order by `date` asc) as cumulative_conterfeit_only_acid_free_paper
    -- 注意向下取整
    , floor(sum(optically_variable_ink_supply) over(order by `date` asc) / 5) as cumulative_conterfeit_only_optically_variable_ink
    , sum(security_thread_supply) over(order by `date` asc) as cumulative_conterfeit_only_security_thread
    from data_exercise.dwd_conterfeit_material_daily_supply_records
)

, calc_all_restriction_prodection as (
    select
      `date`
    , acid_free_paper_supply
    , optically_variable_ink_supply
    , security_thread_supply
    , cumulative_conterfeit_only_acid_free_paper
    , cumulative_conterfeit_only_optically_variable_ink
    , cumulative_conterfeit_only_security_thread
    -- 使用 least 计算最小值
    , least(
        cumulative_conterfeit_only_acid_free_paper, 
        cumulative_conterfeit_only_optically_variable_ink, 
        cumulative_conterfeit_only_security_thread
      ) as cumulative_conterfeit_all_restriction
    from calc_single_material_restrict_production

)

select
  `date`
, cumulative_conterfeit_only_acid_free_paper
, cumulative_conterfeit_only_optically_variable_ink
, cumulative_conterfeit_only_security_thread
, cumulative_conterfeit_all_restriction
-- 减去上一行的数据,获取每日伪钞制造量
, cumulative_conterfeit_all_restriction - lag(cumulative_conterfeit_all_restriction, 1, 0) over(order by `date` asc) as action_daily_production
, if( cumulative_conterfeit_all_restriction >= 1000000, null, -- 已经完成目标量,就不写缺哪种材料了
    concat_ws(',', 
        if(cumulative_conterfeit_only_acid_free_paper=cumulative_conterfeit_all_restriction, '无酸纸', null),
        if(cumulative_conterfeit_only_optically_variable_ink=cumulative_conterfeit_all_restriction, '变色油墨', null),
        if(cumulative_conterfeit_only_security_thread=cumulative_conterfeit_all_restriction, '安全线', null)
    )
) as `最缺的材料`
from calc_all_restriction_prodection

查询结果如下:

date cumulative_conterfeit_only_acid_free_paper cumulative_conterfeit_only_optically_variable_ink cumulative_conterfeit_only_security_thread cumulative_conterfeit_all_restriction action_daily_production 最缺的材料
2025-05-01 139293 36604 51579 36604 36604 变色油墨
2025-05-02 300720 184888 133386 133386 96782 安全线
2025-05-03 360345 339815 303165 303165 169779 安全线
2025-05-04 391211 422448 334383 334383 31218 安全线
2025-05-05 454196 496570 426535 426535 92152 安全线
2025-05-06 497465 551300 598018 497465 70930 无酸纸
2025-05-07 664497 665371 646287 646287 148822 安全线
2025-05-08 821998 754988 805933 754988 108701 变色油墨
2025-05-09 938544 914610 910409 910409 155421 安全线
2025-05-10 1050000 1050000 1050001 1050000 139591 null

上面的图片,是我在 Python 中使用 pyvchart 库实现的,它是字节跳动开源的 vchart 的 Python 包,当然你也可以使用 pyechartspd.melt 函数用于将"宽数据框"转"长数据框"。代码部分如下:

python 复制代码
with hive.Connection(host=host_ip, port=port) as conn:
    select_data_sql = ''' 我给出 SQL 答案 '''
    df_outcome = pd.read_sql_query(select_data_sql, conn)

from pyvchart import render_chart
spec = {
  "type": 'area',
  "data": [
    {
      "id": 'lineData',
      "values": pd.melt(df_outcome[[
        'date','cumulative_conterfeit_only_acid_free_paper',
        'cumulative_conterfeit_only_optically_variable_ink',
        'cumulative_conterfeit_only_security_thread'
      ]], id_vars=['date']).to_dict(orient='records')
    },
    {
      "id": 'areaData',
      "values": pd.melt(df_outcome[['date','cumulative_conterfeit_all_restriction',
        '最缺的材料']], id_vars=['date']).to_dict(orient='records')
    },
  ],
 "series": [
    {
      "type": 'line',
      "dataId": 'lineData',
      "xField": 'date',
      "yField": 'value',
      "seriesField": 'variable',
    },
    {
      "type": 'area',
      "dataId": 'areaData',
      "xField": 'date',
      "yField": 'value',
      "seriesField": 'variable',
    },
 ],

};

display(render_chart(spec))

😁😁😁 我现在正在求职数据类工作(主要是数据分析或数据科学);如果您有合适的机会,恳请您与我联系,即时到岗,不限城市。您可以发送私信或通过公众号联系我(全网同名:蒋点数分)。

相关推荐
用户Taobaoapi20148 小时前
淘宝拍立淘图片搜索 API 接口:引领电商图片搜索技术发展新潮流
大数据·数据挖掘·数据分析
lilye6610 小时前
精益数据分析(25/126):关键指标驱动业务发展
数据挖掘·数据分析
归去_来兮10 小时前
Bagging、Boosting、Stacking的原理
机器学习·数据分析·集成学习
Leo.yuan11 小时前
产销协同的作用是什么?又如何对各部门发挥作用?
大数据·信息可视化·数据分析·需求分析·企业数字化
IT技术猿猴11 小时前
asammdf 库的信号处理和数据分析:深入挖掘测量数据
信息可视化·数据挖掘·数据分析·信号处理·mdf
程序边界12 小时前
DeepSeek在物联网设备中的应用:通过轻量化模型实现本地化数据分析
物联网·struts·数据分析
Aloudata技术团队12 小时前
Aloudata Agent 36 问,深度解惑!
大数据·数据分析·数据可视化
lilye6613 小时前
精益数据分析(14/126):基于数据洞察优化产品与运营
数据挖掘·数据分析
闲人编程14 小时前
数据分析案例:能源数据分析
python·数据挖掘·数据分析·pandas·能源·数据预处理