【2024数模国赛赛题思路公开】国赛B题思路丨附可运行代码丨无偿自提

2024年国赛B题解题思路

问题 1: 抽样检测方案设计

【题目分析】

分析:

  • 目标是设计一个高效的抽样检测方案,在尽量少的样本数量下,确保在高信度水平下做出正确的接受或拒收决策。
  • 需要处理两个不同的信度要求,这对样本量的计算提出了挑战。

思路:

  • 贝叶斯抽样优化:可以使用贝叶斯方法结合贝叶斯抽样优化(Bayesian Optimization)来动态调整样本量,以达到所需的信度水平。通过将次品率建模为贝叶斯后验分布,可以逐步减少样本量,同时保证决策的可靠性。
  • 自适应序贯抽样:使用逐步抽样方法,根据初始样本的检测结果动态调整后续样本量,优化检测成本和时间。
  • 蒙特卡洛模拟:模拟大量的抽样检测场景,估计在不同样本量下达成信度要求的概率,找到最小样本量的解决方案。

【解题思路】

目标

设计一个抽样检测方案,以确定是否接受供应商提供的零配件,要求在尽可能少的检测次数下达到两个信度标准:

  1. 在 95% 信度下认定零配件次品率超过标称值(拒收)。
  2. 在 90% 信度下认定零配件次品率不超过标称值(接收)。

建模过程

  1. 定义变量和假设
    • 设次品率为p ,标称次品率为p0=0.10 (即10%)。
    • 抽样样本量为n ,检测出次品的数量为 x。
    • 我们需要对p 进行假设检验,并根据检验结果决定是否接受或拒收。

2. 抽样检测模型

  • 根据二项分布,我们有
  • 检验假设:

原假设

备择假设(用于拒收的情况)

  • 使用正态近似来简化问题,当 n较大时, 可近似为正态分布:
  • 标准化后的检测统计量为:

3. 检验条件

  • 我们设定显著性水平α 对应的信度为1-α 。
  • 对于拒收情况,信度为 95%,则 α=0.05。
  • 计算临界值:,其中为标准正态分布的逆函数。
  • 对于接收情况,信度为 90%,则 α=0.10。

4. 计算样本量n

    • 拒收的决策规则:若 Z>Z0.05,则拒收。
    • 结合样本量的计算公式,我们得到:
  • 通过展开可以得到对 n 的不等式:
  • 为简化计算,可以迭代求解n。

5. 智能优化算法引入

  • 为了优化样本量 n,引入贝叶斯优化。贝叶斯优化是一种基于高斯过程(Gaussian Process)的黑箱优化方法,可以在不确定的环境下高效找到最优参数。
  • 步骤
    1. 定义目标函数:最小化检测成本 ,其中 c 为单次检测成本。
    2. 目标函数中包含信度约束,使用贝叶斯优化逐步逼近最优的 n。
    3. 通过模拟不同的样本量 n,评估在95%和90%信度下的检测成功率,并调整 n 使得目标函数最小。

6. 贝叶斯优化流程

    • 初始化样本集,随机选择 n0 的样本量进行检测,计算检测成本。
    • 使用高斯过程拟合当前的检测结果。
    • 通过高斯过程预测新的 n,并计算期望改进(Expected Improvement, EI)。
    • 选择使期望改进最大的 n 作为下一步的检测样本量。
    • 更新高斯过程模型,重复迭代,直到找到满足信度约束且成本最低的样本量n* 。
  1. 最终方案
  • 通过贝叶斯优化得到的最优样本量 n*,将其应用于实际的检测流程中,以确保在满足信度要求的情况下尽可能减少检测次数。

公式总结

检测统计量:

临界值条件:Z>Z0.05拒收,Z<Z0.10接受

样本量不等式:

目标函数最小化:

Python参考代码】

# 定义检测成本函数
def detection_cost(n, c):
    return n * c

# 定义统计检验函数
def hypothesis_test(n, p0, alpha, x):
    # 计算标准化的Z统计量
    p_hat = x / n
    Z = (p_hat - p0) / np.sqrt(p0 * (1 - p0) / n)
    # 计算临界值
    Z_alpha = norm.ppf(1 - alpha)
    return Z, Z_alpha

# 定义目标函数,贝叶斯优化用
def objective(n):
    n = int(n[0])  # 样本量必须是整数
    c = 2  # 单次检测成本设为2元(可以根据具体情况调整)
    p0 = 0.10  # 标称次品率
    alpha_reject = 0.05  # 拒收信度为95%
    alpha_accept = 0.10  # 接收信度为90%

    # 模拟检测x个次品

    x = binom.rvs(n, p0)  # 假设次品率刚好为标称值

    # 进行拒收和接收检验
    Z_reject, Z_alpha_reject = hypothesis_test(n, p0, alpha_reject, x)
    Z_accept, Z_alpha_accept = hypothesis_test(n, p0, alpha_accept, x)

    # 判断是否满足信度条件
    if Z_reject > Z_alpha_reject and Z_accept < Z_alpha_accept:
        # 若同时满足拒收和接收信度要求,则计算成本
        cost = detection_cost(n, c)
    else:
        # 若不满足信度要求,则设为较高的惩罚成本
        cost = detection_cost(n, c) + 1000  # 惩罚项

    return cost

from skopt.space import Real, Integer

# 定义优化参数空间
param_space = [Integer(10, 1000, name='n')]

# 使用贝叶斯优化进行最小化
result = gp_minimize(objective, param_space, n_calls=50, random_state=0)

# 输出最优样本量和最小检测成本
print(f"Optimal sample size: {result.x[0]}")
print(f"Minimum detection cost: {result.fun}")
# 绘制优化过程的收敛情况
plot_convergence(result)
plt.title('Convergence Plot of Bayesian Optimization')
plt.xlabel('Number of Calls')
plt.ylabel('Objective Function Value (Cost)')
plt.grid(True)
plt.show()

# 绘制样本量与检测成本的关系
sample_sizes = np.arange(10, 1000, 10)
costs = [objective([n]) for n in sample_sizes]

plt.figure(figsize=(10, 6))
plt.plot(sample_sizes, costs, '-o', markersize=4, color='b', label='Detection Cost')
plt.axvline(result.x[0], color='r', linestyle='--', label=f'Optimal Sample Size: {result.x[0]}')
plt.title('Detection Cost vs. Sample Size')
plt.xlabel('Sample Size')
plt.ylabel('Detection Cost')
plt.legend()
plt.grid(True)
plt.show()
相关推荐
tinker在coding8 分钟前
Coding Caprice - Linked-List 1
算法·leetcode
XH华4 小时前
初识C语言之二维数组(下)
c语言·算法
南宫生5 小时前
力扣-图论-17【算法学习day.67】
java·学习·算法·leetcode·图论
不想当程序猿_5 小时前
【蓝桥杯每日一题】求和——前缀和
算法·前缀和·蓝桥杯
落魄君子5 小时前
GA-BP分类-遗传算法(Genetic Algorithm)和反向传播算法(Backpropagation)
算法·分类·数据挖掘
菜鸡中的奋斗鸡→挣扎鸡5 小时前
滑动窗口 + 算法复习
数据结构·算法
Lenyiin6 小时前
第146场双周赛:统计符合条件长度为3的子数组数目、统计异或值为给定值的路径数目、判断网格图能否被切割成块、唯一中间众数子序列 Ⅰ
c++·算法·leetcode·周赛·lenyiin
郭wes代码6 小时前
Cmd命令大全(万字详细版)
python·算法·小程序
scan7246 小时前
LILAC采样算法
人工智能·算法·机器学习
菌菌的快乐生活6 小时前
理解支持向量机
算法·机器学习·支持向量机