不确定性量化

deardao4 个月前
人工智能·机器学习·回归·时间序列·预测·不确定性·不确定性量化
【分布预测】DistPred:回归与预测的无分布概率推理方法论文在线版本 — 论文地址 — Github代码地址图 0:DistPred可在一次前向过程中给出N个预测,根据这N个预测可求得该点的分布。
deardao5 个月前
统计·不确定性量化
回归的无分布预测推理我们利用保形推理,开发了回归中无分布预测推理的一般框架。所提出的方法允许使用回归函数的任何估计量构建响应变量的预测带。所得的预测带在标准假设下保留了原始估计量的一致性,同时保证了有限样本边际覆盖,即使这些假设不成立。我们从经验和理论上分析和比较了我们的共形框架的两个主要变体:完全共形推理和分裂共形推理,以及相关的折衷方法。这些方法在统计精度(结果预测间隔的长度)和计算效率之间提供了不同的权衡。作为扩展,我们开发了一种构造有效样本内预测区间的方法,称为秩一出共形推理,其计算效率与分裂共形推理基本相同。我们还
deardao5 个月前
人工智能·深度学习·不确定性量化
Dropout作为贝叶斯近似: 表示深度学习中的模型不确定性深度学习工具在应用机器学习领域受到了极大的关注。然而,这些用于回归和分类的工具并没有捕捉到模型的不确定性。相比之下,贝叶斯模型提供了一个基于数学的框架来推理模型的不确定性,但通常会带来令人望而却步的计算成本。本文提出了一种新的理论框架,将深度神经网络中的dropout训练作为深度高斯过程中的近似贝叶斯推理。该理论的一个直接结果是为我们提供了用dropout神经网络来模拟不确定性的工具——从现有的模型中提取信息,这些信息到目前为止已经被抛弃了。这在不牺牲计算复杂性或测试准确性的情况下减轻了深度学习中表示不确