技术栈
模型可解释性
cv-player
6 个月前
人工智能
·
pytorch
·
深度学习
·
模型可解释性
深度学习:基于PyTorch的模型解释工具Captum
当我们训练神经网络模型时,我们通常只关注模型的整体性能,例如准确率或损失函数值。然而,理解模型为何做出特定预测,哪些输入特征对模型决策影响最大,对于构建可解释、可信赖和健壮的模型至关重要。为此,Facebook AI研究团队开发了captum库,这是一个开源项目,旨在帮助研究人员和开发人员更好地理解PyTorch模型的运行机制。