模型可解释性

青云交12 天前
java·大数据·机器学习·spark·模型可解释性·金融风控·实时风控
Java 大视界 -- Java 大数据机器学习模型在金融风险管理体系构建与风险防范能力提升中的应用(435)嘿,亲爱的 Java 和 大数据爱好者们,大家好!我是CSDN(全区域)四榜榜首青云交!金融是现代经济的核心,而风险则是金融行业的 “与生俱来的基因”。从信贷违约到跨境欺诈,从市场波动到合规风险,每一次风险事件的爆发都可能引发连锁反应 —— 某城商行 2021 年因传统风控滞后导致的 1.8% 不良贷款率,直接造成年损失超 12 亿元(数据来源:中国银行业协会《2021 年中国银行业风险管理报告》);某券商 “双十一” 峰值交易中的 5 秒延迟,让欺诈交易有机可乘,单日潜在损失达 3000 万元(真实项目
胖达不服输5 个月前
人工智能·python·神经网络·机器学习·模型可解释性·调参过程可视化
「日拱一码」035 机器学习——调参过程可视化目录超参数搜索的3D曲面可视化交互式3D可视化神经网络学习率的3D可视化SVM超参数的3D决策边界可视化
青云交1 年前
人工智能·ai·模型可解释性·核心技术·医疗影像诊断·多种疾病案例·数据挑战
智创 AI 新视界 -- AI 助力医疗影像诊断的新突破💖💖💖亲爱的朋友们,热烈欢迎你们来到 青云交的博客!能与你们在此邂逅,我满心欢喜,深感无比荣幸。在这个瞬息万变的时代,我们每个人都在苦苦追寻一处能让心灵安然栖息的港湾。而 我的博客,正是这样一个温暖美好的所在。在这里,你们不仅能够收获既富有趣味又极为实用的内容知识,还可以毫无拘束地畅所欲言,尽情分享自己独特的见解。我真诚地期待着你们的到来,愿我们能在这片小小的天地里共同成长,共同进步。💖💖💖
cv-player2 年前
人工智能·pytorch·深度学习·模型可解释性
深度学习:基于PyTorch的模型解释工具Captum当我们训练神经网络模型时,我们通常只关注模型的整体性能,例如准确率或损失函数值。然而,理解模型为何做出特定预测,哪些输入特征对模型决策影响最大,对于构建可解释、可信赖和健壮的模型至关重要。为此,Facebook AI研究团队开发了captum库,这是一个开源项目,旨在帮助研究人员和开发人员更好地理解PyTorch模型的运行机制。
我是有底线的