技术栈
可解释
rgb2gray
15 天前
人工智能
·
python
·
机器学习
·
数据分析
·
可解释
·
共性预测
·
一致性预测
AI 的“诚实”指南:一文详解 Conformal Prediction (共形预测) 与 Split Conformal
摘要:在 AI 落地的高风险领域,“大概率是对的”往往意味着“有概率会发生灾难”。如何让黑盒模型(Deep Learning)诚实地表达自己的“无知”?
rgb2gray
1 个月前
大数据
·
人工智能
·
机器学习
·
语言模型
·
自然语言处理
·
数据分析
·
可解释
论文深度解析:基于大语言模型的城市公园多维度感知解码与公平性提升
原文:Beyond sentiment: Using large language models to decode multidimensional urban park perceptions for enhanced equality
随风飘摇的土木狗
10 个月前
matlab
·
gsa
·
敏感性分析
·
特征排序
·
灵敏度分析
·
shap
·
可解释
【MATLAB第116期】基于MATLAB的NBRO-XGBoost的SHAP可解释回归模型(敏感性分析方法)
该文章实现了一个可解释的回归模型,使用NBRO-XGBoost(方法可以替换,但是需要有一定的编程基础)来预测特征输出。该模型利用七个变量参数作为输入特征进行训练。为了提高可解释性,应用了SHapley Additive exPlanations(SHAP),去深入了解每个参数对模型预测的贡献。
温柔哥`
1 年前
计算机视觉
·
大模型
·
vad
·
internvl
·
可解释
·
vml
·
弱监督
VERA: 基于视觉-语言模型的解释性视频异常检测框架
arxiv’24 - 爱荷华大学/ 马普学会智能系统研究所(图宾根)/奥本大学 项目主页 VERA: Explainable Video Anomaly Detection via Verbalized Learning of Vision-Language Models
随风飘摇的土木狗
1 年前
神经网络
·
matlab
·
bp
·
敏感性分析
·
shap
·
可解释
·
shaply
【MATLAB第112期】基于MATLAB的SHAP可解释神经网络回归模型(敏感性分析方法)
【MATLAB第112期】基于MATLAB的SHAP可解释神经网络回归模型(敏感性分析方法)该文章实现了一个可解释的神经网络回归模型,使用BP神经网络(BPNN)来预测特征输出。该模型利用七个变量参数作为输入特征进行训练。为了提高可解释性,应用了SHapley Additive exPlanations(SHAP),去深入了解每个参数对模型预测的贡献。
我是有底线的