可解释性机器学习的目标

为了解释比如决策树、随机森林的意义,我们首先应该定义可解释性的目标是什么。或者 说什么才是最好的可解释性的结果呢?很多人对于可解释性机器学习会有一个误解,觉得一 个好的可解释性就是要告诉我们整个模型在做什么事。我们要了解模型的一切,我们要知道 它到底是怎么做出一个决断的。但是这件事情真的是有必要的吗?虽然我们说机器学习模型, 深度网络是一个黑盒子,不能相信它,但世界上有很多黑盒子,比如人脑也是黑盒子。我们其 实也并不完全知道,人脑的运作原理,但是我们可以相信,另外一个人做出的决断。那为什么 深度网络是一个黑盒子,我们就没有办法相信其做出的决断呢?我们可以相信人脑做出的决 断,但是我们不可以相信深度网络做出的决断,这是为什么呢?

以下是一个和机器学习完全无关的心理学实验,这个实验是1970年一个哈佛大学教授做 的。这个实验是这样,在哈佛大学图书馆的打印机经常会有很多人都排队要印东西,这个时候 如果有一个人跟他前面的人说拜托请让我先印5页,这个时候你觉得这个人会答应吗?据统 计有60%的人会让他先印。但这个时候你只要把刚才问话的方法稍微改一下,你说拜托请让 我先印,因为我赶时间,他是不是真的赶时间没人知道,但是当你说你有一个理由所以你要先 印的时候,这个时候接受的程度变成94%。神奇的事情是,就算你的理由稍微改一下,比如 说请让我先印因为我需要先印,仅仅是这个样子接受的程度也变成93%。所以人就是需要一 个理由,你为什么要先印,你只要讲出一个理由,就算你的理由是因为我需要先印大家也会接 受。

所以会不会可解释性机器学习也是同样的道理。在可解释性机器学习中,好的解释就是 人能接受的解释,人就是需要一个理由让我们觉得高兴。因为很多人听到,深度网络是一个黑 盒子他就不爽,但是你告诉他说这个是可以被解释的,给他一个理由,他就高兴了。所以或许 好的解释就是让人高兴的解释。其实这个想法,这个技术的进展是蛮接近的。

相关推荐
职业码农NO.17 分钟前
AI 技术栈完整解析,从 GPU 到应用的五层架构
人工智能·架构·系统架构·aigc·agent
小烤箱16 分钟前
Autoware Universe 感知模块详解 | 第十一节:检测管线的通用工程模板与拆解思路导引
人工智能·机器人·自动驾驶·autoware·感知算法
jiayong2320 分钟前
model.onnx 深度分析报告(第2篇)
人工智能·机器学习·向量数据库·向量模型
川西胖墩墩26 分钟前
团队协作泳道图制作工具 PC中文免费
大数据·论文阅读·人工智能·架构·流程图
Codebee26 分钟前
ooder SkillFlow:破解 AI 编程冲击,重构企业级开发全流程
人工智能
TOPGUS29 分钟前
黑帽GEO手法揭秘:AI搜索阴影下的新型搜索劫持与风险
人工智能·搜索引擎·chatgpt·aigc·谷歌·数字营销
Sammyyyyy32 分钟前
Symfony AI 正式发布,PHP 原生 AI 时代开启
开发语言·人工智能·后端·php·symfony·servbay
汽车仪器仪表相关领域35 分钟前
光轴精准测量,安全照明保障——NHD-8101/8000型远近光检测仪项目实战分享
数据库·人工智能·安全·压力测试·可用性测试
WJSKad123537 分钟前
基于yolov5-RepNCSPELAN的商品价格标签识别系统实现
人工智能·yolo·目标跟踪
资深web全栈开发38 分钟前
深度对比 LangChain 8 种文档分割方式:从逻辑底层到选型实战
深度学习·自然语言处理·langchain