新书速递——《可解释AI实战(PyTorch版)》

本书旨在帮助你实施最新的可解释AI技术,以构建公平且可解释的AI系统。可解释AI是当今AI研究中的热门话题,但只有少数资源和指南涵盖了所有重要技术,这些技术对实践者来说非常有价值。本书旨在填补这一空白。

本书读者对象

本书既适合那些有兴趣深入了解其模型工作原理以及如何构建公平且无偏见模型的数据科学家和工程师,又适合想要了解如何让 AI 模型确保公平和保护业务用户、品牌的架构师和业务利益相关者。

本书内容

本书内容分为4部分,共9章。

第Ⅰ部分介绍可解释AI的基础知识。

● 第1章涵盖了各种类型的AI系统,定义了可解释AI及其重要性,讨论了白盒和黑盒模型,并解释了如何构建可解释AI系统。

● 第 2 章涵盖了白盒模型以及如何解释它们,特别关注了线性回归、决策树和广义可加模型(Generalized Additive Model,GAM)。

第Ⅱ部分关注黑盒模型,讲述它们如何处理输入并得出最终预测。

● 第 3 章涵盖了一种名为集成树的黑盒模型,以及全局与模型无关的可解释方法:部分依赖图(Partial Dependence Plot,PDP)和特征交互图。

● 第 4 章涵盖了深度神经网络,以及局部与模型无关的可解释方法:局部与模型无关解释(Local Interpretable Model-agnostic Explanations,LIME)、沙普利可加性解释(SHapley Additive exPlanations,SHAP)、锚定。

● 第5章涵盖了卷积神经网络,并使用局部、建模后、模型无关的可解释方法(如梯度、导向反向传播、梯度加权类别激活图(Grad-CAM)、导向梯度加权类别激活图和平滑梯度等)。

第Ⅲ部分继续关注黑盒模型,但主要解释它们如何学习特征或表示。

● 第 6 章涵盖了卷积神经网络,以及如何通过剖析它们来了解学习到的数据表示技巧。

● 第7章涵盖了语言模型,以及使用诸如主成分分析(PCA)和t分布随机近邻嵌入(t-SNE)等技术将其高维表示可视化的方法。

第Ⅳ部分关注公平和偏见,并讲述了XAI系统。

● 第 8 章涵盖了各种公平和偏见定义以及检查模型是否有偏见的方法,并讨论了如何减轻偏见和标准化数据以使用数据表来提高透明度和改善问责制的方法。

● 第9章涵盖了XAI,以及使用反事实样本进行对比解释。

本书代码

本书包含许多源代码示例,大多数情况下,这些源代码示例都以等宽字体显示,以便与本书的普通文本区分开来。本书所有代码示例都可通过扫描封底的二维码下载。

相关推荐
刀法如飞21 分钟前
AI提示词框架深度对比分析
人工智能·ai编程
IT_陈寒2 小时前
Python开发者必知的5大性能陷阱:90%的人都踩过的坑!
前端·人工智能·后端
1G3 小时前
openclaw控制浏览器/自动化的playwright MCP + Mcporter方案实现
人工智能
踩着两条虫3 小时前
VTJ.PRO 双向代码转换原理揭秘
前端·vue.js·人工智能
扉川川3 小时前
OpenClaw 架构解析:一个生产级 AI Agent 是如何设计的
前端·人工智能
Flittly3 小时前
【从零手写 ClaudeCode:learn-claude-code 项目实战笔记】(3)TodoWrite (待办写入)
python·agent
星浩AI3 小时前
让模型自己写 Skills——从素材到自动生成工作流
人工智能·后端·agent
千寻girling7 小时前
一份不可多得的 《 Django 》 零基础入门教程
后端·python·面试
千寻girling7 小时前
Python 是用来做 AI 人工智能 的 , 不适合开发 Web 网站 | 《Web框架》
人工智能·后端·算法
AI攻城狮7 小时前
OpenClaw 里 TAVILY_API_KEY 明明写在 ~/.bashrc,为什么还是失效?一次完整排查与修复
人工智能·云原生·aigc