可解釋機器學(xué)習(xí):黑盒模型可解釋性理解指南(第2版)
定 價:118 元
- 作者:(德)Christoph Molnar (克里斯托夫·莫爾納)
- 出版時間:2024/10/1
- ISBN:9787121490149
- 出 版 社:電子工業(yè)出版社
- 中圖法分類:TP181-34
- 頁碼:272
- 紙張:
- 版次:01
- 開本:16開
機器學(xué)習(xí)雖然在改進產(chǎn)品性能、產(chǎn)品流程和推進研究方面有很大的潛力,但仍面臨一大障礙——計算機無法解釋其預(yù)測結(jié)果。因此,本書旨在闡明如何使機器學(xué)習(xí)模型及其決策具有可解釋性。本書探索了可解釋性的概念,介紹了許多簡單的可解釋模型,包括決策樹、決策規(guī)則和線性回歸等。本書的重點是模型不可知方法,用于解釋黑盒模型(如特征重要性和累積局部效應(yīng)),以及用Shapley 值和局部代理模型解釋單個實例預(yù)測。此外,本書介紹了深度神經(jīng)網(wǎng)絡(luò)的可解釋性方法。本書深入解釋并批判性地討論所有的可解釋方法,如它們在黑盒下的運作機制,各自的優(yōu)缺點,如何解釋它們的輸出結(jié)果。本書將幫助讀者選擇并正確應(yīng)用最適用于特定機器學(xué)習(xí)項目的解釋方法。本書適合機器學(xué)習(xí)從業(yè)者、數(shù)據(jù)科學(xué)家、統(tǒng)計學(xué)家及任何對機器學(xué)習(xí)模型可解釋性感興趣的讀者閱讀。
Christoph Molnar,可解釋機器學(xué)習(xí)研究員,目前在德國慕尼黑大學(xué)統(tǒng)計研究所攻讀博士學(xué)位,目標是讓機器學(xué)習(xí)模型的決策更容易被人類理解。著作Interpretable Machine Learning 受到業(yè)界高度關(guān)注。
郭濤,主要從事人工智能、智能計算、概率與統(tǒng)計學(xué)、現(xiàn)代軟件工程等前沿交叉研究。出版多部譯作,包括《深度強化學(xué)習(xí)圖解》《機器學(xué)習(xí)圖解》《集成學(xué)習(xí)實戰(zhàn)》。
第1 章 引 言 1
1.1 故事時間 1
1.1.1 閃電不會擊中兩次 2
1.1.2 信任跌落 4
1.1.3 費米回形針 5
1.2 什么是機器學(xué)習(xí) 7
1.3 術(shù)語 8
第2 章 可解釋性 11
2.1 可解釋性的重要性 11
2.2 可解釋性方法分類 16
2.3 可解釋性的范圍 17
2.3.1 算法透明度 17
2.3.2 全局、整體模型的可解釋性 18
2.3.3 模型層面的全局模型可解釋性 18
2.3.4 單個預(yù)測的局部可解釋性 19
2.3.5 一組預(yù)測的局部可解釋性 19
2.4 評估可解釋性 19
2.5 解釋的特性 20
2.6 人性化的解釋 22
2.6.1 什么是解釋 22
2.6.2 什么是好的解釋 23
第3 章 數(shù)據(jù)集 27
3.1 自行車租賃(回歸) 27
3.2 YouTube 垃圾評論(文本分類) 28
3.3 宮頸癌風(fēng)險因素(分類) 29
第4 章 可解釋模型 30
4.1 線性回歸 31
4.1.1 解釋 32
4.1.2 示例 34
4.1.3 可視化解釋 35
4.1.4 解釋單個預(yù)測 37
4.1.5 分類特征編碼 38
4.1.6 線性模型能創(chuàng)造出好的解釋嗎 40
4.1.7 稀疏線性模型 40
4.1.8 優(yōu)點 43
4.1.9 缺點 43
4.2 邏輯回歸 43
4.2.1 線性回歸用于分類存在的問題 43
4.2.2 理論 45
4.2.3 解釋 46
4.2.4 示例 47
4.2.5 優(yōu)點和缺點 48
4.2.6 軟件 48
4.3 廣義線性模型、廣義加性模型及其他 49
4.3.1 非高斯結(jié)果——廣義線性模型 50
4.3.2 交互作用 54
4.3.3 非線性效應(yīng)——廣義加性模型 58
4.3.4 優(yōu)點 62
4.3.5 缺點 62
4.3.6 軟件 63
4.3.7 進一步擴展 63
4.4 決策樹 64
4.4.1 解釋 65
4.4.2 示例 66
4.4.3 優(yōu)點 67
4.4.4 缺點 68
4.4.5 軟件 69
4.5 決策規(guī)則 69
4.5.1 從單一特征學(xué)習(xí)規(guī)則 71
4.5.2 順序覆蓋 74
4.5.3 貝葉斯規(guī)則列表 77
4.5.4 優(yōu)點 82
4.5.5 缺點 83
4.5.6 軟件和替代方案 83
4.6 RuleFit 84
4.6.1 解釋和示例 84
4.6.2 理論 86
4.6.3 優(yōu)點 88
4.6.4 缺點 89
4.6.5 軟件和替代方案 89
4.7 其他可解釋模型 90
4.7.1 樸素貝葉斯分類器 90
4.7.2 k 近鄰法 90
第5 章 模型不可知方法 91
第6 章 基于樣本的解釋 93
第7 章 全局模型不可知方法 95
7.1 部分依賴圖 95
7.1.1 基于部分依賴圖的特征重要性 96
7.1.2 示例 97
7.1.3 優(yōu)點 99
7.1.4 缺點 99
7.1.5 軟件和替代方案 100
7.2 累積局部效應(yīng)圖 100
7.2.1 動機和直覺 100
7.2.2 理論 103
7.2.3 估算 104
7.2.4 示例 107
7.2.5 優(yōu)點 114
7.2.6 缺點 115
7.2.7 軟件與替代方案 116
7.3 特征交互作用 116
7.3.1 特征交互概念 116
7.3.2 理論:弗里德曼的H 統(tǒng)計量 117
7.3.3 示例 119
7.3.4 優(yōu)點 121
7.3.5 缺點 121
7.3.6 實現(xiàn) 122
7.3.7 替代方案 122
7.4 函數(shù)分解 122
7.4.1 如何不計算分量I 124
7.4.2 函數(shù)分解 125
7.4.3 如何不計算分量II 125
7.4.4 函數(shù)ANOVA 126
7.4.5 依賴特征的廣義函數(shù)ANOVA 127
7.4.6 累積局部效應(yīng)圖 128
7.4.7 統(tǒng)計回歸模型 129
7.4.8 錦上添花:部分依賴圖 130
7.4.9 優(yōu)點 130
7.4.10 缺點 130
7.5 置換特征重要性 131
7.5.1 理論 131
7.5.2 應(yīng)該在訓(xùn)練數(shù)據(jù)還是測試數(shù)據(jù)上計算重要性 132
7.5.3 示例和解釋 134
7.5.4 優(yōu)點 135
7.5.5 缺點 136
7.5.6 替代方案 137
7.5.7 軟件 137
7.6 全局代理模型 138
7.6.1 理論 138
7.6.2 示例 139
7.6.3 優(yōu)點 140
7.6.4 缺點 141
7.6.5 軟件 141
7.7 原型和批評 141
7.7.1 理論 142
7.7.2 示例 146
7.7.3 優(yōu)點 146
7.7.4 缺點 147
7.7.5 軟件和替代方案 147
第8 章 局部模型不可知方法 148
8.1 個體條件期望 148
8.1.1 示例 149
8.1.2 優(yōu)點 152
8.1.3 缺點 152
8.1.4 軟件和替代方案 152
8.2 局部代理模型 152
8.2.1 表格數(shù)據(jù)的局部代理模型 154
8.2.2 文本的局部代理模型 156
8.2.3 圖像的局部代理模型 158
8.2.4 優(yōu)點 158
8.2.5 缺點 159
8.3 反事實解釋 160
8.3.1 生成反事實解釋 162
8.3.2 示例 166
8.3.3 優(yōu)點 167
8.3.4 缺點 168
8.3.5 軟件和替代方案 168
8.4 范圍規(guī)則(錨點) 169
8.4.1 尋找錨點 170
8.4.2 復(fù)雜性和運行時間 172
8.4.3 表格數(shù)據(jù)示例 173
8.4.4 優(yōu)點 176
8.4.5 缺點 176
8.4.6 軟件和替代方案 176
8.5 Shapley 值 177
8.5.1 總體思路 177
8.5.2 示例和解釋 179
8.5.3 Shapley 值詳解 181
8.5.4 優(yōu)點 184
8.5.5 缺點 184
8.5.6 軟件和替代方案 186
8.6 SHAP 186
8.6.1 定義 186
8.6.2 KernelSHAP 188
8.6.3 TreeSHAP 190
8.6.4 示例 191
8.6.5 SHAP 特征重要性 192
8.6.6 SHAP 概要圖 193
8.6.7 SHAP 依賴關(guān)系圖 194
8.6.8 SHAP 交互作用值 195
8.6.9 聚類Shapley 值 196
8.6.10 優(yōu)點 196
8.6.11 缺點 197
8.6.12 軟件 197
第9 章 神經(jīng)網(wǎng)絡(luò)可解釋性 198
9.1 學(xué)習(xí)特征 198
9.1.1 特征可視化 199
9.1.2 網(wǎng)絡(luò)剖析 202
9.1.3 優(yōu)點 206
9.1.4 缺點 206
9.1.5 軟件和其他實現(xiàn) 207
9.2 像素歸因 207
9.2.1 Vanilla 梯度法(顯著性圖) 209
9.2.2 DeconvNet 210
9.2.3 Grad-CAM 210
9.2.4 Guided Grad-CAM 212
9.2.5 SmoothGrad 212
9.2.6 示例 213
9.2.7 優(yōu)點 214
9.2.8 缺點 214
9.2.9 軟件 215
9.3 檢測概念 215
9.3.1 TCAV:使用概念激活向量進行測試 216
9.3.2 示例 217
9.3.3 優(yōu)點 218
9.3.4 缺點 219
9.3.5 其他基于概念的方法 219
9.3.6 軟件 220
9.4 對抗性示例 220
9.4.1 方法和示例 220
9.4.2 網(wǎng)絡(luò)安全視角 225
9.5 有影響實例 227
9.5.1 刪除診斷 229
9.5.2 影響函數(shù) 233
9.5.3 識別有影響實例的優(yōu)勢 237
9.5.4 識別有影響實例的缺點 238
9.5.5 軟件和替代方案 238
第10 章 透視水晶球 239
10.1 機器學(xué)習(xí)的未來 240
10.2 可解釋性的未來 241
參考文獻 244
致謝 251