《機器學習與人工智能》涵蓋了與人工智能相關的機器學習核心方法,包括深度卷積神經(jīng)網(wǎng)絡、循環(huán)神經(jīng)網(wǎng)絡、生成對抗網(wǎng)絡、蒙特卡羅樹搜索、強化學習!稒C器學習與人工智能》也包括一些應用非常廣泛的機器學習方法,例如,支持向量機、決策樹和隨機森林、隱馬爾可夫模型、聚類與自組織映射。《機器學習與人工智能》還包含一些重要的大數(shù)據(jù)分析方法,如主成分分析、回歸分析等。
更多科學出版社服務,請掃碼獲取。
目錄
第1章 導言 1
1.1 機器學習的概念 1
1.2 機器學習的類別 1
1.3 機器學習和其他領域的關系 2
1.4 人工智能的發(fā)展歷程 3
1.5 機器學習和人工智能的關系 5
第2章 機器學習基礎 7
2.1 概率和統(tǒng)計基礎 7
2.1.1 概率 7
2.1.2 隨機變量 8
2.1.3 線性相關 9
2.1.4 常用概率分布 10
2.1.5 貝葉斯定理 11
2.2 凸函數(shù) 12
2.3 極大似然估計 13
2.4 熵和散度 13
2.5 主成分分析 15
2.5.1 數(shù)據(jù)標準化 15
2.5.2 數(shù)據(jù)矩陣的正交變換 16
2.5.3 主成分 18
2.5.4 因子和因子載荷 18
2.6 隨機梯度下降算法 19
2.6.1 函數(shù)的梯度和方向導數(shù) 19
2.6.2 梯度下降算法 20
2.6.3 隨機梯度下降 20
2.6.4 動量 21
2.7 過擬合和欠擬合 22
2.8 交叉驗證 22
2.9 二分類模型的評價 23
2.10 機器學習的工具包 26
第3章 回歸分析 27
3.1 回歸分析問題 27
3.2 線性回歸分析 28
3.2.1 線性回歸分析問題 28
3.2.2 線性回歸形式 29
3.2.3 簡單線性回歸 29
3.3 Logistic回歸 30
3.3.1 Logistic函數(shù) 30
3.3.2 線性二分類 31
3.3.3 對數(shù)似然函數(shù)與代價函數(shù) 32
3.3.4 最優(yōu)參數(shù)的學習 34
第4章 支持向量機 36
4.1 引言 36
4.2 二分類支持向量機算法 36
4.2.1 二分類線性支持向量機 37
4.2.2 二分類非線性支持向量機 41
4.2.3 核函數(shù) 42
4.3 支持向量機分類性能的評價 43
4.4 序貫最小優(yōu)化算法 44
第5章 聚類和自組織映射 47
5.1 向量、范數(shù)和向量間的距離 47
5.2 K-均值聚類 48
5.3 自組織映射 49
5.3.1 Kohonen模型 49
5.3.2 突觸權重向量的初始化 50
5.3.3 競爭過程 50
5.3.4 合作過程 50
5.3.5 自適應過程 52
5.3.6 定序與收斂 53
第6章 隱馬爾可夫模型 55
6.1 馬爾可夫鏈 55
6.2 隱馬爾可夫模型的含義 56
6.2.1 模型的含義 56
6.2.2 統(tǒng)計推斷 58
6.3 后驗概率解碼 58
6.4 狀態(tài)路徑的推斷 60
6.5 隱馬爾可夫模型中參數(shù)的估計 61
6.5.1 已知完整數(shù)據(jù)的參數(shù)估計 62
6.5.2 期望最大算法 62
6.5.3 Baum-Welch算法 65
第7章 決策樹和隨機森林 67
7.1 樹 67
7.1.1 圖 67
7.1.2 二叉樹 68
7.2 決策樹學習 69
7.2.1 度量 69
7.2.2 ID3算法 71
7.2.3 C4.5算法 74
7.3 自舉聚集法 75
7.4 隨機森林 76
第8章 蒙特卡羅樹搜索 77
8.1 引言 77
8.2 蒙特卡羅積分 78
8.3 博弈 78
8.3.1 組合博弈 79
8.3.2 博弈樹 79
8.3.3 極小極大算法 79
8.3.4 多臂老虎機 81
8.3.5 2-貪心 82
8.3.6 遺憾 82
8.3.7 上置信界 82
8.4 蒙特卡羅樹搜索算法 83
8.5 樹的上置信界 85
8.6 蒙特卡羅樹搜索的特征 87
8.6.1 啟發(fā)式 87
8.6.2 隨時性 88
8.6.3 非對稱性 88
第9章 卷積神經(jīng)網(wǎng)絡 89
9.1 引言 89
9.2 有監(jiān)督學習 90
9.3 背景知識 91
9.3.1 張量和向量化 91
9.3.2 向量的計算以及鏈式法則 91
9.3.3 克羅內克積 92
9.4 CNN簡述 92
9.4.1 結構 92
9.4.2 前向傳播 93
9.4.3 隨機梯度下降 93
9.4.4 誤差反向傳播 93
9.5 卷積層 94
9.5.1 輸入,輸出,濾波,記號 94
9.5.2 卷積 95
9.5.3 卷積展開 95
9.5.4 卷積展開的推廣 96
9.5.5 更高維度的指標矩陣 98
9.5.6 反向傳播的參數(shù) 99
9.5.7 反向傳播:監(jiān)督信號 100
9.6 池化層 101
9.7 逆向操作 102
9.8 ReLU層 103
第10章 深度卷積神經(jīng)網(wǎng)絡 104
10.1 Alex網(wǎng)絡 104
10.2 VGG網(wǎng)絡 106
10.3 Inception網(wǎng)絡 107
10.4 殘差網(wǎng)絡 111
10.4.1 殘差塊 112
10.4.2 殘差網(wǎng)絡的結構 113
10.5 深度卷積神經(jīng)網(wǎng)絡的訓練 114
10.5.1 權值初始化 114
10.5.2 學習率更新 115
10.5.3 批量正則化 115
10.5.4 增大數(shù)據(jù)集 116
10.5.5 圖形處理器與并行計算 117
10.6 全卷積神經(jīng)網(wǎng)絡與圖像的分割 117
10.6.1 全卷積神經(jīng)網(wǎng)絡 117
10.6.2 圖像分割 117
10.7 深度卷積神經(jīng)網(wǎng)絡在DNA序列分析中的應用 120
第11章 循環(huán)神經(jīng)網(wǎng)絡 124
11.1 循環(huán)的含義 124
11.2 循環(huán)神經(jīng)網(wǎng)絡的架構 125
11.3 循環(huán)神經(jīng)網(wǎng)絡中梯度的計算 128
11.4 長短期記憶網(wǎng)絡 130
11.5 門控循環(huán)單元 133
11.6 循環(huán)神經(jīng)網(wǎng)絡的實現(xiàn)與應用案例 134
11.6.1 訓練數(shù)據(jù)的獲取 134
11.6.2 循環(huán)神經(jīng)網(wǎng)絡的訓練 135
11.6.3 報告對比 137
11.6.4 基于PyTorch的LSTM網(wǎng)絡訓練 138
第12章 生成對抗網(wǎng)絡 140
12.1 引言 140
12.2 生成對抗網(wǎng)絡原理 141
12.2.1 損失函數(shù)和極大極小博弈 142
12.2.2 算法 142
12.2.3 最優(yōu)判別器 143
12.3 GAN的缺陷:梯度的消失 144
12.4 深度卷積生成對抗網(wǎng)絡的架構 145
第13章 有完整模型的強化學習 148
13.1 強化學習導引 148
13.2 馬爾可夫獎賞過程 150
13.2.1 馬爾可夫獎賞過程表現(xiàn)形式 150
13.2.2 狀態(tài)值函數(shù)和貝爾曼方程 151
13.3 馬爾可夫決策過程 151
13.3.1 值函數(shù)與貝爾曼方程 153
13.3.2 最優(yōu)策略和最優(yōu)值函數(shù) 156
13.3.3 行動值方法 159
13.4 動態(tài)規(guī)劃 159
13.4.1 策略評價 160
13.4.2 策略改進 161
13.4.3 策略迭代 162
13.4.4 值迭代 162
13.4.5 異步動態(tài)規(guī)劃 163
13.4.6 廣義策略迭代 164
第14章 無完整模型的強化學習 166
14.1 蒙特卡羅方法 166
14.1.1 蒙特卡羅策略預測 167
14.1.2 行動值的蒙特卡羅估計 169
14.1.3 蒙特卡羅控制 170
14.1.4 無探索起始的既定策略蒙特卡羅控制 172
14.1.5 通過重要性抽樣實現(xiàn)離策略預測 173
14.1.6 增量形式 175
14.1.7 離策略蒙特卡羅控制 176
14.1.8 蒙特卡羅方法與動態(tài)規(guī)劃方法的比較 177
14.2 時間差分學習 178
14.2.1 時間差分預測 179
14.2.2 Sarsa:既定策略時間差分控制 181
14.2.3 Q-學習:離策略時間差分控制 182
14.2.4 期望Sarsa 182
14.2.5 最大偏差和加倍學習 183
14.2.6 持續(xù)探索 185
第15章 深度Q網(wǎng)絡 186
15.1 深度Q網(wǎng)絡原理 187
15.2 深度Q網(wǎng)絡中的深度卷積神經(jīng)網(wǎng)絡 187
15.3 深度Q網(wǎng)絡算法 188
15.4 深度Q網(wǎng)絡訓練 190
參考文獻 194
附錄A:AlexNet代碼 196
附錄B:Inception網(wǎng)絡代碼 198
附錄C:ResNet代碼 204
附錄D:深度卷積神經(jīng)網(wǎng)絡的訓練代碼 208