深度學習 人工智能算法,機器學習奠基之作,AI圣經(jīng)
定 價:168 元
- 作者:[美]Ian Goodfellow(伊恩·古德費洛)、[加]Yoshua Bengio(約書亞·本吉奧)、[加]Aaron Courville(亞倫·庫維爾)
- 出版時間:2017/8/1
- ISBN:9787115461476
- 出 版 社:人民郵電出版社
- 中圖法分類:TP181
- 頁碼:
- 紙張:膠版紙
- 版次:1
- 開本:16開
《深度學習》由全球知名的三位專家Ian Goodfellow、Yoshua Bengio 和Aaron Courville撰寫,是深度學習領域奠基性的經(jīng)典教材。全書的內(nèi)容包括3個部分:第1部分介紹基本的數(shù)學工具和機器學習的概念,它們是深度學習的預備知識;第2部分系統(tǒng)深入地講解現(xiàn)今已成熟的深度學習方法和技術(shù);第3部分討論某些具有前瞻性的方向和想法,它們被公認為是深度學習未來的研究重點。
《深度學習》適合各類讀者閱讀,包括相關專業(yè)的大學生或研究生,以及不具有機器學習或統(tǒng)計背景、但是想要快速補充深度學習知識,以便在實際產(chǎn)品或平臺中應用的軟件工程師。
AI圣經(jīng)!深度學習領域奠基性的經(jīng)典暢銷書!長期位居美國亞馬遜AI和機器學習類圖書榜首!所有數(shù)據(jù)科學家和機器學習從業(yè)者的必讀圖書!特斯拉CEO埃隆·馬斯克等國內(nèi)外眾多專家推薦!
深度學習是機器學習的一個分支,它能夠使計算機通過層次概念來學習經(jīng)驗和理解世界。因為計算機能夠從經(jīng)驗中獲取知識,所以不需要人類來形式化地定義計算機需要的所有知識。層次概念允許計算機通過構(gòu)造簡單的概念來學習復雜的概念,而這些分層的圖結(jié)構(gòu)將具有很深的層次。本書會介紹深度學習領域的許多主題。
本書囊括了數(shù)學及相關概念的背景知識,包括線性代數(shù)、概率論、信息論、數(shù)值優(yōu)化以及機器學習中的相關內(nèi)容。同時,它還介紹了工業(yè)界中實踐者用到的深度學習技術(shù),包括深度前饋網(wǎng)絡、正則化、優(yōu)化算法、卷積網(wǎng)絡、序列建模和實踐方法等,并且調(diào)研了諸如自然語言處理、語音識別、計算機視覺、在線推薦系統(tǒng)、生物信息學以及視頻游戲方面的應用。*后,本書還提供了一些研究方向,涵蓋的理論主題包括線性因子模型、自編碼器、表示學習、結(jié)構(gòu)化概率模型、蒙特卡羅方法、配分函數(shù)、近似推斷以及深度生成模型。
《深度學習》這本書既可以被本科生或研究生用于規(guī)劃其學術(shù)界或工業(yè)界生涯,也適用于希望在各種產(chǎn)品或平臺上開始使用深度學習技術(shù)的軟件工程師。作者在本書的配套網(wǎng)站上為讀者和教師提供了補充資料。中文版讀者可以訪問人民郵電出版社異步社區(qū)www.epubit.com.cn獲取相關信息。
封面特色:
由藝術(shù)家Daniel Ambrosi提供的中央公園杜鵑花步道夢幻景觀。在Ambrosi的億級像素全景圖上,應用Joseph Smarr(Google)和Chirs Lamb(NVIDIA)修改后的Google DeepDream開源程序,創(chuàng)造了Daniel Ambrosi的幻景。
作者簡介
Ian Goodfellow,谷歌公司(Google) 的研究科學家,2014 年蒙特利爾大學機器學習博士。他的研究興趣涵蓋大多數(shù)深度學習主題,特別是生成模型以及機器學習的安全和隱私。Ian Goodfellow 在研究對抗樣本方面是一位有影響力的早期研究者,他發(fā)明了生成式對抗網(wǎng)絡,在深度學習領域貢獻卓越。
Yoshua Bengio,蒙特利爾大學計算機科學與運籌學系(DIRO) 的教授,蒙特利爾學習算法研究所(MILA) 的負責人,CIFAR 項目的共同負責人,加拿大統(tǒng)計學習算法研究主席。Yoshua Bengio 的主要研究目標是了解產(chǎn)生智力的學習原則。他還教授機器學習研究生課程(IFT6266),并培養(yǎng)了一大批研究生和博士后。
Aaron Courville,蒙特利爾大學計算機科學與運籌學系的助理教授,也是LISA 實驗室的成員。目前他的研究興趣集中在發(fā)展深度學習模型和方法,特別是開發(fā)概率模型和新穎的推斷方法。Aaron Courville 主要專注于計算機視覺應用,在其他領域,如自然語言處理、音頻信號處理、語音理解和其他AI 相關任務方面也有所研究。
中文版審校者簡介
張志華,北京大學數(shù)學科學學院統(tǒng)計學教授,北京大學大數(shù)據(jù)研究中心和北京大數(shù)據(jù)研究院數(shù)據(jù)科學教授,主要從事機器學習和應用統(tǒng)計學的教學與研究工作。
譯者簡介
趙申劍,上海交通大學計算機系碩士研究生,研究方向為數(shù)值優(yōu)化和自然語言處理。
黎彧君,上海交通大學計算機系博士研究生,研究方向為數(shù)值優(yōu)化和強化學習。
符天凡,上海交通大學計算機系碩士研究生,研究方向為貝葉斯推斷。
李凱,上海交通大學計算機系博士研究生,研究方向為博弈論和強化學習。
第1章引言1
1.1本書面向的讀者7
1.2深度學習的歷史趨勢8
1.2.1神經(jīng)網(wǎng)絡的眾多名稱和命運變遷8
1.2.2與日俱增的數(shù)據(jù)量12
1.2.3與日俱增的模型規(guī)模13
1.2.4與日俱增的精度、復雜度和對現(xiàn)實世界的沖擊15
第1部分應用數(shù)學與機器學習基礎
第2章線性代數(shù)19
2.1標量、向量、矩陣和張量19
2.2矩陣和向量相乘21
2.3單位矩陣和逆矩陣22
2.4線性相關和生成子空間23
2.5范數(shù)24
2.6特殊類型的矩陣和向量25
2.7特征分解26
2.8奇異值分解28
2.9Moore-Penrose偽逆28
2.10跡運算29
2.11行列式30
2.12實例:主成分分析.30
第3章概率與信息論.34
3.1為什么要使用概率34
3.2隨機變量35
3.3概率分布36
3.3.1離散型變量和概率質(zhì)量函數(shù)36
3.3.2連續(xù)型變量和概率密度函數(shù)36
3.4邊緣概率37
3.5條件概率37
3.6條件概率的鏈式法則38
3.7獨立性和條件獨立性38
3.8期望、方差和協(xié)方差38
3.9常用概率分布39
3.9.1Bernoulli分布40
3.9.2Multinoulli分布40
3.9.3高斯分布40
3.9.4指數(shù)分布和Laplace分布41
3.9.5Dirac分布和經(jīng)驗分布42
3.9.6分布的混合42
3.10常用函數(shù)的有用性質(zhì)43
3.11貝葉斯規(guī)則45
3.12連續(xù)型變量的技術(shù)細節(jié)45
3.13信息論47
3.14結(jié)構(gòu)化概率模型49
第4章數(shù)值計算52
4.1上溢和下溢52
4.2病態(tài)條件53
4.3基于梯度的優(yōu)化方法53
4.3.1梯度之上:Jacobian和Hessian矩陣56
4.4約束優(yōu)化60
4.5實例:線性最小二乘61
第5章機器學習基礎.63
5.1學習算法63
5.1.1任務T63
5.1.2性能度量P66
5.1.3經(jīng)驗E66
5.1.4示例:線性回歸68
5.2容量、過擬合和欠擬合70
5.2.1沒有免費午餐定理73
5.2.2正則化74
5.3超參數(shù)和驗證集76
5.3.1交叉驗證76
5.4估計、偏差和方差.77
5.4.1點估計77
5.4.2偏差78
5.4.3方差和標準差80
5.4.4權(quán)衡偏差和方差以最小化均方誤差81
5.4.5一致性82
5.5最大似然估計82
5.5.1條件對數(shù)似然和均方誤差84
5.5.2最大似然的性質(zhì)84
5.6貝葉斯統(tǒng)計85
5.6.1最大后驗(MAP)估計87
5.7監(jiān)督學習算法88
5.7.1概率監(jiān)督學習88
5.7.2支持向量機88
5.7.3其他簡單的監(jiān)督學習算法90
5.8無監(jiān)督學習算法91
5.8.1主成分分析92
5.8.2k-均值聚類.94
5.9隨機梯度下降94
5.10構(gòu)建機器學習算法96
5.11促使深度學習發(fā)展的挑戰(zhàn)96
5.11.1維數(shù)災難97
5.11.2局部不變性和平滑正則化97
5.11.3流形學習99
第2部分深度網(wǎng)絡:現(xiàn)代實踐
第6章深度前饋網(wǎng)絡105
6.1實例:學習XOR107
6.2基于梯度的學習110
6.2.1代價函數(shù)111
6.2.2輸出單元113
6.3隱藏單元119
6.3.1整流線性單元及其擴展120
6.3.2logisticsigmoid與雙曲正切函數(shù)121
6.3.3其他隱藏單元122
6.4架構(gòu)設計123
6.4.1萬能近似性質(zhì)和深度.123
6.4.2其他架構(gòu)上的考慮.126
6.5反向傳播和其他的微分算法.126
6.5.1計算圖127
6.5.2微積分中的鏈式法則.128
6.5.3遞歸地使用鏈式法則來實現(xiàn)反向傳播128
6.5.4全連接MLP中的反向傳播計算131
6.5.5符號到符號的導數(shù).131
6.5.6一般化的反向傳播.133
6.5.7實例:用于MLP訓練的反向傳播.135
6.5.8復雜化137
6.5.9深度學習界以外的微分137
6.5.10高階微分138
6.6歷史小記139
第7章深度學習中的正則化141
7.1參數(shù)范數(shù)懲罰142
7.1.1L2參數(shù)正則化142
7.1.2L1正則化144
7.2作為約束的范數(shù)懲罰146
7.3正則化和欠約束問題147
7.4數(shù)據(jù)集增強148
7.5噪聲魯棒性149
7.5.1向輸出目標注入噪聲.150
7.6半監(jiān)督學習150
7.7多任務學習150
7.8提前終止151
7.9參數(shù)綁定和參數(shù)共享156
7.9.1卷積神經(jīng)網(wǎng)絡156
7.10稀疏表示.157
7.11Bagging和其他集成方法.158
7.12Dropout159
7.13對抗訓練.165
7.14切面距離、正切傳播和流形正切分類器167
第8章深度模型中的優(yōu)化.169
8.1學習和純優(yōu)化有什么不同169
8.1.1經(jīng)驗風險最小化169
8.1.2代理損失函數(shù)和提前終止170
8.1.3批量算法和小批量算法170
8.2神經(jīng)網(wǎng)絡優(yōu)化中的挑戰(zhàn)173
8.2.1病態(tài)173
8.2.2局部極小值174
8.2.3高原、鞍點和其他平坦區(qū)域.175
8.2.4懸崖和梯度爆炸177
8.2.5長期依賴177
8.2.6非精確梯度178
8.2.7局部和全局結(jié)構(gòu)間的弱對應178
8.2.8優(yōu)化的理論限制179
8.3基本算法180
8.3.1隨機梯度下降180
8.3.2動量181
8.3.3Nesterov動量.183
8.4參數(shù)初始化策略184
8.5自適應學習率算法187
8.5.1AdaGrad187
8.5.2RMSProp188
8.5.3Adam189
8.5.4選擇正確的優(yōu)化算法.190
8.6二階近似方法190
8.6.1牛頓法190
8.6.2共軛梯度191
8.6.3BFGS193
8.7優(yōu)化策略和元算法194
8.7.1批標準化194
8.7.2坐標下降196
8.7.3Polyak平均197
8.7.4監(jiān)督預訓練197
8.7.5設計有助于優(yōu)化的模型199
8.7.6延拓法和課程學習.199
第9章卷積網(wǎng)絡201
9.1卷積運算201
9.2動機203
9.3池化207
9.4卷積與池化作為一種無限強的先驗210
9.5基本卷積函數(shù)的變體211
9.6結(jié)構(gòu)化輸出218
9.7數(shù)據(jù)類型219
9.8高效的卷積算法220
9.9隨機或無監(jiān)督的特征220
9.10卷積網(wǎng)絡的神經(jīng)科學基礎221
9.11卷積網(wǎng)絡與深度學習的歷史226
第10章序列建模:循環(huán)和遞歸網(wǎng)絡227
10.1展開計算圖228
10.2循環(huán)神經(jīng)網(wǎng)絡230
10.2.1導師驅(qū)動過程和輸出循環(huán)網(wǎng)絡232
10.2.2計算循環(huán)神經(jīng)網(wǎng)絡的梯度233
10.2.3作為有向圖模型的循環(huán)網(wǎng)絡235
10.2.4基于上下文的RNN序列建模237
10.3雙向RNN239
10.4基于編碼-解碼的序列到序列架構(gòu)240
10.5深度循環(huán)網(wǎng)絡242
10.6遞歸神經(jīng)網(wǎng)絡243
10.7長期依賴的挑戰(zhàn)244
10.8回聲狀態(tài)網(wǎng)絡245
10.9滲漏單元和其他多時間尺度的策略247
10.9.1時間維度的跳躍連接.247
10.9.2滲漏單元和一系列不同時間尺度247
10.9.3刪除連接248
10.10長短期記憶和其他門控RNN248
10.10.1LSTM248
10.10.2其他門控RNN250
10.11優(yōu)化長期依賴.251
10.11.1截斷梯度251
10.11.2引導信息流的正則化252
10.12外顯記憶253
第11章實踐方法論256
11.1性能度量.256
11.2默認的基準模型258
11.3決定是否收集更多數(shù)據(jù)259
11.4選擇超參數(shù)259
11.4.1手動調(diào)整超參數(shù)259
11.4.2自動超參數(shù)優(yōu)化算法.262
11.4.3網(wǎng)格搜索262
11.4.4隨機搜索263
11.4.5基于模型的超參數(shù)優(yōu)化264
11.5調(diào)試策略.264
11.6示例:多位數(shù)字識別267
第12章應用.269
12.1大規(guī)模深度學習269
12.1.1快速的CPU實現(xiàn)269
12.1.2GPU實現(xiàn)269
12.1.3大規(guī)模的分布式實現(xiàn).271
12.1.4模型壓縮271
12.1.5動態(tài)結(jié)構(gòu)272
12.1.6深度網(wǎng)絡的專用硬件實現(xiàn)273
12.2計算機視覺274
12.2.1預處理275
12.2.2數(shù)據(jù)集增強277
12.3語音識別.278
12.4自然語言處理279
12.4.1n-gram.280
12.4.2神經(jīng)語言模型281
12.4.3高維輸出282
12.4.4結(jié)合n-gram和神經(jīng)語言模型286
12.4.5神經(jīng)機器翻譯287
12.4.6歷史展望289
12.5其他應用.290
12.5.1推薦系統(tǒng)290
12.5.2知識表示、推理和回答292
第3部分深度學習研究
第13章線性因子模型297
13.1概率PCA和因子分析297
13.2獨立成分分析298
13.3慢特征分析300
13.4稀疏編碼.301
13.5PCA的流形解釋304
第14章自編碼器306
14.1欠完備自編碼器306
14.2正則自編碼器307
14.2.1稀疏自編碼器307
14.2.2去噪自編碼器309
14.2.3懲罰導數(shù)作為正則.309
14.3表示能力、層的大小和深度310
14.4隨機編碼器和解碼器.310
14.5去噪自編碼器詳解311
14.5.1得分估計312
14.5.2歷史展望314
14.6使用自編碼器學習流形314
14.7收縮自編碼器317
14.8預測稀疏分解319
14.9自編碼器的應用319
第15章表示學習321
15.1貪心逐層無監(jiān)督預訓練322
15.1.1何時以及為何無監(jiān)督預訓練有效有效323
15.2遷移學習和領域自適應326
15.3半監(jiān)督解釋因果關系.329
15.4分布式表示332
15.5得益于深度的指數(shù)增益336
15.6提供發(fā)現(xiàn)潛在原因的線索337
第16章深度學習中的結(jié)構(gòu)化概率模型339
16.1非結(jié)構(gòu)化建模的挑戰(zhàn).339
16.2使用圖描述模型結(jié)構(gòu).342
16.2.1有向模型342
16.2.2無向模型344
16.2.3配分函數(shù)345
16.2.4基于能量的模型346
16.2.5分離和d-分離.347
16.2.6在有向模型和無向模型中轉(zhuǎn)換350
16.2.7因子圖352
16.3從圖模型中采樣353
16.4結(jié)構(gòu)化建模的優(yōu)勢353
16.5學習依賴關系354
16.6推斷和近似推斷354
16.7結(jié)構(gòu)化概率模型的深度學習方法.355
16.7.1實例:受限玻爾茲曼機356
第17章蒙特卡羅方法359
17.1采樣和蒙特卡羅方法.359
17.1.1為什么需要采樣359
17.1.2蒙特卡羅采樣的基礎.359
17.2重要采樣.360
17.3馬爾可夫鏈蒙特卡羅方法362
17.4Gibbs采樣.365
17.5不同的峰值之間的混合挑戰(zhàn)365
17.5.1不同峰值之間通過回火來混合367
17.5.2深度也許會有助于混合368
第18章直面配分函數(shù)369
18.1對數(shù)似然梯度369
18.2隨機最大似然和對比散度370
18.3偽似然375
18.4得分匹配和比率匹配.376
18.5去噪得分匹配378
18.6噪聲對比估計378
18.7估計配分函數(shù)380
18.7.1退火重要采樣382
18.7.2橋式采樣384
第19章近似推斷385
19.1把推斷視作優(yōu)化問題.385
19.2期望最大化386
19.3最大后驗推斷和稀疏編碼387
19.4變分推斷和變分學習.389
19.4.1離散型潛變量390
19.4.2變分法394
19.4.3連續(xù)型潛變量396
19.4.4學習和推斷之間的相互作用397
19.5學成近似推斷397
19.5.1醒眠算法398
19.5.2學成推斷的其他形式.398
第20章深度生成模型399
20.1玻爾茲曼機399
20.2受限玻爾茲曼機400
20.2.1條件分布401
20.2.2訓練受限玻爾茲曼機.402
20.3深度信念網(wǎng)絡402
20.4深度玻爾茲曼機404
20.4.1有趣的性質(zhì)406
20.4.2DBM均勻場推斷406
20.4.3DBM的參數(shù)學習408
20.4.4逐層預訓練408
20.4.5聯(lián)合訓練深度玻爾茲曼機410
20.5實值數(shù)據(jù)上的玻爾茲曼機413
20.5.1Gaussian-BernoulliRBM413
20.5.2條件協(xié)方差的無向模型414
20.6卷積玻爾茲曼機417
20.7用于結(jié)構(gòu)化或序列輸出的玻爾茲曼機418
20.8其他玻爾茲曼機419
20.9通過隨機操作的反向傳播419
20.9.1通過離散隨機操作的反向傳播420
20.10有向生成網(wǎng)絡.422
20.10.1sigmoid信念網(wǎng)絡422
20.10.2可微生成器網(wǎng)絡.423
20.10.3變分自編碼器.425
20.10.4生成式對抗網(wǎng)絡.427
20.10.5生成矩匹配網(wǎng)絡.429
20.10.6卷積生成網(wǎng)絡.430
20.10.7自回歸網(wǎng)絡430
20.10.8線性自回歸網(wǎng)絡.430
20.10.9神經(jīng)自回歸網(wǎng)絡.431
20.10.10NADE432
20.11從自編碼器采樣433
20.11.1與任意去噪自編碼器相關的馬爾可夫鏈434
20.11.2夾合與條件采樣.434
20.11.3回退訓練過程.435
20.12生成隨機網(wǎng)絡.435
20.12.1判別性GSN436
20.13其他生成方案.436
20.14評估生成模型.437
20.15結(jié)論438
參考文獻.439
索引486