高級(jí)機(jī)器學(xué)習(xí)算法實(shí)戰(zhàn)
定 價(jià):99 元
- 作者:[印度]V.基肖爾·艾亞德瓦拉(V Kishore Ayyadevara)
- 出版時(shí)間:2022/10/1
- ISBN:9787111711445
- 出 版 社:機(jī)械工業(yè)出版社
- 中圖法分類:TP181
- 頁(yè)碼:242
- 紙張:
- 版次:
- 開(kāi)本:16
本書在理解算法如何工作和如何更好地調(diào)整模型之間架起一座橋梁。本書將幫助你掌握開(kāi)發(fā)主要機(jī)器學(xué)習(xí)模型的技能,包括監(jiān)督和無(wú)監(jiān)督學(xué)習(xí)(其中包括線性/對(duì)率回歸)、決策樹、隨機(jī)森林、梯度提升機(jī)(GBM)、神經(jīng)網(wǎng)絡(luò)、k均值聚類、主成分分析和推薦系統(tǒng)。
你將通過(guò)應(yīng)用于文本挖掘的CNN、RNN和Word2vec接觸到*新的深度學(xué)習(xí),并學(xué)習(xí)相關(guān)理論和案例研究,如情感分類、欺詐檢測(cè)、推薦系統(tǒng)和圖像識(shí)別等,以便獲得工業(yè)中使用的絕大多數(shù)機(jī)器學(xué)習(xí)算法的*佳理論和實(shí)踐。除了學(xué)習(xí)算法,你還將接觸到在所有主要云服務(wù)提供商上運(yùn)行的機(jī)器學(xué)習(xí)模型。
本書適合從事AI行業(yè)的工程師,以及希望從事數(shù)據(jù)科學(xué)工作的IT人員閱讀,并可以供數(shù)據(jù)科學(xué)家工作時(shí)參考使用。
目錄
譯者序
原書前言
作者簡(jiǎn)介
技術(shù)評(píng)審員簡(jiǎn)介
第1章 機(jī)器學(xué)習(xí)基礎(chǔ)
1.1回歸和分類
1.1.1訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)
1.1.2對(duì)于驗(yàn)證數(shù)據(jù)集的需求
1.1.3精度測(cè)量
1.1.4AUC值和ROC曲線
1.2無(wú)監(jiān)督學(xué)習(xí) //
1.3建立模型的典型方法
1.3.1數(shù)據(jù)從哪里獲取
1.3.2需要獲取哪些數(shù)據(jù)
1.3.3數(shù)據(jù)預(yù)處理
1.3.4特征交互
1.3.5特征生成
1.3.6建立模型
1.3.7模型生產(chǎn)化
1.3.8構(gòu)建、部署、測(cè)試和迭代
1.4總結(jié)
第2章 線性回歸
2.1線性回歸介紹
2.1.1變量:自變量和因變量
2.1.2相關(guān)性
2.1.3因果關(guān)系
2.2簡(jiǎn)單線性回歸與多元線性回歸
2.3形式化簡(jiǎn)單線性回歸
2.3.1偏差項(xiàng)
2.3.2斜率
2.4求解一個(gè)簡(jiǎn)單線性回歸
2.5求解簡(jiǎn)單線性回歸更通用的方法
2.5.1平方差總和小化
2.5.2求解公式
2.6簡(jiǎn)單線性回歸的工作細(xì)節(jié)
2.6.1讓簡(jiǎn)單線性回歸復(fù)雜化一點(diǎn)
2.6.2達(dá)到優(yōu)系數(shù)值
2.6.3方均根誤差介紹
2.7在R中運(yùn)行簡(jiǎn)單線性回歸
2.7.1殘差
2.7.2系數(shù)
2.7.3殘差(殘余偏差)的SSE
2.7.4零偏差
2.7.5R平方
2.7.6F統(tǒng)計(jì)量
2.8在Python中運(yùn)行簡(jiǎn)單線性回歸
2.9簡(jiǎn)單線性回歸的常見(jiàn)缺陷
2.10多元線性回歸
2.10.1多元線性回歸的工作細(xì)節(jié)
2.10.2R中的多元線性回歸
2.10.3Python中的多元線性回歸
2.10.4模型中的非重要變量問(wèn)題
2.10.5多重共線性問(wèn)題
2.10.6多重共線性的數(shù)學(xué)直覺(jué)
2.10.7有關(guān)多元線性回歸的其他注意事項(xiàng)
2.11線性回歸的假設(shè)
2.12總結(jié)
第3章 對(duì)數(shù)幾率回歸
3.1為什么線性回歸對(duì)離散結(jié)果無(wú)效
3.2一個(gè)更普遍的解決方案:Sigmoid曲線
3.2.1形式化Sigmoid曲線(Sigmoid激活)
3.2.2從Sigmoid曲線到對(duì)率回歸
3.2.3對(duì)率回歸的解釋
3.2.4對(duì)率回歸的工作細(xì)節(jié)
3.2.5估算誤差
3.2.6小二乘法與線性假設(shè)
3.3在R中運(yùn)行對(duì)率回歸
3.4在Python中運(yùn)行對(duì)率回歸
3.5確定興趣的度量
3.6常見(jiàn)陷阱
3.6.1預(yù)測(cè)和事件發(fā)生之間的時(shí)間
3.6.2自變量中的異常值
3.7總結(jié)
第4章 決策樹
4.1決策樹的構(gòu)成部分
4.2存在多個(gè)離散自變量的分類決策樹
4.2.1信息增益
4.2.2計(jì)算不確定性:熵
4.2.3計(jì)算信息增益
4.2.4原始數(shù)據(jù)集中的不確定性
4.2.5衡量不確定性的改善
4.2.6哪些特定值進(jìn)入左側(cè)或右側(cè)節(jié)點(diǎn)
4.2.7分裂過(guò)程何時(shí)停止
4.3連續(xù)自變量的分類決策樹
4.4有多個(gè)自變量時(shí)的分類決策樹
4.5存在連續(xù)自變量和離散自變量時(shí)的分類決策樹
4.6如果響應(yīng)變量是連續(xù)的怎么辦
4.6.1連續(xù)因變量與多個(gè)連續(xù)自變量
4.6.2連續(xù)因變量與離散自變量
4.6.3連續(xù)因變量與離散、連續(xù)自變量
4.7在R中實(shí)現(xiàn)決策樹
4.8在Python中實(shí)現(xiàn)決策樹
4.9創(chuàng)建樹的常見(jiàn)技術(shù)
4.10可視化樹的構(gòu)建
4.11異常值對(duì)決策樹的影響
4.12總結(jié)
第5章 隨機(jī)森林
5.1一個(gè)隨機(jī)森林的場(chǎng)景
5.1.1Bagging
5.1.2隨機(jī)森林的工作細(xì)節(jié)
5.2在R中實(shí)現(xiàn)隨機(jī)森林
5.2.1隨機(jī)森林中的參數(shù)調(diào)整
5.2.2樹的深度對(duì)AUC的影響
5.3在Python中實(shí)現(xiàn)隨機(jī)森林
5.4總結(jié)
第6章 梯度提升機(jī)
6.1梯度提升機(jī)介紹
6.2GBM的工作細(xì)節(jié)
6.3收縮率
6.4AdaBoost
6.4.1AdaBoost理論
6.4.2AdaBoost的工作細(xì)節(jié)
6.5GBM的附加功能
6.6在Python中實(shí)現(xiàn)GBM
6.7在R中實(shí)現(xiàn)GBM
6.8總結(jié)
第7章 人工神經(jīng)網(wǎng)絡(luò)
7.1神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)
7.2訓(xùn)練神經(jīng)網(wǎng)絡(luò)的工作細(xì)節(jié)
7.2.1前向傳播
7.2.2應(yīng)用激活函數(shù)
7.2.3反向傳播
7.2.4計(jì)算反向傳播
7.2.5隨機(jī)梯度下降
7.2.6深入了解梯度下降
7.2.7為什么要有學(xué)習(xí)率
7.3批量訓(xùn)練
7.3.1Softmax的概念
7.4不同的損耗優(yōu)化函數(shù)
7.4.1縮放數(shù)據(jù)集
7.5在Python中實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)
7.6利用正則化避免過(guò)擬合
7.7將權(quán)重分配給正則化項(xiàng)
7.8在R中實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)
7.9總結(jié)
第8章 Word2vec
8.1手工構(gòu)建詞向量
8.2構(gòu)建詞向量的方法
8.3Word2vec模型中需要注意的問(wèn)題
8.3.1常用詞
8.3.2負(fù)采樣
8.4在Python中實(shí)現(xiàn)Word2vec
8.5總結(jié)
第9章 卷積神經(jīng)網(wǎng)絡(luò)
9.1傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的問(wèn)題
9.1.1場(chǎng)景1
9.1.2場(chǎng)景2
9.1.3場(chǎng)景3
9.1.4場(chǎng)景4
9.2了解CNN中的卷積
9.2.1從卷積到激活
9.2.2從卷積激活到池化
9.2.3卷積和池化有什么幫助
9.3使用代碼創(chuàng)建CNN
9.4CNN的工作細(xì)節(jié)
9.5深入研究卷積/內(nèi)核
9.6從卷積和池化到扁平化:完全連接層
9.6.1從一個(gè)完全連接層到另一個(gè)完全連接層
9.6.2從完全連接層到輸出層
9.7連接點(diǎn):前饋網(wǎng)絡(luò)
9.8CNN的其他細(xì)節(jié)
9.9CNN中的反向傳播
9.10將各層放在一起
9.11數(shù)據(jù)增強(qiáng)
9.12在R中實(shí)現(xiàn)CNN
9.13總結(jié)
第10章 遞歸神經(jīng)網(wǎng)絡(luò)
10.1理解架構(gòu)
10.2RNN的解釋
10.3RNN的工作細(xì)節(jié)
10.3.1時(shí)間步驟1
10.3.2時(shí)間步驟2
10.3.3時(shí)間步驟3
10.4實(shí)現(xiàn)RNN:SimpleRNN
10.4.1編譯模型
10.4.2驗(yàn)證RNN的輸出
10.5實(shí)現(xiàn)RNN:生成文本
10.6RNN中的嵌入層
10.7傳統(tǒng)RNN的問(wèn)題
10.7.1梯度消失問(wèn)題
10.7.2梯度爆炸問(wèn)題
10.8LSTM
10.9在keras中實(shí)現(xiàn)基本LSTM
10.10實(shí)現(xiàn)LSTM進(jìn)行情感分類
10.11在R中實(shí)現(xiàn)RNN
10.12總結(jié)
第11章 聚類
11.1聚類介紹
11.1.1構(gòu)建用于性能比較的商店簇
11.1.2理想聚類
11.1.3在沒(méi)有聚類和過(guò)多聚類之間取得平衡:k均值聚類
11.2聚類過(guò)程
11.3k均值聚類算法的工作細(xì)節(jié)
11.3.1k均值算法在數(shù)據(jù)集上的應(yīng)用
11.3.2k均值聚類算法的性質(zhì)
11.4在R中實(shí)現(xiàn)k均值聚類
11.5在Python中實(shí)現(xiàn)k均值聚類
11.6主要指標(biāo)的意義
11.7確定優(yōu)的k
11.8自上向下與自下向上的聚類
11.8.1層次聚類
11.8.2層次聚類的主要缺點(diǎn)
11.9k均值聚類的行業(yè)使用案例
11.10總結(jié)
第12章 主成分分析
12.1PCA的直觀理解
12.2PCA的工作細(xì)節(jié)
12.3在PCA中縮放數(shù)據(jù)
12.4將PCA擴(kuò)展到多變量
12.5在R中實(shí)現(xiàn)PCA
12.6在Python中實(shí)現(xiàn)PCA
12.7將PCA應(yīng)用于MNIST
12.8總結(jié)
第13章 推薦系統(tǒng)
13.1了解k近鄰
13.2基于用戶的協(xié)同過(guò)濾的工作細(xì)節(jié)
13.2.1歐氏距離
13.2.2余弦相似度
13.3基于項(xiàng)目的協(xié)同過(guò)濾
13.4在R中實(shí)現(xiàn)協(xié)同過(guò)濾
13.5在Python中實(shí)現(xiàn)協(xié)同過(guò)濾
13.6矩陣分解的工作細(xì)節(jié)
13.7在Python中實(shí)現(xiàn)矩陣分解
13.8在R中實(shí)現(xiàn)矩陣分解
13.9總結(jié)
第14章 在云中實(shí)現(xiàn)算法
14.1谷歌云平臺(tái)
14.2微軟Azure
14.3亞馬遜網(wǎng)絡(luò)服務(wù)
14.4將文件傳輸?shù)皆茖?shí)例
14.5從本地計(jì)算機(jī)運(yùn)行實(shí)例Jupyter Notebook
14.6在實(shí)例上安裝R
14.7總結(jié)
附錄 Excel、R和Python基礎(chǔ)
A.1 Excel基礎(chǔ)
A.2 R語(yǔ)言基礎(chǔ)
A.3 Python基礎(chǔ)