《TensorFlow深度學習從入門到進階》以TensorFlow為主線進行講解,書中每章節(jié)都以理論引出,以TensorFlow應用鞏固結束,理論與實踐相結合,讓讀者快速掌握TensorFlow機器學習!禩ensorFlow深度學習從入門到進階》共11章,主要包括TensorFlow與深度網(wǎng)絡、TensorFlow編程基礎、TensorFlow編程進階、線性回歸、邏輯回歸、聚類分析、神經(jīng)網(wǎng)絡算法、卷積神經(jīng)網(wǎng)絡、循環(huán)神經(jīng)網(wǎng)絡、其他網(wǎng)絡、機器學習綜合實戰(zhàn)等內(nèi)容。
《TensorFlow深度學習從入門到進階》適合TensorFlow初學者閱讀,也適合研究TensorFlow的廣大科研人員、學者、工程技術人員學習參考。
前言
第1章 TensorFlow與深度學習
1.1 深度學習的由來
1.2 語言與系統(tǒng)的支持
1.3 TensorFlow的特點
1.4 核心組件
1.5 TensorFlow的主要依賴包
1.5.1 Protocol Buffer包
1.5.2 Bazel包
1.6 搭建環(huán)境
1.6.1 安裝環(huán)境
1.6.2 安裝TensorFlow
1.6.3 安裝測試
1.7 Geany
1.8 揭開深度學習的面紗
1.8.1 人工智能、機器學習與深度學習
1.8.2 深度學習的核心思想
1.8.3 深度學習的應用
1.9 深度學習的優(yōu)劣勢
第2章 TensorFlow編程基礎
2.1 張量
2.1.1 張量的概念
2.1.2 張量的使用
2.1.3 Numpy庫
2.1.4 張量的階
2.1.5 張量的形狀
2.1.6 張量應用實例
2.2 圖的實現(xiàn)
2.3 會話的實現(xiàn)
2.4 認識變量
2.4.1 變量的創(chuàng)建
2.4.2 變量的初始化
2.4.3 變量的更新
2.4.4 變量的保存
2.4.5 變量的加載
2.4.6 共享變量和變量命名空間
2.5 矩陣的操作
2.5.1 矩陣的生成
2.5.2 矩陣的變換
2.6 TensorFlow數(shù)據(jù)讀取的方式
2.7 從磁盤讀取信息
2.7.1 列表格式
2.7.2 讀取圖像數(shù)據(jù)
第3章 TensorFlow編程進階
3.1 隊列與線程
3.1.1 隊列
3.1.2 隊列管理器
3.1.3 線程協(xié)調器
3.1.4 組合使用
3.2 TensorFlow嵌入Layer
3.3 生成隨機圖片數(shù)據(jù)
3.4 神經(jīng)網(wǎng)絡
3.4.1 神經(jīng)元
3.4.2 簡單神經(jīng)結構
3.4.3 深度神經(jīng)網(wǎng)絡
3.5 損失函數(shù)
3.6 梯度下降
3.6.1 標準梯度法
3.6.2 批量梯度下降法
3.6.3 隨機梯度下降法
3.6.4 小批量梯度下降法
3.6.5 線性模型的局限性
3.6.6 直線與曲線的擬合演示
3.7 反向傳播
3.7.1 求導鏈式法則
3.7.2 反向傳播算法思路
3.7.3 反向傳播算法的計算過程
3.7.4 反向傳播演示回歸與二分類算法
3.8 隨機訓練與批量訓練
3.9 創(chuàng)建分類器
3.10 模型評估
3.11 優(yōu)化函數(shù)
3.11.1 隨機梯度下降優(yōu)化算法
3.11.2 基于動量的優(yōu)化算法
3.11.3 Adagrad優(yōu)化算法
3.11.4 Adadelta優(yōu)化算法
3.11.5 Adam優(yōu)化算法
3.11.6 實例演示幾種優(yōu)化算法
第4章 TensorFlow實現(xiàn)線性回歸
4.1 矩陣操作實現(xiàn)線性回歸問題
4.1.1 逆矩陣解決線性回歸問題
4.1.2 矩陣分解法實現(xiàn)線性回歸
4.1.3 正則法對iris數(shù)據(jù)實現(xiàn)回歸分析
4.2 損失函數(shù)對iris數(shù)據(jù)實現(xiàn)回歸分析
4.3 戴明算法對iris數(shù)據(jù)實現(xiàn)回歸分析
4.4 嶺回歸與Lasso回歸對iris數(shù)據(jù)實現(xiàn)回歸分析
4.5 彈性網(wǎng)絡算法對iris數(shù)據(jù)實現(xiàn)回歸分析
第5章 TensorFlow實現(xiàn)邏輯回歸
5.1 什么是邏輯回歸
5.1.1 邏輯回歸與線性回歸的關系
5.1.2 邏輯回歸模型的代價函數(shù)
5.1.3 邏輯回歸的預測函數(shù)
5.1.4 判定邊界
5.1.5 隨機梯度下降算法實現(xiàn)邏輯回歸
5.2 逆函數(shù)及其實現(xiàn)
5.2.1 逆函數(shù)的相關函數(shù)
5.2.2 逆函數(shù)的實現(xiàn)
5.3 Softmax回歸
5.3.1 Softmax回歸簡介
5.3.2 Softmax的代價函數(shù)
5.3.3 Softmax回歸的求解
5.3.4 Softmax回歸的參數(shù)特點
5.3.5 Softmax與邏輯回歸的關系
5.3.6 多分類算法和二分類算法的選擇
5.3.7 計算機視覺領域實例
第6章 TensorFlow實現(xiàn)聚類分析
6.1 支持向量機及實現(xiàn)
6.1.1 重新審視邏輯回歸
6.1.2 形式化表示
6.1.3 函數(shù)間隔和幾何間隔
6.1.4 最優(yōu)間隔分類器
6.1.5 支持向量機對iris數(shù)據(jù)進行分類
6.1.6 核函數(shù)對數(shù)據(jù)點進行預測
6.1.7 非線性支持向量機創(chuàng)建山鳶尾花分類器
6.1.8 多類支持向量機對iris數(shù)據(jù)進行預測
6.2 K-均值聚類法及實現(xiàn)
6.2.1 K-均值聚類相關概念
6.2.2 K-均值聚類法對iris數(shù)據(jù)進行聚類
6.3 最近鄰算法及實現(xiàn)
6.3.1 最近鄰算法概述
6.3.2 最近鄰算法求解文本距離
6.3.3 最近鄰算法實現(xiàn)地址匹配
第7章 神經(jīng)網(wǎng)絡算法
7.1 反向網(wǎng)絡
7.1.1 問題設置
7.1.2 反向網(wǎng)絡算法
7.1.3 自動微分
7.1.4 對隨機數(shù)進行反向網(wǎng)絡演示
7.2 激勵函數(shù)及實現(xiàn)
7.2.1 激勵函數(shù)的用途
7.2.2 幾種激勵函數(shù)
7.2.3 幾種激勵函數(shù)的繪圖
7.3 門函數(shù)及其實現(xiàn)
7.4 單層神經(jīng)網(wǎng)絡對iris數(shù)據(jù)進行訓練
7.5 單個神經(jīng)元的擴展及實現(xiàn)
7.6 構建多層神經(jīng)網(wǎng)絡
7.7 實現(xiàn)井字棋
第8章 TensorFlow實現(xiàn)卷積神經(jīng)網(wǎng)絡
8.1 全連接網(wǎng)絡的局限性
8.2 卷積神經(jīng)網(wǎng)絡的結構
8.2.1 卷積層
8.2.2 池化層
8.2.3 全連接層
8.3 卷積神經(jīng)網(wǎng)絡的訓練
8.3.1 求導的鏈式法則
8.3.2 卷積層反向傳播
8.4 卷積神經(jīng)網(wǎng)絡的實現(xiàn)
8.4.1 識別0和1數(shù)字
8.4.2 預測MNIST數(shù)字
8.5 幾種經(jīng)典的卷積神經(jīng)網(wǎng)絡及實現(xiàn)
8.5.1 AlexNet網(wǎng)絡及實現(xiàn)
8.5.2 VGGNet網(wǎng)絡及實現(xiàn)
8.5.3 Inception Net網(wǎng)絡及實現(xiàn)
8.5.4 RestNet網(wǎng)絡及實現(xiàn)
第9章 TensorFlow實現(xiàn)循環(huán)神經(jīng)網(wǎng)絡
9.1 循環(huán)神經(jīng)網(wǎng)絡概述
9.1.1 循環(huán)神經(jīng)網(wǎng)絡的原理
9.1.2 循環(huán)神經(jīng)網(wǎng)絡的應用
9.1.3 損失函數(shù)
9.1.4 梯度求解
9.1.5 實現(xiàn)二進制數(shù)加法運算
9.1.6 實現(xiàn)擬合回聲信號序列
9.2 循環(huán)神經(jīng)網(wǎng)絡的訓練
9.3 循環(huán)神經(jīng)網(wǎng)絡的改進
9.3.1 循環(huán)神經(jīng)網(wǎng)絡存在的問題
9.3.2 LSTM網(wǎng)絡
9.3.3 LSTM核心思想
9.3.4 LSTM詳解與實現(xiàn)
9.3.5 窺視孔連接
9.3.6 GRU網(wǎng)絡對MNIST數(shù)據(jù)集分類
9.3.7 BRNN網(wǎng)絡對MNIST數(shù)據(jù)集分類
9.3.8 CTC實現(xiàn)端到端訓練的語音識別模型
第10章 TensorFlow其他網(wǎng)絡
10.1 自編碼網(wǎng)絡及實現(xiàn)
10.1.1 自編碼網(wǎng)絡的結構
10.1.2 自編碼網(wǎng)絡的代碼實現(xiàn)
10.2 降噪自編碼器及實現(xiàn)
10.2.1 降噪自編碼器的原理
10.2.2 降噪自編碼器的實現(xiàn)
10.3 棧式自編碼器及實現(xiàn)
10.3.1 棧式自編碼器概述
10.3.2 棧式自編碼器訓練
10.3.3 棧式自編碼器進行MNIST手寫數(shù)字分類
10.3.4 代替和級聯(lián)
10.3.5 自編碼器的應用場合
10.3.6 自編碼器的綜合實現(xiàn)
10.4 變分自編碼器及實現(xiàn)
10.4.1 變分自編碼器的原理
10.4.2 損失函數(shù)
10.4.3 變分自編碼器模擬生成MNIST數(shù)據(jù)
10.5 條件變分自編碼器及實現(xiàn)
10.5.1 條件變分自編碼器概述
10.5.2 條件變分自編碼器生成MNIST數(shù)據(jù)
10.6 對抗神經(jīng)網(wǎng)絡
10.6.1 對抗神經(jīng)網(wǎng)絡的原理
10.6.2 生成模型的應用
10.6.3 對抗神經(jīng)網(wǎng)絡的訓練方法
10.7 DCGAN網(wǎng)絡及實現(xiàn)
10.7.1 DCGAN網(wǎng)絡概述
10.7.2 DCGAN網(wǎng)絡模擬MNIST數(shù)據(jù)
10.8 InfoGAN網(wǎng)絡及實現(xiàn)
10.8.1 什么是互信息
10.8.2 互信息的下界
10.8.3 InfoGAN生成MNIST模擬數(shù)據(jù)
10.9 AEGAN網(wǎng)絡及實現(xiàn)
10.9.1 AEGAN網(wǎng)絡概述
10.9.2 AEGAN對MNIST數(shù)據(jù)集壓縮及重建
10.10 WGAN-GP網(wǎng)絡
10.10.1 WGAN網(wǎng)絡
10.10.2 WGAN-GP網(wǎng)絡生成MNIST數(shù)據(jù)集
第11章 TensorFlow機器學習綜合實戰(zhàn)
11.1 房屋價格的預測
11.1.1 K近鄰算法預測房屋價格
11.1.2 卷積神經(jīng)網(wǎng)絡預測房屋價格
11.1.3 深度神經(jīng)網(wǎng)絡預測房屋價格
11.2 卷積神經(jīng)網(wǎng)絡實現(xiàn)人臉識別
11.3 腎癌的轉移判斷
11.4 比特幣的預測
參考文獻