第1篇緒論
第1章工業(yè)人工智能概述
1.1人工智能的基本概念及技術(shù)體系
1.2工業(yè)為什么需要人工智能
1.3本章小結(jié)
習題
第2篇人工智能軟件工具
第2章人工智能軟件工具Python
2.1人工智能軟件庫
2.2Python安裝與環(huán)境配置
2.3Python基礎(chǔ)知識
2.4NumPy、Pandas、Matplotlib
2.5本章小結(jié)
習題
第3篇搜索求解
第3章搜索與求解
3.1搜索相關(guān)知識
3.2狀態(tài)空間知識的表示方法
3.3盲目的圖搜索策略
3.4啟發(fā)式圖搜索策略
3.5本章小結(jié)
習題
第4篇知識表示、推理及專家系統(tǒng)
第4章知識與知識表示
4.1知識與知識表示的概念
4.2一階謂詞邏輯表示法
4.3語義網(wǎng)絡(luò)表示法
4.4本章小結(jié)
習題
第5章確定性推理方法
5.1推理的基本概述
5.2自然演繹推理
5.3海伯倫定理
5.4魯賓遜歸結(jié)原理
5.5歸結(jié)反演
5.6本章小結(jié)
習題
第6章不確定性推理方法
6.1不確定性推理的基本概念
6.2概率方法
6.3主觀貝葉斯方法
6.4可信度方法
6.5證據(jù)理論
6.6本章小結(jié)
習題
第7章專家系統(tǒng)
7.1專家系統(tǒng)的概念
7.2專家系統(tǒng)的發(fā)展
7.3專家系統(tǒng)的基本結(jié)構(gòu)
7.4專家系統(tǒng)的開發(fā)
7.5本章小結(jié)
習題
第5篇進化算法及其應(yīng)用
第8章進化算法及其應(yīng)用
8.1進化算法簡介
8.2基本遺傳算法
8.3遺傳算法改進算法
8.4本章小結(jié)
習題
第6篇機器學習與神經(jīng)網(wǎng)絡(luò)
第9章機器學習概論
9.1概論
9.2使用scikit-learn的機器學習例子
9.3本章小結(jié)
習題
第10章基于簡單線性回歸的機器學習理論基礎(chǔ)
10.1簡單線性回歸
10.2訓練數(shù)據(jù)、測試數(shù)據(jù)和驗證數(shù)據(jù)
10.3偏差和方差
10.4過擬合和欠擬合
10.5成本函數(shù)
10.6模型性能評估
10.7查準率和召回率
10.8F1 Score
10.9本章小結(jié)
習題
第11章k-近鄰算法
11.1算法原理
11.2交叉驗證
11.3KNN手寫數(shù)字識別
11.4使用OpenCV實現(xiàn)KNN
11.5本章小結(jié)
習題
第12章數(shù)據(jù)表示與特征工程
12.1特征工程
12.2數(shù)據(jù)預(yù)處理
12.3數(shù)據(jù)降維
12.4本章小結(jié)
習題
第13章多元線性回歸
13.1簡單線性回歸與多元線性回歸
13.2多項式回歸
13.3正則化
13.4應(yīng)用線性回歸
13.5梯度下降法
13.6學習曲線
13.7算法模型性能優(yōu)化
13.8本章小結(jié)
習題
第14章邏輯回歸
14.1線性回歸與邏輯回歸
14.2二元分類
14.3垃圾郵件過濾
14.4二元分類性能指標
14.5本章小結(jié)
習題
第15章決策樹
15.1算法原理
15.2算法參數(shù)
15.3實例: 泰坦尼克號幸存者的預(yù)測
15.4決策樹的優(yōu)缺點
15.5本章小結(jié)
習題
第16章集合算法
16.1理解集合算法
16.2隨機森林
16.3預(yù)測泰坦尼克號幸存者
16.4本章小結(jié)
習題
第17章支持向量機
17.1理論基礎(chǔ)
17.2核方法
17.3SVM的使用
17.4SVM可視化案例
17.5本章小結(jié)
習題
第18章樸素貝葉斯算法
18.1基礎(chǔ)概念
18.2sklearn中的樸素貝葉斯算法
18.3算法實例1
18.4算法實例2
18.5本章小結(jié)
習題
第19章k-均值算法
19.1算法原理
19.2scikit-learn里的k-均值
19.3聚類算法性能評估
19.4K-Means
19.5用k-均值進行圖像量化
19.6本章小結(jié)
習題
第20章人工神經(jīng)網(wǎng)絡(luò)
20.1神經(jīng)網(wǎng)絡(luò)介紹及單層神經(jīng)網(wǎng)絡(luò)
20.2多層神經(jīng)網(wǎng)絡(luò)和反向傳播算法
20.3卷積神經(jīng)網(wǎng)絡(luò)
20.4本章小結(jié)
習題
參考文獻