HuggingFace自然語言處理詳解(基于BERT中文模型的任務(wù)實戰(zhàn))/計算機技術(shù)開發(fā)與應(yīng)用叢書
定 價:69 元
叢書名:計算機技術(shù)開發(fā)與應(yīng)用叢書
- 作者:李福林著
- 出版時間:2023/4/1
- ISBN:9787302628538
- 出 版 社:清華大學(xué)出版社
- 中圖法分類:TP391
- 頁碼:226
- 紙張:
- 版次:1
- 開本:16開
本書綜合性講解HuggingFace社區(qū)提供的工具集datasets和transformers,書中包括最基礎(chǔ)的工具集的用例演示,具體的項目實戰(zhàn),以及預(yù)訓(xùn)練模型的底層設(shè)計思路和實現(xiàn)原理的介紹。通過本書的學(xué)習(xí),讀者可以快速掌握HuggingFace工具集的使用方法,掌握自然語言處理項目的一般研發(fā)流程,并能研發(fā)自己的自然語言處理項目。
本書分為3篇共14章:工具集基礎(chǔ)用例演示篇(第1~6章),詳細講解HuggingFace工具集的基本使用目的一般流程;預(yù)訓(xùn)練模型底層原理篇(第13、14章),詳細闡述了預(yù)訓(xùn)練模型的設(shè)計思路和計算原理。
本書將使用最簡單淺顯的語言,帶領(lǐng)讀者快速了解HuggingFace工具集的使用方法。通過本書實戰(zhàn)項目的學(xué)習(xí),讀者可以掌握一般的自然語言處理項目的研發(fā)流程。通過本書預(yù)訓(xùn)練模型底層原理的學(xué)習(xí),讀者能夠知其然也知其所以然,做到融會貫通。方法;中文項目實戰(zhàn)篇(第7~12章),通過幾個實戰(zhàn)項目演示使用HuggingFace工具集研發(fā)自然語言處理項
本書適合有PyTorch編程基礎(chǔ)的讀者閱讀,也適合作為對自然語言處理感興趣的讀者的參考圖書。
李福林,一個在IT領(lǐng)域摸爬滾打十多年的老程序員、培訓(xùn)師,精通多種IT技術(shù),具有軟件設(shè)計師職稱。分享了多部AI技術(shù)教程,受到了讀者的廣泛贊譽。現(xiàn)任職于陽獅集團,擔(dān)任算法工程師職位。教學(xué)風(fēng)格追求化繁為簡,務(wù)實而不空談,課程設(shè)計思路清晰,課程演繹說理透徹,對A領(lǐng)域技術(shù)有自己獨到的見解。
工具集基礎(chǔ)用例演示篇
第1章 HuggingFace簡介
第2章 使用編碼工具
2.1 編碼工具簡介
2.2 編碼工具工作流示意
2.3 使用編碼工具
2.4 小結(jié)
第3章 使用數(shù)據(jù)集工具
3.1 數(shù)據(jù)集工具介紹
3.2 使用數(shù)據(jù)集工具
3.2.1 數(shù)據(jù)集加載和保存
3.2.2 數(shù)據(jù)集基本操作
3.2.3 將數(shù)據(jù)集保存為其他格式
3.3 小結(jié)
第4章 使用評價指標(biāo)工具
4.1 評價指標(biāo)工具介紹
4.2 使用評價指標(biāo)工具
4.3 小結(jié)
第5章 使用管道工具
5.1 管道工具介紹
5.2 使用管道工具
5.2.1 常見任務(wù)演示
5.2.2 替換模型執(zhí)行任務(wù)
5.3 小結(jié)
第6章 使用訓(xùn)練工具
6.1 訓(xùn)練工具介紹
6.2 使用訓(xùn)練工具
6.2.1 準(zhǔn)備數(shù)據(jù)集
6.2.2 定義模型和訓(xùn)練工具
6.2.3 訓(xùn)練和測試
6.3 小結(jié)
中文項目實戰(zhàn)篇
第7章 實戰(zhàn)任務(wù)1:中文情感分類
7.1 任務(wù)簡介
7.2 數(shù)據(jù)集介紹
7.3 模型架構(gòu)
7.4 實現(xiàn)代碼
7.4.1 準(zhǔn)備數(shù)據(jù)集
7.4.2 定義模型
7.4.3 訓(xùn)練和測試
7.5 小結(jié)
第8章 實戰(zhàn)任務(wù)2:中文填空
8.1 任務(wù)簡介
8.2 數(shù)據(jù)集介紹
8.3 模型架構(gòu)
8.4 實現(xiàn)代碼
8.4.1 準(zhǔn)備數(shù)據(jù)集
8.4.2 定義模型
8.4.3 訓(xùn)練和測試
8.5 小結(jié)
第9章 實戰(zhàn)任務(wù)3:中文句子關(guān)系推斷
9.1 任務(wù)簡介
9.2 數(shù)據(jù)集介紹
9.3 模型架構(gòu)
9.4 實現(xiàn)代碼
9.4.1 準(zhǔn)備數(shù)據(jù)集
9.4.2 定義模型
9.4.3 訓(xùn)練和測試
9.5 小結(jié)
第10章 實戰(zhàn)任務(wù)4:中文命名實體識別
10.1 任務(wù)簡介
10.2 數(shù)據(jù)集介紹
10.3 模型架構(gòu)
10.4 實現(xiàn)代碼
10.4.1 準(zhǔn)備數(shù)據(jù)集
10.4.2 定義模型
10.4.3 訓(xùn)練和測試
10.5 小結(jié)
第11章 使用TensorFlow訓(xùn)練
11.1 任務(wù)簡介
11.2 數(shù)據(jù)集介紹
11.3 模型架構(gòu)
11.4 實現(xiàn)代碼
11.4.1 準(zhǔn)備數(shù)據(jù)集
11.4.2 定義模型
11.4.3 訓(xùn)練和測試
11.5 小結(jié)
第12章 使用自動模型
12.1 任務(wù)簡介
12.2 數(shù)據(jù)集介紹
12.3 模型架構(gòu)
12.4 實現(xiàn)代碼
12.4.1 準(zhǔn)備數(shù)據(jù)集
12.4.2 加載自動模型
12.4.3 訓(xùn)練和測試
12.5 深入自動模型源代碼
12.6 小結(jié)
預(yù)訓(xùn)練模型底層原理篇
第13章 手動實現(xiàn)Transformer
13.1 Transformer架構(gòu)
13.2 注意力
13.2.1 為什么需要注意力
13.2.2 注意力的計算過程
13.2.3 注意力計算的矩陣形式
13.2.4 多頭注意力
13.3 位置編碼
13.3.1 為什么需要位置編碼
13.3.2 位置編碼計算過程
13.4 MASK
13.4.1 PAD MASK
13.4.2 上三角MASK
13.5 Transformer計算流程
13.5.1 編碼器
13.5.2 整體計算流程
13.5.3 解碼器解碼過程詳細講解
13.5.4 總體架構(gòu)
13.6 簡單翻譯任務(wù)
13.6.1 任務(wù)介紹
13.6.2 定義數(shù)據(jù)集
13.6.3 定義MASK函數(shù)
13.6.4 定義Transformer工具子層
13.6.5 定義Transformer模型
13.6.6 訓(xùn)練和測試
13.7 兩數(shù)相加任務(wù)
13.7.1 任務(wù)介紹
13.7.2 實現(xiàn)代碼
13.7.3 訓(xùn)練和測試
13.8 小結(jié)
第14章 手動實現(xiàn)BERT
14.1 BERT架構(gòu)
14.2 數(shù)據(jù)集處理
14.2.1 數(shù)據(jù)處理過程概述
14.2.2 數(shù)據(jù)集介紹
14.2.3 數(shù)據(jù)處理實現(xiàn)代碼
14.3 PyTorch提供的Transformer工具層介紹
14.4 手動實現(xiàn)BERT模型
14.4.1 準(zhǔn)備數(shù)據(jù)集
14.4.2 定義輔助函數(shù)
14.4.3 定義BERT模型
14.4.4 訓(xùn)練和測試
14.5 小結(jié)