Transformer&ChatGPT解密:原理、源碼及案例
定 價:129 元
- 作者:王家林,段智華 編
- 出版時間:2024/4/1
- ISBN:9787512443105
- 出 版 社:北京航空航天大學(xué)出版社
- 中圖法分類:TP391
- 頁碼:
- 紙張:膠版紙
- 版次:
- 開本:16開
本書是一本系統(tǒng)介紹Transformer原理、源碼、應(yīng)用的技術(shù)書籍,全書分為Transformer架構(gòu)及源碼篇、ChatGPT技術(shù):從基礎(chǔ)應(yīng)用到進(jìn)階實踐篇。
Transformer架構(gòu)及源碼篇,從Transformer的基本原理入手,深入淺出進(jìn)行講解,可使讀者能夠深刻理解Transformer的工作原理和設(shè)計思想,包括Transformer架構(gòu)的理論知識、實際案例以及Transformer架構(gòu)在時序預(yù)測等領(lǐng)域的應(yīng)用等。本篇特點是采用大量的圖片和圖表,通過圖文并茂的方式讓讀者直觀地了解Trans-former的原理和應(yīng)用和Bayesian Transformer思想及數(shù)學(xué)原理完整論證、Transformer架構(gòu)源碼完整實現(xiàn)、Transformer語言模型架構(gòu)、數(shù)學(xué)原理及內(nèi)幕機(jī)制、GPT自回歸語言模型架構(gòu)、數(shù)學(xué)原理及內(nèi)幕機(jī)制、BERT下的自編碼語言模型架構(gòu)、數(shù)學(xué)原理及內(nèi)幕機(jī)制、BE等
●第1篇Transformer架構(gòu)及源碼篇
第1章Bayesian Transformer思想及數(shù)學(xué)原理完整論證
1.1貝葉斯數(shù)學(xué)原理
1.2MLE和MAP數(shù)學(xué)推導(dǎo)
1.3語言模型Language Model原理機(jī)制、數(shù)學(xué)推導(dǎo)及神經(jīng)網(wǎng)絡(luò)實現(xiàn)
1.4圖解Transformer精髓
1.5Bayesian Transformer和傳統(tǒng)Transformer的主要區(qū)別
1.6Bayesian Transformer在學(xué)術(shù)和工業(yè)領(lǐng)域的意義
1.7貝葉斯Bayesian Transformer數(shù)學(xué)推導(dǎo)論證過程全生命周期詳解及底層神經(jīng)網(wǎng)絡(luò)物理機(jī)制剖析
第2章Transformer架構(gòu)源碼完整實現(xiàn)
2.1Transformer架構(gòu)內(nèi)部的等級化結(jié)構(gòu)及其在NLP中的應(yīng)用內(nèi)幕
2.2數(shù)學(xué)內(nèi)幕、注意力機(jī)制代碼實現(xiàn)及Transformer可視化
2.3以對話機(jī)器人的流式架構(gòu)為例闡述Transformer學(xué)習(xí)的第三境界
2.4以智能對話機(jī)器人為例闡述Transformer的自編碼autoencoding和自回歸autoregressive語言模型內(nèi)幕機(jī)制
第3章Transformer語言模型架構(gòu)、數(shù)學(xué)原理及內(nèi)幕機(jī)制
……