擴(kuò)散模型:生成式AI模型的理論、應(yīng)用與代碼實(shí)踐
定 價(jià):89 元
- 作者:楊靈 等
- 出版時(shí)間:2023/8/1
- ISBN:9787121459856
- 出 版 社:電子工業(yè)出版社
- 中圖法分類:TP181
- 頁(yè)碼:208
- 紙張:
- 版次:01
- 開本:16開
本書全面介紹了擴(kuò)散模型這種新興的深度生成模型在各個(gè)領(lǐng)域的應(yīng)用,其內(nèi)容包括AIGC與相關(guān)技術(shù)、擴(kuò)散模型基礎(chǔ)、擴(kuò)散模型的高效采樣、擴(kuò)散模型的似然最大化、將擴(kuò)散模型應(yīng)用于具有特殊結(jié)構(gòu)的數(shù)據(jù)、擴(kuò)散模型與其他生成模型的關(guān)聯(lián)、擴(kuò)散模型的應(yīng)用、擴(kuò)散模型的未來(lái)等。本書旨在提供一個(gè)情景,幫助讀者深入了解擴(kuò)散模型,確定擴(kuò)散模型的關(guān)鍵研究領(lǐng)域,以及適合未來(lái)進(jìn)一步探索的研究領(lǐng)域。本書適合高等院校計(jì)算機(jī)科學(xué)、人工智能和醫(yī)學(xué)、生物學(xué)等交叉學(xué)科專業(yè)的師生,以及相關(guān)人工智能應(yīng)用程序的開發(fā)人員閱讀。
楊靈,北京大學(xué)博士在讀,研究興趣是機(jī)器學(xué)習(xí)和生成式AI,作為第一作者在ICML、CVPR等人工智能頂會(huì)、頂刊發(fā)表過(guò)多篇論文,長(zhǎng)期擔(dān)任TPAMI、ICML、NeurIPS、CVPR、KDD、AAAI等多個(gè)頂級(jí)學(xué)術(shù)會(huì)議或期刊的程序委員會(huì)成員、審稿人,F(xiàn)與OpenAI、斯坦福大學(xué)等AI研究機(jī)構(gòu)進(jìn)行長(zhǎng)期的科研合作。曾獲北京大學(xué)國(guó)家獎(jiǎng)學(xué)金、學(xué)術(shù)創(chuàng)新獎(jiǎng)、三好學(xué)生等獎(jiǎng)項(xiàng)。張至隆,北京大學(xué)碩士在讀,本科畢業(yè)于北京大學(xué)數(shù)學(xué)科學(xué)學(xué)院,研究興趣是擴(kuò)散模型。曾獲北京大學(xué)國(guó)琴獎(jiǎng)學(xué)金、優(yōu)秀畢業(yè)生、三好學(xué)生等獎(jiǎng)項(xiàng)。張文濤,蒙特利爾學(xué)習(xí)算法研究所(Mila)博士后研究員。博士畢業(yè)于北京大學(xué)計(jì)算機(jī)學(xué)院,師從崔斌教授。研究興趣為大規(guī)模圖學(xué)習(xí),作為第一作者在機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘和數(shù)據(jù)庫(kù)等領(lǐng)域發(fā)表論文10余篇。曾獲Apple PhD Fellowship、WAIC云帆獎(jiǎng)和北京大學(xué)優(yōu)秀博士學(xué)位論文等獎(jiǎng)項(xiàng)。崔斌,北京大學(xué)計(jì)算機(jī)學(xué)院教授、博士生導(dǎo)師、北京大學(xué)計(jì)算機(jī)學(xué)院副院長(zhǎng)。擔(dān)任中國(guó)計(jì)算機(jī)學(xué)會(huì)數(shù)據(jù)庫(kù)專委會(huì)副主任,VLDB理事會(huì)理事,IEEE TKDE、VLDB Journal、DAPD等國(guó)際期刊編委。中國(guó)計(jì)算機(jī)學(xué)會(huì)杰出會(huì)員、IEEE高級(jí)會(huì)員、ACM會(huì)員,2016年入選教育部長(zhǎng)江學(xué)者特聘教授。
第1 章 AIGC 與相關(guān)技術(shù)
1.1 AIGC 簡(jiǎn)介
1.2 擴(kuò)散模型簡(jiǎn)介
第2 章 擴(kuò)散模型基礎(chǔ)
2.1 去噪擴(kuò)散概率模型
2.2 基于分?jǐn)?shù)的生成模型
2.3 隨機(jī)微分方程
2.4 擴(kuò)散模型的架構(gòu)
第3 章 擴(kuò)散模型的高效采樣
3.1 微分方程
3.2 確定性采樣
3.2.1 SDE 求解器
3.2.2 ODE 求解器
3.3 基于學(xué)習(xí)的采樣
3.3.1 離散方式
3.3.2 截?cái)鄶U(kuò)散
3.3.3 知識(shí)蒸餾
第4 章 擴(kuò)散模型的似然最大化
4.1 似然函數(shù)最大化
4.2 加噪策略優(yōu)化
4.3 逆向方差學(xué)習(xí)
4.4 精確的對(duì)數(shù)似然估計(jì)
第5 章 將擴(kuò)散模型應(yīng)用于具有特殊結(jié)構(gòu)的數(shù)據(jù)
5.1 離散數(shù)據(jù)
5.2 具有不變性結(jié)構(gòu)的數(shù)據(jù)
5.3 具有流形結(jié)構(gòu)的數(shù)據(jù)
5.3.1 流形已知
5.3.2 流形未知
第6 章 擴(kuò)散模型與其他生成模型的關(guān)聯(lián)
6.1 變分自編碼器與擴(kuò)散模型
6.2 生成對(duì)抗網(wǎng)絡(luò)與擴(kuò)散模型
6.3 歸一化流與擴(kuò)散模型
6.4 自回歸模型與擴(kuò)散模型
6.5 基于能量的模型與擴(kuò)散模型
第7 章 擴(kuò)散模型的應(yīng)用
7.1 無(wú)條件擴(kuò)散模型與條件擴(kuò)散模型
7.2 計(jì)算機(jī)視覺
7.2.1 圖像超分辨率、圖像修復(fù)和圖像翻譯
7.2.2 語(yǔ)義分割
7.2.3 視頻生成
7.2.4 點(diǎn)云補(bǔ)全和點(diǎn)云生成
7.2.5 異常檢測(cè)
7.3 自然語(yǔ)言處理
7.4 時(shí)間數(shù)據(jù)建模
7.4.1 時(shí)間序列插補(bǔ)
7.4.2 時(shí)間序列預(yù)測(cè)
7.5 多模態(tài)學(xué)習(xí)
7.5.1 文本到圖像的生成
7.5.2 文本到音頻的生成
7.5.3 場(chǎng)景圖到圖像的生成
7.5.4 文本到3D 內(nèi)容的生成
7.5.5 文本到人體動(dòng)作的生成
7.5.6 文本到視頻的生成
7.6 魯棒學(xué)習(xí)
7.7 跨學(xué)科應(yīng)用
7.7.1 人工智能藥物研發(fā)
7.7.2 醫(yī)學(xué)影像
第8 章 擴(kuò)散模型的未來(lái)——GPT 及大模型
8.1 預(yù)訓(xùn)練技術(shù)簡(jiǎn)介
8.1.1 生成式預(yù)訓(xùn)練和對(duì)比式預(yù)測(cè)練
8.1.2 并行訓(xùn)練技術(shù)
8.1.3 微調(diào)技術(shù)
8.2 GPT 及大模型
8.2.1 GPT-1
8.2.2 GPT-2
8.2.3 GPT-3 和大模型
8.2.4 InstructGPT 和ChatGPT
8.2.5 Visual ChatGPT
8.3 基于GPT 及大模型的擴(kuò)散模型
8.3.1 算法研究
8.3.2 應(yīng)用范式
相關(guān)資料說(shuō)明