語音是新一代人機交互的方式,語音識別是實現(xiàn)這一方式的關鍵環(huán)節(jié),也是實現(xiàn)人工智能的基本步驟之一。本書結合當下使用廣泛的Kaldi工具,對語音識別的基本概念和流程進行了詳細的講解,包括GMM-HMM、DNN-HMM、端到端等常用結構,并探討了語音識別在實際應用中的問題,包括說話人自適應、噪聲對抗與環(huán)境魯棒性、小語種語音識別、關鍵詞識別與嵌入式應用等方面,也對語音技術的相關前沿課題進行了介紹,包括說話人識別、語種識別、情緒識別、語音合成等方向。本書的寫作以讓讀者快速、直觀地理解概念為目標,只展示最基本的數(shù)學公式,同時本書注重理解與實踐相結合,在對語音技術各個概念的講解中都展示了相應的Kaldi語音處理命令,以便讓讀者進一步融會貫通。本書適用于語音識別及相關技術的初學者、在校學生,以及基于Kaldi進行產(chǎn)品研發(fā)的同仁,也可以作為語音從業(yè)者的參考書目。
湯志遠,中國科學院大學與清華大學聯(lián)合培養(yǎng)博士,清華博士后。專注于語音技術,研究領域涉及語音識別、聲紋識別、語種識別、口語測評等,在國際重要期刊或會議上累計發(fā)表論文數(shù)十篇。個人主頁:http://tangzy.cslt.org。李藍天,清華大學博士、博士后,專注于機器學習在語音信號處理中的方法研究,研究領域涉及說話人識別、語音識別、音頻事件檢測、語種識別、情感識別等,現(xiàn)已在國際期刊或會議上發(fā)表學術論文50余篇。個人主頁:http://lilt.cslt.org。王東,清華大學副研究員,清華大學語音和語言技術中心副主任,英國愛丁堡大學博士,歷任Oracle中國軟件工程師、IBM中國高級軟件工程師、英國愛丁堡大學Marie Curie研究員、法國EURECOM博士后研究員、美國Nuance公司高級研究科學家,在語音領域國際重要期刊或會議上發(fā)表論文150余篇,是IEEE高級會員,APSIPA(亞太信號與信息處理協(xié)會)SLA(服務等級協(xié)議)主席。個人主頁:http://wangd.cslt.org。石穎,哈爾濱工業(yè)大學在讀博士,曾任清華大學語音和語言技術中心語音算法工程師,專注于語音相關技術,研究領域涉及語音識別、小語種語音識別、命令詞識別、語音增強。個人主頁:http://shiying.cslt.org。蔡云麒,中國科學院物理研究所與美國橡樹嶺國家實驗室聯(lián)合培養(yǎng)博士研究生,清華大學博士后,目前研究方向為語音領域的機器學習算法研究。在國際期刊和會議上發(fā)表論文十多篇。鄭方,清華大學研究員、博士生導師,清華大學語音和語言技術中心主任,清華大學人工智能研究院聽覺智能研究中心主任,北京信息科學與技術國家研究中心智能科學部常務副主任,得意音通公司創(chuàng)始人。個人主頁:http://cslt.riit.tsinghua.edu.cn/~fzheng。
目錄
1 語音是什么 2
1.1 大音希聲 2
1.2 產(chǎn)生語音 4
1.3 看見語音 5
1.4 小結 8
2 語音識別方法 9
2.1 總體思路 10
2.2 聲學模型GMM-HMM 12
2.2.1 HMM 12
2.2.2 GMM 14
2.2.3 訓練 15
2.3 聲學模型DNN-HMM 16
2.4 語言模型 18
2.4.1 N-Gram 18
2.4.2 RNN語言模型 18
2.5 解碼器 20
2.6 端到端結構 22
2.6.1 CTC 23
2.6.2 RNN-T 26
2.6.3 Attention 27
2.6.4 Self-Attention 29
2.6.5 CTC+Attension 31
2.7 開源工具和硬件平臺 32
2.7.1 深度學習平臺 32
2.7.2 語音識別工具 33
2.7.3 硬件加速 34
2.8 小結 36
3 完整的語音識別實驗 37
3.1 語音識別實驗的步驟 38
3.2 語音識別實驗的運行 46
3.3 其他語音任務案例 47
3.4 小結 47
4 前端處理 48
4.1 數(shù)據(jù)準備 48
4.2 聲學特征提取 52
4.2.1 預加重(Pre-Emphasis) 54
4.2.2 加窗(Windowing) 54
4.2.3 離散傅里葉變換(DFT) 55
4.2.4 FBank特征 56
4.2.5 MFCC特征 57
4.3 小結 58
5 訓練與解碼 59
5.1 GMM-HMM基本流程 60
5.1.1 訓練 60
5.1.2 解碼 61
5.1.3 強制對齊 62
5.2 DNN-HMM基本流程 63
5.3 DNN配置詳解 64
5.3.1 component和component-node 65
5.3.2 屬性與描述符 66
5.3.3 不同組件的使用方法 66
5.3.4 LSTM配置范例 76
5.4 小結 81
6 說話人自適應 84
6.1 什么是說話人自適應 84
6.2 特征域自適應與聲道長度規(guī)整 85
6.3 聲學模型自適應:HMM-GMM系統(tǒng) 87
6.3.1 基于MAP的自適應方法 88
6.3.2 基于MLLR的自適應方法 91
6.4 聲學模型自適應:DNN系統(tǒng) 93
6.4.1 模型參數(shù)自適應學習 93
6.4.2 基于說話人向量的條件學習 94
6.5 領域自適應 95
6.6 小結 95
7 噪聲對抗與環(huán)境魯棒性 97
7.1 環(huán)境魯棒性簡介 97
7.2 前端信號處理方法 98
7.2.1 語音增強方法 99
7.2.2 特征域補償方法 103
7.2.3 基于DNN的特征映射 106
7.3 后端模型增強方法 108
7.3.1 簡單模型增強方法 108
7.3.2 模型自適應方法 109
7.3.3 多場景學習和數(shù)據(jù)增強方法 109
7.4 小結 110
8 小語種語音識別 111
8.1 小語種語音識別面臨的主要困難 112
8.2 基于音素共享的小語種語音識別 113
8.3 基于參數(shù)共享的小語種語音識別方法 118
8.4 其他小語種語音識別方法 121
8.4.1 Grapheme 建模 121
8.4.2 網(wǎng)絡結構與訓練方法 121
8.4.3 數(shù)據(jù)增強 122
8.5 小語種語音識別實踐 122
8.5.1 音頻數(shù)據(jù)采集 122
8.5.2 文本數(shù)據(jù)采集 122
8.5.3 文本正規(guī)化 123
8.5.4 發(fā)音詞典設計 123
8.6 小結 123
9 關鍵詞識別與嵌入式應用 125
9.1 基本概念 125
9.2 評價指標 126
9.3 實現(xiàn)方法 129
9.3.1 總體框架 129
9.3.2 基于LVCSR的KWS系統(tǒng) 130
9.3.3 基于示例的KWS 132
9.3.4 端到端KWS 133
9.3.5 滑動窗口 133
9.4 嵌入式應用 134
9.4.1 模型壓縮 134
9.4.2 遷移學習 136
9.4.3 網(wǎng)絡結構搜索與設計 137
9.5 小結 137
10 說話人識別 140
10.1 什么是說話人識別 140
10.1.1 基本概念 140
10.1.2 技術難點 143
10.1.3 發(fā)展歷史 143
10.2 基于知識驅動的特征設計 144
10.3 基于線性高斯的統(tǒng)計模型 147
10.3.1 高斯混合模型-通用背景模型 147
10.3.2 因子分析 150
10.4 基于數(shù)據(jù)驅動的特征學習 154
10.4.1 模型結構 156
10.4.2 訓練策略 157
10.4.3 多任務學習 157
10.5 基于端到端的識別模型 158
10.6 小結 160
11 語種識別 161
11.1 什么是語種識別 161
11.2 語言的區(qū)分性特征 163
11.3 統(tǒng)計模型方法 165
11.3.1 基于聲學特征的識別方法 165
11.3.2 基于發(fā)音單元的語種識別方法 167
11.4 深度學習方法 170
11.4.1 基于DNN的統(tǒng)計模型方法 170
11.4.2 基于DNN的端到端建模 172
11.4.3 基于DNN的語言嵌入 176
11.5 Kaldi中的語種識別 178
11.6 小結 180
12 語音情緒識別 182
12.1 什么是語音情緒識別 182
12.2 語音情緒模型 185
12.2.1 離散情緒模型 186
12.2.2 連續(xù)情緒模型 186
12.3 語音情緒特征提取 187
12.3.1 語音情緒識別中的典型特征 187
12.3.2 局部特征與全局特征 190
12.4 語音情緒建模 192
12.4.1 離散情緒模型 192
12.4.2 連續(xù)情緒模型 195
12.5 深度學習方法 196
12.5.1 基礎DNN方法 196
12.5.2 特征學習 198
12.5.3 遷移學習 200
12.5.4 多任務學習 200
12.6 小結 201
13 語音合成 203
13.1 激勵-響應模型 204
13.2 參數(shù)合成 207
13.3 拼接合成 208
13.4 統(tǒng)計模型合成 210
13.5 神經(jīng)模型合成 212
13.6 基于注意力機制的合成系統(tǒng) 214
13.7 小結 216
參考文獻 217
索引 243