定 價:78 元
叢書名:人工智能技術(shù)應(yīng)用叢書
- 作者:孔祥維,梁熠,紀(jì)守領(lǐng),王志勇 著
- 出版時間:2024/6/1
- ISBN:9787118134414
- 出 版 社:國防工業(yè)出版社
- 中圖法分類:TP18
- 頁碼:215頁
- 紙張:
- 版次:1
- 開本:16開
本書系統(tǒng)介紹了可信人工智能的基礎(chǔ)知識、理論方法和應(yīng)用要素。內(nèi)容包括緒論、人工智能的風(fēng)險與信任、人工智能可解釋推理、人工智能對抗樣本和防御、人工智能內(nèi)容生成與深度偽造、人工智能使能系統(tǒng)的可信決策、人工智能可信應(yīng)用的要素。本書還討論了以人為本人工智能系統(tǒng)的設(shè)計、開發(fā)和使用中涉及的人類、組織和技術(shù)等復(fù)雜的因素。本書可以作為教科書,面向有一定人工智能基礎(chǔ)的本科生和研究生;也可以作為參考書,面向設(shè)計可信人工智能的技術(shù)人員和系統(tǒng)工程師,了解可信人工智能系統(tǒng)的基本路線圖和一些開放問題;還可供從事管理工作的人員在設(shè)計和選擇應(yīng)用人工智能系統(tǒng)時借鑒。
第1章 緒論
1.1 引言
1.2 人工智能系統(tǒng)超人的案例
1.2.1 人機智力問答和辯論賽
1.2.2 圖像識別和人臉識別
1.2.3 圍棋、撲克的人機對弈
1.2.4 阿爾法空戰(zhàn)人機格斗
1.2.5 人工智能與游戲玩家
1.2.6 AI與蛋白質(zhì)結(jié)構(gòu)預(yù)測
1.3 人工智能系統(tǒng)智障的案例
1.3.1 易變壞的聊天機器人
1.3.2 IBM沃森醫(yī)生的教訓(xùn)
1.3.3 歧視的再犯罪AI算法
1.3.4 人臉識別系統(tǒng)的問題
1.3.5 頻發(fā)事故的自動駕駛
1.3.6 社交網(wǎng)絡(luò)中真假難辨
1.4 可信人工智能的倫理和法規(guī)
1.4.1 典型的人工智能倫理原則
1.4.2 可信人工智能原則的實施
1.5 人工智能可信的挑戰(zhàn)性問題
1.5.1 人工智能預(yù)測的可信問題
1.5.2 人工智能決策的可信問題
1.5.3 人工智能系統(tǒng)的可信問題
1.6 小結(jié)
參考文獻
第2章 人工智能的風(fēng)險與信任
2.1 引言
2.2 人工智能的風(fēng)險問題
2.2.1 數(shù)據(jù)驅(qū)動決策的內(nèi)生風(fēng)險
2.2.2 人工智能模型的內(nèi)生風(fēng)險
2.3 人工智能的信任問題
2.3.1 對人工智能的信任問題
2.3.2 AI系統(tǒng)信任的影響因素
2.3.3 對人工智能的采納問題
2.4 國外對可信人工智能的推進
2.4.1 國外可信人工智能的發(fā)展
2.4.2 DARPA的可信人工智能項目
2.5 小結(jié)
參考文獻
第3章 人工智能可解釋推理
3.1 引言
3.1.1 為什么人工智能需要可解釋
3.1.2 人工智能可解釋的相關(guān)概念
3.2 深度神經(jīng)網(wǎng)絡(luò)的可解釋性
3.2.1 基于視覺的解釋方法
3.2.2 基于擾動的解釋方法
3.2.3 基于知識的解釋方法
3.2.4 基于因果的解釋方法
3.3 自動駕駛系統(tǒng)的可解釋性
3.3.1 自動駕駛可解釋的需求
3.3.2 自動駕駛關(guān)鍵操作可解釋
3.4 人工智能可解釋軟件工具
3.4.1 XAI工具箱比較分析
3.4.2 以人為本的可解釋AI
3.5 人工智能可解釋性的評估
3.5.1 解釋的主觀評估標(biāo)準(zhǔn)
3.5.2 解釋的客觀評估指標(biāo)
3.5.3 DARPA的XAI評價案例
3.6 小結(jié)
參考文獻
第4章 人工智能對抗樣本和防御
4.1 引言
4.1.1 對抗樣本的概念
4.1.2 對抗樣本的分類
4.2 數(shù)字世界的對抗樣本
4.2.1 AI模型對抗樣本生成
4.2.2 對抗樣本的攻擊類型
4.2.3 對抗樣本可視化解釋
4.2.4 對抗樣本的評價指標(biāo)
4.3 物理世界的對抗樣本
4.3.1 路標(biāo)識別的物理對抗攻擊
4.3.2 目標(biāo)檢測的物理對抗攻擊
4.3.3 人臉識別的物理對抗攻擊
4.3.4 車牌識別系統(tǒng)的對抗攻擊
4.4 對抗樣本的檢測和防御
4.4.1 對抗樣本攻擊的防御
4.4.2 AI攻擊防御評價指標(biāo)
4.5 AI對抗樣本工具軟件與競賽
4.5.1 AI對抗樣本工具軟件
4.5.2 人工智能攻防對抗競賽
4.5.3 光電系統(tǒng)對抗攻擊實例
4.6 小結(jié)
參考文獻
第5章 人工智能內(nèi)容生成與深度偽造
5.1 引言
5.2 深度生成模型
5.2.1 GAN網(wǎng)絡(luò)的基本概念
5.2.2 深度生成模型的發(fā)展
5.2.3 AIGC和大模型可信問題
5.3 圖像和視頻深度偽造
5.3.1 深度偽造分類
5.3.2 深度偽造傳播
5.4 音頻和文本深度偽造
5.4.1 音頻AI生成與偽造
5.4.2 音頻深度偽造檢測
5.4.3 文本AI生成與偽造
5.4.4 文本深度偽造檢測
5.5 對AI深度偽造的治理
5.5.1 AI深度偽造的影響
5.5.2 AI深度偽造的治理
5.5.3 深度偽造檢測比賽
5.6 AI深度偽造的其他應(yīng)用
5.6.1 隱身衣和位置欺騙
5.6.2 深度偽造與認(rèn)知戰(zhàn)
5.7 小結(jié)
參考文獻
第6章 人工智能使能系統(tǒng)的可信決策
6.1 引言
6.2 人工智能工程
6.2.1 人工智能工程的概述
6.2.2 人工智能工程的實踐
6.3 AI使能系統(tǒng)與可信決策
6.3.1 不確定情境下對AI系統(tǒng)的信任
6.3.2 數(shù)據(jù)和模型不確定下的AI決策
6.3.3 人機協(xié)同的AI系統(tǒng)可信決策和組團
6.4 AI系統(tǒng)生命周期的人機協(xié)同可信
6.4.1 用戶需求與開發(fā)者間的協(xié)同
6.4.2 系統(tǒng)開發(fā)者與AI系統(tǒng)的協(xié)同
6.4.3 AI系統(tǒng)和系統(tǒng)用戶間的協(xié)同
6.5 小結(jié)
參考文獻
第7章 人工智能可信應(yīng)用的要素
7.1 引言
7.2 AI可信應(yīng)用中的數(shù)據(jù)要素
7.2.1 數(shù)據(jù)集存在系統(tǒng)缺陷
7.2.2 數(shù)據(jù)壟斷和隱私問題
7.2.3 數(shù)據(jù)資產(chǎn)估值和定價
7.3 AI可信應(yīng)用中的模型要素
7.3.1 開放世界的模型要素
7.3.2 算法公平性的分類
7.3.3 算法決策公平方法
7.4 AI可信應(yīng)用中的系統(tǒng)要素
7.4.1 機器學(xué)習(xí)運維
7.4.2 人工智能系統(tǒng)可靠性
7.5 小結(jié)
附錄:數(shù)據(jù)計價規(guī)范
附件1 數(shù)據(jù)定價方法
附件2 數(shù)據(jù)集構(gòu)建規(guī)模度量方法
附件3 人力成本取值參考表
附件4 非人力成本費用
附件5 數(shù)