• <strike id="fdgpu"><input id="fdgpu"></input></strike>
    <label id="fdgpu"></label>
    <s id="fdgpu"><code id="fdgpu"></code></s>

  • <label id="fdgpu"></label>
  • <span id="fdgpu"><u id="fdgpu"></u></span>

    <s id="fdgpu"><sub id="fdgpu"></sub></s>
       首頁 > 圖書 > 呼叫中心/客戶服務 > 《智能問答與深度學習》

    《智能問答與深度學習》

    2019-01-09 14:23:30   來源:   評論:0 點擊:



    購買鏈接:https://item.jd.com/12479014.html
      作者:王海良,李卓桓,林旭鳴 著
      出版社:電子工業(yè)出版社
      出版時間:2019-01-01
      版次:1  頁數(shù):268
      開本:16開 用紙:膠版紙
      印次:1 ISBN:9787121349218 包裝:平裝

      內(nèi)容簡介
      《智能問答與深度學習》面向在校學生或計算機軟件從業(yè)人員,由淺入深地介紹了人工智能在文本任務中的應用。《智能問答與深度學習》不但介紹了自然語言處理、深度學習和機器閱讀理解等基礎知識,還簡述了信息論、人工智能等的發(fā)展過程。
      作者簡介
      王海良,Chatopera聯(lián)合創(chuàng)始人、CEO,微軟人工智能極有價值專家。畢業(yè)于北京郵電大學,加入IBM工作四年,先后工作于軟件開發(fā)實驗室和創(chuàng)新中心,從2016年開始工作于創(chuàng)業(yè)公司,三角獸AI算法工程師,呤呤英語AI產(chǎn)品負責人,負責智能對話系統(tǒng)研發(fā)。
      李卓桓,PreAngel合伙人,Plug and Play投資合伙人。擁有25年編程經(jīng)驗,曾任優(yōu)酷網(wǎng)首席科學家、嘰歪網(wǎng)創(chuàng)始人,水木清華BBS站長,紫霞BBS站長。Conversational AI實踐者,熱愛滑雪、跑酷、滑雪傘等極限運動。
      林旭鳴,北京郵電大學模式識別實驗室研究生,目前的研究方向為深度學習、自然語言處理與機器閱讀理解。本科期間曾獲得國家獎學金,研究生期間多次在數(shù)據(jù)類競賽中取得Top3的成績。曾在百度、滴滴出行、微軟等公司實習。
      目錄
      1 概述1
      1.1 智能問答:讓機器更好地服務于人 1
      1.2 問答系統(tǒng)類型介紹 2
      1.2.1 基于事實的問答系統(tǒng) 3
      1.2.2 基于常見問題集的問答系統(tǒng) 3
      1.2.3 開放域的問答系統(tǒng) 4
      1.3 使用本書附帶的源碼程序 4
      1.3.1 安裝依賴軟件 4
      1.3.2 下載源碼 5
      1.3.3 執(zhí)行示例程序 5
      1.3.4 聯(lián)系我們 6
      1.4 全書結構 6
      2 機器學習基礎 8
      2.1 線性代數(shù) 8
      2.1.1 標量、向量、矩陣和張量 8
      2.1.2 矩陣運算 9
      2.1.3 特殊類型的矩陣 10
      2.1.4 線性相關 11
      2.1.5 范數(shù) 12
      2.2 概率論基礎 12
      2.2.1 隨機變量 13
      2.2.2 期望和方差 13
      2.2.3 伯努利分布 14
      2.2.4 二項分布 14
      2.2.5 泊松分布 15
      2.2.6 正態(tài)分布 15
      2.2.7 條件概率、聯(lián)合概率和全概率 17
      2.2.8 先驗概率與后驗概率 18
      2.2.9 邊緣概率 18
      2.2.10 貝葉斯公式 18
      2.2.11 最大似然估計算法 19
      2.2.12 線性回歸模型 20
      2.2.13 邏輯斯蒂回歸模型 21
      2.3 信息論基礎 22
      2.3.1 熵 23
      2.3.2 聯(lián)合熵和條件熵 23
      2.3.3 相對熵與互信息 24
      2.3.4 信道和信道容量 25
      2.3.5 最大熵模型 26
      2.3.6 信息論與機器學習 29
      2.4 統(tǒng)計學習 29
      2.4.1 輸入空間、特征空間與輸出空間 30
      2.4.2 向量表示 30
      2.4.3 數(shù)據(jù)集 31
      2.4.4 從概率到函數(shù) 31
      2.4.5 統(tǒng)計學習三要素 32
      2.5 隱馬爾可夫模型 33
      2.5.1 隨機過程和馬爾可夫鏈 33
      2.5.2 隱馬爾可夫模型的定義 36
      2.5.3 三個基本假設及適用場景 37
      2.5.4 概率計算問題之直接計算 39
      2.5.5 概率計算問題之前向算法 40
      2.5.6 概率計算問題之后向算法 42
      2.5.7 預測問題之維特比算法 45
      2.5.8 學習問題之Baum-Welch算法 48
      2.6 條件隨機場模型 52
      2.6.1 超越HMM 52
      2.6.2 項目實踐 55
      2.7 總結 59
      3 自然語言處理基礎 60
      3.1 中文自動分詞 60
      3.1.1 有向無環(huán)圖 61
      3.1.2 最大匹配算法 63
      3.1.3 算法評測 69
      3.1.4 由字構詞的方法 72
      3.2 詞性標注 77
      3.2.1 詞性標注規(guī)范 77
      3.2.2 隱馬爾可夫模型詞性標注 79
      3.3 命名實體識別 81
      3.4 上下文無關文法 82
      3.4.1 原理介紹 83
      3.4.2 算法淺析 83
      3.5 依存關系分析 84
      3.5.1 算法淺析 85
      3.5.2 項目實踐 92
      3.5.3 小結 94
      3.6 信息檢索系統(tǒng) 95
      3.6.1 什么是信息檢索系統(tǒng) 95
      3.6.2 衡量信息檢索系統(tǒng)的關鍵指標 95
      3.6.3 理解非結構化數(shù)據(jù) 97
      3.6.4 倒排索引 98
      3.6.5 處理查詢 100
      3.6.6 項目實踐 102
      3.6.7 Elasticsearch 103
      3.6.8 小結 112
      3.7 問答語料 113
      3.7.1 WikiQA 113
      3.7.2 中文版保險行業(yè)語料庫Insurance QA 113
      3.8 總結 115
      4 深度學習初步 116
      4.1 深度學習簡史 116
      4.1.1 感知機 116
      4.1.2 寒冬和復蘇 117
      4.1.3 走出實驗室 118
      4.1.4 寒冬再臨 119
      4.1.5 走向大規(guī)模實際應用 119
      4.2 基本架構 120
      4.2.1 神經(jīng)元 121
      4.2.2 輸入層、隱藏層和輸出層 122
      4.2.3 標準符號 123
      4.3 神經(jīng)網(wǎng)絡是如何學習的 124
      4.3.1 梯度下降 124
      4.3.2 反向傳播理論 127
      4.3.3 神經(jīng)網(wǎng)絡全連接層的實現(xiàn) 130
      4.3.4 使用簡單神經(jīng)網(wǎng)絡實現(xiàn)問答任務 131
      4.4 調(diào)整神經(jīng)網(wǎng)絡超參數(shù) 136
      4.4.1 超參數(shù) 136
      4.4.2 參考建議 137
      4.5 卷積神經(jīng)網(wǎng)絡與池化 138
      4.5.1 簡介 138
      4.5.2 卷積層的前向傳播 139
      4.5.3 池化層的前向傳播 141
      4.5.4 卷積層的實現(xiàn) 141
      4.5.5 池化層的實現(xiàn) 145
      4.5.6 使用卷積神經(jīng)網(wǎng)絡實現(xiàn)問答任務 148
      4.6 循環(huán)神經(jīng)網(wǎng)絡及其變種 149
      4.6.1 簡介 149
      4.6.2 循環(huán)神經(jīng)網(wǎng)絡 149
      4.6.3 長短期記憶單元和門控循環(huán)單元 153
      4.6.4 循環(huán)神經(jīng)網(wǎng)絡的實現(xiàn) 156
      4.6.5 使用循環(huán)神經(jīng)網(wǎng)絡實現(xiàn)問答任務 159
      4.7 簡易神經(jīng)網(wǎng)絡工具包 160
      5 詞向量實現(xiàn)及應用 161
      5.1 語言模型 161
      5.1.1 評測 162
      5.1.2 ARPA格式介紹 162
      5.1.3 項目實踐 163
      5.2 One-hot表示法 164
      5.3 詞袋模型 165
      5.4 NNLM和RNNLM 165
      5.5 word2vec 168
      5.5.1 C-BOW的原理 169
      5.5.2 Skip-gram的原理 172
      5.5.3 計算效率優(yōu)化 174
      5.5.4 項目實踐 179
      5.6 GloVe 189
      5.6.1 GloVe的原理 189
      5.6.2 GloVe與word2vec的區(qū)別和聯(lián)系 191
      5.6.3 項目實踐 193
      5.7 fastText 198
      5.7.1 fastText的原理 198
      5.7.2 fastText與word2vec的區(qū)別和聯(lián)系 200
      5.7.3 項目實踐 201
      5.8 中文近義詞工具包 204
      5.8.1 安裝 205
      5.8.2 接口 205
      5.9 總結 205
      6 社區(qū)問答中的QA匹配 206
      6.1 社區(qū)問答任務簡介 206
      6.2 孿生網(wǎng)絡模型 207
      6.3 QACNN模型 207
      6.3.1 模型構建 207
      6.3.2 實驗結果 214
      6.4 Decomposable Attention模型 214
      6.4.1 模型介紹 214
      6.4.2 模型構建 216
      6.5 多比較方式的比較–集成模型 216
      6.5.1 模型介紹 216
      6.5.2 模型構建 218
      6.6 BiMPM模型 219
      6.6.1 模型介紹 219
      6.6.2 模型構建 221
      7 機器閱讀理解 222
      7.1 完型填空型機器閱讀理解任務 222
      7.1.1 CNN/Daily Mail數(shù)據(jù)集 222
      7.1.2 Children’s Book Test(CBT)數(shù)據(jù)集 223
      7.1.3 GA Reader模型 226
      7.1.4 SA Reader模型 227
      7.1.5 AoA Reader模型 228
      7.2 答案抽取型機器閱讀理解任務 230
      7.2.1 SQuAD數(shù)據(jù)集 231
      7.2.2 MS MARCO數(shù)據(jù)集 232
      7.2.3 TriviaQA數(shù)據(jù)集 234
      7.2.4 DuReader數(shù)據(jù)集 235
      7.2.5 BiDAF模型 235
      7.2.6 R-Net模型 237
      7.2.7 S-Net模型 240
      7.3 答案選擇型機器閱讀理解任務 243
      7.4 展望 245
      參考文獻 246

    相關閱讀:

    分享到: 收藏

    最新專題更多>>

    亚洲精品网站在线观看不卡无广告,国产a不卡片精品免费观看,欧美亚洲一区二区三区在线,国产一区二区三区日韩 卫辉市| 常宁市| 大关县| 芜湖市| 九寨沟县| 曲靖市| 左云县| 石渠县| 济阳县| 永寿县| 芷江| 吉首市| 东港市| 横峰县| 高唐县| 应城市| 德庆县| 正安县| 得荣县| 临安市| 孟连| 宁海县| 门头沟区| 和平区| 红原县| 祁阳县| 嵊州市| 肥乡县| 黑水县| 乡宁县| 普兰县| 松溪县| 永寿县| 阳原县| 东明县| 十堰市| 社会| 栖霞市| 大方县| 申扎县| 灵山县| http://444 http://444 http://444 http://444 http://444 http://444