Home > Book
Check-outs :

机器学习 = Machine learning /

  • Hit:62
  • Rating:0
  • Review:0
  • Trackback:0
  • Forward:0


轉寄 列印
第1級人氣樹(0)
人氣指樹
  • keepsite
  • Introduction
  • About Author
  • Collection(0)
  • Review(0)
  • Rating(0)
  • Trackback(0)

《機器學習》是計算機科學與人工智能的重要分支領域。《機器學習》作為該領域的入門教材,在內容上盡可能涵蓋機器學習基礎知識的各方面。全書共16章,大致分為3個部分:第1部分(第1~3章)介紹機器學習的基礎知識;第2部分(第4~10章)討論一些經典而常用的機器學習方法(決策樹、神經網絡、支持向量機、貝葉斯分類器、集成學習、聚類、降維與度量學習);第3部分(第11~16章)為進階知識,內容涉及特征選擇與稀疏學習、計算學習理論、半監督學習、概率圖模型、規則學習以及強化學習等。每章都附有習題並介紹了相關閱讀材料,以便有興趣的讀者進一步鑽研探索。《機器學習》可作為高等院校計算機、自動化及相關專業的本科生或研究生教材,也可供對機器學習感興趣的研究人員和工程技術人員閱讀參考。周志華,南京大學計算機系教授,ACM傑出科學家,IEEE Fellow, IAPR Fellow, IET/IEE Fellow, 中國計算機學會會士。國家傑出青年科學基金獲得者、長江學者特聘教授。先后擔任多種SCI(E)期刊執行主編、副主編、副編輯、編委等。中國計算機學會人工智能與模式識別專業委員會主任,中國人工智能學會機器學習專業委員會主任,IEEE計算智能學會數據挖掘技術委員會副主席。

第1章 11.1 引言 11.2 基本術 21.3 假設空間 41.4 歸納偏好 61.5 發展歷程 101.6 應用現狀 131.7 閱讀材料 16習題 19參考文獻 20休息一會兒 22第2章 模型評估與選擇 23 2.1 經驗誤差與過擬合 23 2.2 評估方法 24 2.2.1 留出法 25 2.2.2 交叉驗證法 26 2.2.3 自助法 27 2.2.4 調參與最終模型 28 2.3 性能度量 28 2.3.1 錯誤率與精度 29 2.3.2 查准率、查全率與F1 30 2.3.3 ROC與AUC 33 2.3.4 代價敏感錯誤率與代價曲線 35 2.4 比較檢驗 37 2.4.1 假設檢驗 37 2.4.2 交叉驗證t檢驗 40 2.4.3 McNemar檢驗 41 2.4.4 Friedman檢驗與后續檢驗 42 2.5 偏差與方差 44 2.6 閱讀材料 46 習題 48 參考文獻 49 休息一會兒 51第3章 線性模型 53 3.1 基本形式 53 3.2 線性回歸 53 3.3 對數幾率回歸 57 3.4 線性判別分析 60 3.5 多分類學習 63 3.6 類別不平衡問題 66 3.7 閱讀材料 67 習題 69 參考文獻 70 休息一會兒 72 第4章 決策樹 73 4.1 基本流程 73 4.2 划分選擇 75 4.2.1 信息增益 75 4.2.2 增益率 77 4.2.3 基尼指數 79 4.3 剪枝處理 79 4.3.1 預剪枝 80 4.3.2 后剪枝 82 4.4 連續與缺失值 83 4.4.1 連續值處理 83 4.4.2 缺失值處理 85 4.5 多變量決策樹 88 4.6 閱讀材料 92 習題 93 參考文獻 94 休息一會兒 95 第5章 神經網絡 97 5.1 神經元模型 97 5.2 感知機與多層網絡 98 5.3 誤差逆傳播算法 101 5.4 全局最小與局部極小 106 5.5 其他常見神經網絡 108 5.5.1 RBF網絡 108 5.5.2 ART網絡 108 5.5.3 SOM網絡 109 5.5.4 級聯相關網絡 110 5.5.5 Elman網絡 111 5.5.6 Boltzmann機 111 5.6 深度學習 113 5.7 閱讀材料 115 習題 116 參考文獻 117 休息一會兒 120 第6章 支持向量機 121 6.1 間隔與支持向量 121 6.2 對偶問題 123 6.3 核函數 126 6.4 軟間隔與正則化 129 6.5 支持向量回歸 133 6.6 核方法 137 6.7 閱讀材料 139 習題 141 參考文獻 142 休息一會兒 145 第7章 貝葉斯分類器 147 7.1 貝葉斯決策論 147 7.2 極大似然估計 149 7.3 朴素貝葉斯分類器 150 7.4 半朴素貝葉斯分類器 154 7.5 貝葉斯網 156 7.5.1 結構 157 7.5.2 學習 159 7.5.3 推斷 161 7.6 EM算法 162 7.7 閱讀材料 164 習題 166 參考文獻 167 休息一會兒 169 第8章 集成學習 171 8.1 個體與集成 171 8.2 Boosting 173 8.3 Bagging與隨機森林 178 8.3.1 Bagging 178 8.3.2 隨機森林 179 8.4 結合策略 181 8.4.1 平均法 181 8.4.2 投票法 182 8.4.3 學習法 183 8.5 多樣性 185 8.5.1 誤差--分歧分解 185 8.5.2 多樣性度量 186 8.5.3 多樣性增強 188 8.6 閱讀材料 190 習題 192 參考文獻 193 休息一會兒 196 第9章 聚類 197 9.1 聚類任務 197 9.2 性能度量 197 9.3 距離計算 199 9.4 原型聚類 202 9.4.1 k均值算法 202 9.4.2 學習向量量化 204 9.4.3 高斯混合聚類 206 9.5 密度聚類 211 9.6 層次聚類 214 9.7 閱讀材料 217 習題 220 參考文獻 221 休息一會兒 224 第10章 降維與度量學習 225 10.1 k近鄰學習 225 10.2 低維嵌入 226 10.3 主成分分析 229 10.4 核化線性降維 232 10.5 流形學習 234 10.5.1 等度量映射 234 10.5.2 局部線性嵌入 235 10.6 度量學習 237 10.7 閱讀材料 240 習題 242 參考文獻 243 休息一會兒 246 第11章 特征選擇與稀疏學習 247 11.1 子集搜索與評價 247 11.2 過濾式選擇 249 11.3 包裹式選擇 250 11.4 嵌入式選擇與L$_1$正則化 252 11.5 稀疏表示與字典學習 254 11.6 壓縮感知 257 11.7 閱讀材料 260 習題 262 參考文獻 263 休息一會兒 266 第12章 計算學習理論 267 12.1 基礎知識 267 12.2 PAC學習 268 12.3 有限假設空間 270 12.3.1 可分情形 270 12.3.2 不可分情形 272 12.4 VC維 273 12.5 Rademacher復雜度 279 12.6 穩定性 284 12.7 閱讀材料 287 習題 289 參考文獻 290 休息一會兒 292 第13章 半監督學習 293 13.1 未標記樣本 293 13.2 生成式方法 295 13.3 半監督SVM 298 13.4 圖半監督學習 300 13.5 基於分歧的方法 304 13.6 半監督聚類 307 13.7 閱讀材料 311 習題 313 參考文獻 314 休息一會兒 317 第14章 概率圖模型 319 14.1 隱馬爾可夫模型 319 14.2 馬爾可夫隨機場 322 14.3 條件隨機場 325 14.4 學習與推斷 328 14.4.1 變量消去 328 14.4.2 信念傳播 330 14.5 近似推斷 331 14.5.1 MCMC采樣 331 14.5.2 變分推斷 334 14.6 話題模型 337 14.7 閱讀材料 339 習題 341 參考文獻 342 休息一會兒 345 第15章 規則學習 347 15.1 基本概念 347 15.2 序貫覆蓋 349 15.3 剪枝優化 352 15.4 一階規則學習 354 15.5 歸納邏輯程序設計 357 15.5.1 最小一般泛化 358 15.5.2 逆歸結 359 15.6 閱讀材料 363 習題 365 參考文獻 366 休息一會兒 369 第16章 強化學習 371 16.1 任務與獎賞 371 16.2 $K$-搖臂賭博機 373 16.2.1 探索與利用 373 16.2.2 $psilon $-貪心 374 16.2.3 Softmax 375 16.3 有模型學習 377 16.3.1 策略評估 377 16.3.2 策略改進 379 16.3.3 策略迭代與值迭代 381 16.4 免模型學習 382 16.4.1 蒙特卡羅強化學習 383 16.4.2 時序差分學習 386 16.5 值函數近似 388 16.6 模仿學習 390 16.6.1 直接模仿學習 391 16.6.2 逆強化學習 391 16.7 閱讀材料 393 習題 394 參考文獻 395 休息一會兒 397 附錄 399 A 矩陣 399 B 優化 403 C 概率分布 409 后記 417 索引 419

Must Login
Must Login
Must Login
Must Login


Teackback URL: