本書分為三個部分,每部分都涵蓋理論和應用。第一部分從貝葉斯和頻數(shù)論的角度提出了橫截面數(shù)據(jù)的監(jiān)督學習。該部分強調(diào)神經(jīng)網(wǎng)絡(luò),包括深度學習以及高斯過程,并提供投資管理和衍生模型的示例。第二部分介紹了時間序列數(shù)據(jù)的監(jiān)督學習,時間序列數(shù)據(jù)可以說是金融中最常用的數(shù)據(jù)類型,并舉例說明了交易、隨機波動性和固定收益建模。第三部分介紹了強化學習及其在交易、投資和財富管理中的應用。本文提供了Python代碼示例,以幫助讀者理解方法和應用程序。
馬修·狄克遜(Matthew Dixon)博士,金融風險管理師(FRM),是伊利諾伊理工學院應用數(shù)學助理教授。他已經(jīng)發(fā)表了20多篇關(guān)于機器學習和定量金融方面的文章,并被《彭博市場》和英國《金融時報》援引為金融科技領(lǐng)域的人工智能專家。 伊戈爾·哈珀林(Igor Halperin)博士是紐約大學金融工程教授,也是美國富達投資集團(富達基金)(Fidelity Investments)的人工智能研究員。伊戈爾在機器學習、定量金融和理論物理方面發(fā)表了50多篇文章。 保羅·比洛克(Paul Bilokon)博士是Thalesian有限公司的首席執(zhí)行官和創(chuàng)始人。保羅在數(shù)理邏輯、隨機過濾理論方面貢獻突出,他是英國計算機學會、工程學會和歐洲復雜系統(tǒng)學會的成員。
第一部分基于橫截面數(shù)據(jù)的機器學習
第1章 引論 3
1.1 背景 3
1.2 機器學習與預測 7
1.3 統(tǒng)計建模與機器學習 15
1.4 強化學習 21
1.5 實踐中監(jiān)督機器學習的示例 27
1.6 本章小結(jié) 39
1.7 習題 40
第2章 概率建模 48
2.1 簡介 48
2.2 貝葉斯 vs.頻率估計 49
2.3 從數(shù)據(jù)中進行頻率推斷 51
2.4 評估估計量的質(zhì)量:偏差和方差 54
2.5 關(guān)于估計量的偏差-方差權(quán)衡(困境) 56
2.6 從數(shù)據(jù)中進行貝葉斯推斷 56
2.7 模型選擇 63
2.8 概率圖模型 69
2.9 本章小結(jié) 74
2.10 習題 75
第3章 貝葉斯回歸和高斯過程 80
3.1 簡介 80
3.2 線性回歸的貝葉斯推斷 81
3.3 高斯過程回歸 89
3.4 大規(guī)?煽s放高斯過程 94
3.5示例:使用單-GP進行定價和希臘值計算 96
3.6多響應高斯過程 101
3.7 本章小結(jié) 103
3.8 習題 104
第4章 前饋神經(jīng)網(wǎng)絡(luò) 109
4.1 簡介 109
4.2 前饋架構(gòu) 110
4.3 凸性與不等式約束 129
4.4 訓練、確認和測試 136
4.5 隨機梯度下降 139
4.6 貝葉斯神經(jīng)網(wǎng)絡(luò) 144
4.7 本章小結(jié) 148
4.8 習題 148
第5章 可解釋性 165
5.1 簡介 165
5.2 關(guān)于可解釋性的背景 165
5.3 神經(jīng)網(wǎng)絡(luò)的解釋力 167
5.4 交互效應 168
5.5 雅可比矩陣方差的界 171
5.6因子建模 175
5.7本章小結(jié) 181
5.8練習 182
第二部分 序貫學習
第6章 序貫建模 189
6.1 簡介 189
6.2 自回歸建模 190
6.3 擬合時間序列模型:Box-Jenkins方法 201
6.4 預測 206
6.5 主成分分析 209
6.6 本章小結(jié) 212
6.7 習題 213
第7章 概率序列建模 216
7.1 簡介 216
7.2 隱馬爾可夫建模 217
7.3 粒子濾波 222
7.4 隨機濾波器的點校準 225
7.5 隨機濾波器的貝葉斯校準 227
7.6 本章小結(jié) 229
7.7 習題 229
第8章 高級神經(jīng)網(wǎng)絡(luò) 234
8.1 簡介 234
8.2 循環(huán)神經(jīng)網(wǎng)絡(luò) 235
8.3 門控循環(huán)單元(GRU) 243
8.4 Python Notebook示例 250
8.5 卷積神經(jīng)網(wǎng)絡(luò) 251
8.6 自編碼器 259
8.7 本章小結(jié) 264
8.8 習題 265
第三部分 時序數(shù)據(jù)與決策
第9章 強化學習導論 273
9.1 簡介 273
9.2 強化學習的元素 277
9.3 馬爾可夫決策過程 282
9.4 動態(tài)規(guī)劃方法 292
9.5 強化學習方法 298
9.6 本章小結(jié) 328
9.7 習題 328
第10章 強化學習的應用 337
10.1 簡介 337
10.2 用于期權(quán)定價的QLBS模型 339
10.3 離散時間的Black-Scholes-Merton模型 342
10.4 QLBS模型 349
10.5 關(guān)于股票投資組合的G-學習 368
10.6 關(guān)于財富管理的強化學習 388
10.7 本章小結(jié) 399
10.8習題 401
第11章 逆強化學習和模仿學習 406
11.1 簡介 406
11.2 逆強化學習 409
11.3 最大熵逆強化學習 415
11.4 示例:用于客戶偏好推斷的最大熵逆強化學習 429
11.5 對抗模仿學習和逆強化學習 444
11.6 除GAIL之外:AIRL、f-MAX、FAIRL、RS-GAIL等 456
11.7 高斯過程逆強化學習 465
11.8 逆強化學習能否超越導師? 468
11.9讓我們嘗試一下:關(guān)于金融懸崖漫步的逆強化學習 474
11.10 逆強化學習的金融應用 478
11.11 本章小結(jié) 495
11.12 習題 496
第12章 機器學習與金融的前沿 502
12.1 簡介 502
12.2 市場動態(tài)、逆強化學習和物理學 504
12.3 物理學與機器學習 511
12.4 機器學習的“大一統(tǒng)”? 518