https://www.toutiao.com/article/7162037201646207521/?log_from=2d9a6dc4d2538_1668002320315
英國數(shù)學家、計算機科學家、邏輯學家和密碼分析家阿蘭 · 圖靈曾說,
“這(機器學習)就像一個學生從老師那里學到了很多,同時通過自己的工作又增加了很多。當這種情況發(fā)生時,我覺得人們有義務將機器視為顯示智能的工具。”
舉個機器學習影響的例子,曼氏集團的 AHL 維度計劃是一個51億美元的對沖基金,部分由人工智能管理。到2015年,該基金啟動后,其機器學習算法貢獻了該基金一半以上的利潤,盡管其管理的資產(chǎn)少得多。
讀完這篇文章,你將能夠理解一些流行的和令人難以置信的機器學習算法背后的基本邏輯,這些算法已經(jīng)被交易社區(qū)使用,并且作為你創(chuàng)建最好的機器學習算法的基石。他們是:
統(tǒng)計學最初是用來研究輸入和輸出數(shù)字變量之間的關系,機器學習社區(qū)采用它來根據(jù)線性回歸方程進行預測。
線性回歸的數(shù)學表示是一個線性方程式,它結合了一組特定的輸入數(shù)據(jù)(x) ,以預測該組輸入值的輸出值(y)。線性方程為每組輸入值分配一個因子,稱為希臘字母 Beta (β)表示的系數(shù)。
下面提到的方程代表了一個有兩組輸入值的線性回歸模型,x1和 x2。Y 表示模型的輸出,β0,β1和 β2是線性方程的系數(shù)。
y = β0 + β1x1 + β2x2
當只有一個輸入變量時,線性方程表示一條直線。為了簡單起見,考慮 β2等于零,這意味著變量 x2不會影響線性回歸模型的輸出。在這種情況下,線性回歸將代表一條直線,其方程如下所示。
y = β0 + β1x1
線性回歸方程模型的圖表如下所示:
線性回歸可以用來找出股票在一段時間內(nèi)的總體價格趨勢。這有助于我們理解價格的變動是正向的還是負向的。
在邏輯回歸中,我們的目標是產(chǎn)生一個離散的值,要么是1,要么是0。這有助于我們找到一個明確的答案,我們的情況。
邏輯回歸在數(shù)學上可以表示為:
邏輯回歸模型計算輸入變量的加權和,類似于線性回歸,但是它通過一個特殊的非線性函數(shù)運行結果,logistic函數(shù)或sigmoid函數(shù)產(chǎn)生輸出 y。
sigmoid/logistic函數(shù)由下列方程表示:
y = 1 / (1+ e-x)
簡單來說,邏輯回歸模型可以用來預測市場的走向。
K 最近鄰(KNN)分類的目的是將數(shù)據(jù)點分成不同的類,以便根據(jù)相似性度量(如距離函數(shù))對數(shù)據(jù)點進行分類。
從某種意義上說,KNN 是邊學邊做的,它不需要一個明確的訓練階段,而是開始對由鄰居大多數(shù)投票決定的數(shù)據(jù)點進行分類。
對象被分配到 k 個最近鄰中最常見的類。
讓我們考慮一下將一個綠色圓圈分為類1和類2的任務??紤]基于1-最近鄰居的 KNN 問題。在這種情況下,KNN 將綠色圓圈分類為類1?,F(xiàn)在讓我們把最近的鄰居數(shù)增加到3,即3-最近的鄰居。正如你在圖中看到的,在圓圈內(nèi)有兩個2類對象和一個1類對象。KNN 將綠色圓圈分類為2類對象,因為它形成大多數(shù)。
支持向量機最初用于數(shù)據(jù)分析。首先,將一組訓練樣本輸入到支持向量機算法中,這些樣本屬于一個或另一個類別。然后,該算法構建一個模型,開始將新數(shù)據(jù)分配給它在訓練階段學到的一個類別。
在支持向量機算法中,創(chuàng)建了一個超平面,用于劃分類別。當支持向量機算法處理一個新的數(shù)據(jù)點,并根據(jù)它出現(xiàn)在哪一邊,它將被分類到一個類。
在與交易相關時,可以建立支持向量機算法,將股票數(shù)據(jù)分為有利的買入類、賣出類和中性類,然后根據(jù)規(guī)則對測試數(shù)據(jù)進行分類。
決策樹基本上是一個類似于樹的支持工具,可以用來表示因果關系。由于一個原因可能具有多種效果,我們將它們列出來(就像有分支的樹一樣)。
我們可以通過組織輸入數(shù)據(jù)和預測變量,并根據(jù)我們將指定的一些標準來構建決策樹。
構建決策樹的主要步驟是:
決策樹的缺點是,由于其固有的設計結構,它們?nèi)菀走^度擬合。
設計了一種隨機森林算法來解決決策樹的一些局限性。
隨機森林由決策樹組成,決策樹是表示決策過程或統(tǒng)計概率的決策圖。這些多個樹被映射到一個單一的樹,這是所謂的分類和回歸(CART)模型。
為了根據(jù)對象的屬性對其進行分類,每棵樹都給出了一個分類,即對該類進行“投票”。然后森林以最多的票數(shù)選擇分類。對于回歸,它考慮了不同樹的輸出的平均值。
隨機森林的工作方式如下:
在我們扮演上帝視角的過程中,人工神經(jīng)網(wǎng)絡是我們最偉大的成就之一。我們已經(jīng)創(chuàng)建了多個相互連接的節(jié)點,如圖所示,它模仿了我們大腦中的神經(jīng)元。簡單地說,每個神經(jīng)元通過另一個神經(jīng)元接收信息,對其進行工作,并將其轉(zhuǎn)移到另一個神經(jīng)元作為輸出。
每個圓形節(jié)點代表一個人工神經(jīng)元,箭頭代表從一個神經(jīng)元的輸出到另一個神經(jīng)元的輸入的連接。
如果我們使用神經(jīng)網(wǎng)絡來發(fā)現(xiàn)不同資產(chǎn)類別之間的相互依賴關系,而不是試圖預測買入或賣出的選擇,那么神經(jīng)網(wǎng)絡可能會更有用。
在這種機器學習算法中,目標是根據(jù)數(shù)據(jù)點的相似性進行標記。因此,我們沒有在算法之前定義這些聚類,而是在算法前進時找到這些聚類。
一個簡單的例子是,我們會根據(jù)足球運動員的數(shù)據(jù),使用 K平均算法,并根據(jù)他們的相似性給他們貼上標簽。因此,這些集群可以基于前鋒偏好得分的任意球或成功鏟球,即使算法沒有給予預先定義的標簽開始。
對于那些認為不同資產(chǎn)之間可能存在表面上看不到的相似之處的交易員來說,K平均算法是有利的。
現(xiàn)在,如果你們還記得基本概率,你們就會知道貝葉斯定理,是以這樣一種方式表述的,我們假設我們已經(jīng)事先知道,任何與前一事件相關的事件。
例如,為了檢查你到辦公室遲到的可能性,人們想知道你在路上是否遇到交通堵塞。
然而,樸素貝葉斯分類器算法假設兩個事件是相互獨立的,因此,這在很大程度上簡化了計算。這最初只是一個學術練習,樸素貝葉斯已經(jīng)表明,它在現(xiàn)實世界中也能非常好的工作。
樸素貝葉斯算法可以在不需要完整數(shù)據(jù)的情況下找到不同參數(shù)之間的簡單關系。
你知道 Siri,谷歌助理在他們的程序中使用 RNN 嗎?神經(jīng)網(wǎng)絡本質(zhì)上是一種神經(jīng)網(wǎng)絡,它在每個節(jié)點上都有一個記憶體,這使得順序數(shù)據(jù)的處理變得容易,也就是說,一個數(shù)據(jù)單元依賴于前一個數(shù)據(jù)單元。
一種解釋 RNN 優(yōu)于普通神經(jīng)網(wǎng)絡的方法是,我們應該逐個字符地處理單詞。如果單詞是“交易”,一個正常的神經(jīng)網(wǎng)絡節(jié)點會在移動到“ d”時忘記字符“ t”,而遞歸神經(jīng)網(wǎng)絡會記住這個字符,因為它有自己的記憶。
Preqin(一家位于倫敦的私人投資數(shù)據(jù)公司)的一項研究顯示,已知有1360只定量基金在交易過程中使用計算機模型,占所有基金的9% 。如果一個人的機器學習策略在測試階段能夠賺錢,公司就會為其組織現(xiàn)金獎勵,事實上,公司會投資自己的錢,并在實時交易階段獲得獎勵。因此,為了在競爭中領先一步,每個人,無論是數(shù)十億美元的對沖基金還是個人交易,都在努力理解并在交易策略中實施機器學習。