中華財經行情分析離別RNN迎來TCN股市猜測任務是時間擁抱新-【zixun】
中華財經行情分析離別RNN迎來TCN股市猜測任務是時間擁抱新
股市預測 中華財經行情分析離別RNN迎來TCN股市猜測任務是時間擁抱新 2020-10-08 663 0 由于金融時間序列具有非平穩、非線性、高噪聲的特點,中華財經行情因此傳統的統計模型很難準確地預測它們。近年來,越來越多的研究開始嘗試將深度學習應用于股市預測,雖然還遠遠不夠完善。例如: Lin 等人在論文《An SVM-based approach for stock market trend prediction》中提出一種基于支持向量機的股票預測方法,建立兩部分特征選擇和預測模型,并證明該方法比傳統方法具有更好的泛化能力?! ?(9500.163.com) 在論文《Stock closing price prediction based on sentiment analysis and LSTM》中,Jin 等人在模型分析中增加了投資者的情感傾向,并引入經驗模態分解(EMD)與 LSTM 相結合,以獲得更準確的股票預測?;谧⒁饬C制的 LSTM 模型在語音和圖像識別中很常見,但在金融領域卻很少使用?! ∷麄兪紫葟呢斀浶侣勚刑崛〗Y構化事件,并利用知識圖譜獲取事件嵌入。然后,將事件嵌入和股票價格結合起來預測股票走勢。實驗表明,該方法對股市趨勢突變情況具有更快的反應能力,在股票數據集上的性能優于 SOTA 方法(本文將重點介紹這一方法)?! ?020 年,Jiayu 等人和 Thomas 等人提出一類混合注意力網絡,可基于近期新聞預測股票趨勢。具有注意機制的 LSTM 優于常規 LSTM,因為其獨特的存儲單元結構避免了長期依賴性?! ongyan 等人在論文《Temporal Convolutional Attention-based Network For Sequence Modeling》中提出一種探索性網絡結構:基于時間卷積注意力的網絡(TCAN)。該網絡結合了時間卷積網絡和注意力機制,包括兩個部分:一個是時間注意力(TA),用來捕獲序列中的相關特征;另一個是增強殘差(ER),用來提取淺層的重要信息并遷移到深層?! ⌒枰⒁獾氖牵篎TS 預測領域的學術出版物可能具有誤導性。由于大量使用模擬器,許多 FTS 預測論文往往會夸大其性能。這些論文中聲稱的許多性能難以復現,因為它們無法泛化至所預測的特定 FTS 的未來變化?! 〗鹑跁r間序列數據(尤其是股票價格)會隨著季節、噪聲和自動校正而不斷波動。傳統的預測方法使用移動平均和差分來減少預測的噪聲。然而,FTS 通常是不穩定的,并且有用信號和噪聲之間存在重疊,這使得傳統的去噪方法無效?! ⌒〔ǚ治鲈趫D像和信號處理等領域取得了令人矚目的成就。它能夠彌補傅里葉分析的缺點,因此被逐漸引入經濟和金融領域。小波變換在解決傳統時間序列分析問題方面具有獨特優勢,因為它可以分解和重構來自不同時域和頻域范圍的金融時間序列數據?! ⌒〔ㄗ儞Q本質上利用多尺度特征對數據集進行去噪,從而將有用信號與噪聲高效地分離開來。Jiayu Qiu 等人將 coif3 小波函數用于三個分解層,并通過信噪比(SNR)和均方根誤差(RMSE)來評估小波變換的效果。SNR 越高,RMSE 越小,小波變換的去噪效果越好:來源: 固定原點方法是最樸素也最常用的方法。給出特定的分割大小,將數據前面一部分分割為訓練集,后面的部分分割為驗證集。但這是一種較為初級的選擇方法,對于像亞馬遜這樣的高增長股票而言尤其如此。之所以會出現這種情況,是因為亞馬遜的股價一開始波動性較低,隨著股價的增長,股價波動越來越大。亞馬遜今年股票價格(圖源:Google Finance) 因此,我們需要訓練一個低波動率動態模型,并期望它能預測高波動率動態。對于上述類型的股票而言,這確實有一定困難,并且還要以性能作為代價。因此,如果僅考慮這一點,以驗證損失和性能作為基準可能存在一定的誤導性。但是,對于像英特爾這樣波動性較為穩定的股票(COVID 危機前),這種方法是合理的?! ∽詈?,滾動窗口方法通常是最有用的方法之一,因為它尤其適用于長時間運行的 FTS 算法。實際上,該模型輸出多個滾動數據窗口的平均驗證誤差。而這意味著最終獲得的值更能代表最近的模型性能。數據 shuffle 技術可視化(圖源:) Thomas Hollis 等人的研究表明,滾動窗口(RW)和滾動原點重校(ROR)的性能(58%和 60%)都比簡單的固定原點方法好。這表明對于像亞馬遜這樣的高波動率股票,使用這些數據 shuffle 方法是不可避免的。數據 shuffle 方法性能比較 時間卷積網絡(TCN),是用于序列建模任務的卷積神經網絡的變體,結合了 RNN 和 CNN 架構。對 TCN 的初步評估表明,簡單的卷積結構在多個任務和數據集上的性能優于典型循環網絡(如 LSTM),同時表現出更長的有效記憶?! ?。 該架構可以像 RNN 一樣采用任意長度的序列,并將其映射到相同長度的輸出序列。通過結合非常深的網絡(使用殘差層進行增強)和擴張卷積,TCN 具有非常長的有效歷史長度(即網絡能夠看到很久遠的過去,并幫助預測)?! 榱送瓿傻谝稽c,TCN 使用 1D 全卷積網絡(FCN),每個隱藏層的長度與輸入層相同,并用零填充(長度為 kernel size ? 1)來保持后續層與之前層長度相同。為了實現第二點,TCN 使用因果卷積,即卷積中時間 t 處的輸出僅與時間 t 或前一層中的元素進行卷積?! 『唵蔚囊蚬矸e回看的歷史長度只能與網絡深度呈線性關系。這使得將因果卷積應用于序列任務具有一定難度,尤其是需要更長歷史的任務。Bai 等人采用擴張卷積找到了一種解決方案,其感受野呈指數級增大。對于一維序列輸入 x ∈ R^? 和濾波器 f!{0,…,k?1}→R,序列元素 s 的擴張卷積運算 F 可定義為:其中 d 是擴張因子,k 是濾波器大小,中華財經行情s-d·i 代表過去的方向。因此,擴張卷積等效于在每兩個相鄰的濾波器之間引入一個固定的步長。當 d = 1 時,擴張卷積即為常規卷積。而使用較大的擴張因子,可使頂層的輸出表示更大范圍的輸入,從而有效地擴展了 ConvNet 的感受野。擴張因果卷積,擴張因子 d = 1、2、4,濾波器大小 k =3。感受野能夠覆蓋輸入序列中的所有值?! 〔⑿行?。與 RNN 中后繼時間步長的預測必須等待之前時間步完成預測不同,卷積可以并行完成,因為每一層都使用相同的濾波器。因此,在訓練和評估中,TCN 可以處理一整個較長的輸入序列,而不是像 RNN 中那樣順序處理?! §`活的感受野大小。TCN 有多種方式更改其感受野大小。例如,堆疊更多擴張(因果)卷積層,使用更大的擴張因子,或增加濾波器大小都是可行的選擇。因此,TCN 可以更好地控制模型的內存大小,它們也可以