Hi 游客

更多精彩,请登录!

比特池塘 区块链技术 正文

利用LSTM框架实时预测比特币价格

Cherry95
1131 0 0

" S2 j* G4 k* ?比特币的价格数据是基于时间序列的,因此比特币的价格预测大多采用LSTM模型来实现。
  P0 |7 ^. s0 g4 \# ~长期短期记忆(LSTM)是一种特别适用于时间序列数据(或具有时间 / 空间 / 结构顺序的数据,例如电影、句子等)的深度学习模型,是预测加密货币的价格走向的理想模型。
9 l; D! Y! h% e' n" N本文主要写了通过LSTM进行数据拟合,从而预测比特币的未来价格。
! r8 U" `$ V8 g* t3 e7 aimport需要使用的库
* F; _2 ?+ v% ^+ z/ R. Aimport pandas as pd1 n8 z8 b3 {, C. k/ {( t
import numpy as np' B/ j& ~- |: ?5 u
from sklearn.preprocessing import MinMaxScaler, LabelEncoder
, u& g4 Q) o  j4 Mfrom keras.models import Sequential5 J9 T# Y' y$ J" A- h# W2 G
from keras.layers import LSTM, Dense, Dropout6 @+ ]1 u1 |5 o. y" v
from matplotlib import pyplot as plt; X' M* [- M- [; m1 \
%matplotlib inline
$ b! l/ @" y4 h( p( N# ]数据分析
, _- g& _  `' C/ X5 ?3 @! x5 }数据加载: ^, b) i8 Q/ `- C! w) C1 J
读取BTC的日交易数据
  p. R8 d9 G/ @) p4 F9 Fdata = pd.read_csv(filepath_or_buffer="btc_data_day")9 T, Y+ y1 T3 w8 \/ r: R1 D
查看数据可得,现在的数据一共有1380条,数据由Date、Open、High、Low、Close、Volume(BTC)、Volume(Currency)、Weighted Price这几列组成。其中除去Date列以外,其余的数据列都是float64数据类型。1 Z- q2 s$ |- a
data.info()
9 [$ l* N( E& B0 w8 C查看下前10行的数据1 E; r& e( r( q( Y8 {/ O% N, E6 D
data.head(10), f) e/ C) u( K. C; C  W0 ^0 R. i
5 B" O9 }' C9 f0 _1 k
数据可视化6 G, V5 p, N' K5 \$ H0 R5 i% F2 V
使用matplotlib将Weighted Price绘制出来,看下数据的分布跟走势。在图中我们发现了有一段数据0的部分,我们需要确认下数据是否有异常。3 M6 u. A: w8 R/ R: J
plt.plot(data['Weighted Price'], label='Price')( r$ U1 W- i# J$ d6 _( t5 \
plt.ylabel('Price')
  n  _  k* u8 jplt.legend()
- e$ N6 v( M4 o0 k4 t( o' wplt.show()* Y0 T* @, _, h8 K& y5 S
  b8 D$ ^+ J* O% [7 G
异常数据处理
7 J* R% X8 s2 X- Q: a& y先查看下数据是否含有nan的数据,可以看到我们的数据中没有nan的数据" M1 Y% y" A6 t" F9 K) s7 H
data.isnull().sum()1 [, m5 Z  N: J
Date                 0
1 `. h& L# D4 e+ T5 U2 A& k% x) ~Open                 0$ f. b: n7 D$ u
High                 04 x- a) F" w8 p, D
Low                  07 k1 y& t; Q) V. ]# V' Z
Close                0
4 k; I% j2 k1 k4 hVolume (BTC)         0
% S$ t- e, n9 h7 tVolume (Currency)    0
7 R. y  D8 d6 `5 C) z  vWeighted Price       0: A6 c# A( ~4 ]3 K# V' T- ~. {1 w
dtype: int64
1 |" V( o  f& R( G( j# t6 C再查看下0数据,可以看到我们的数据中含有0值,我们需要对0值做下处理
, ?' X0 a; H/ C! x" P- U: a(data == 0).astype(int).any()! C% v1 M# M, C1 C$ @8 E7 V' a- ?
Date                 False' B9 _3 R( X, [* F" x
Open                  True
$ }  k7 i5 u6 m8 ~- J$ k' _! nHigh                  True
1 u4 ^1 C1 B" w1 ?Low                   True! i8 j4 Q! |6 R, [5 C
Close                 True8 S% g  q% g$ ]
Volume (BTC)          True, W7 P. y% P+ f, E2 H  F/ G
Volume (Currency)     True* j# N! N3 ]5 u+ D8 n' I# ?/ F
Weighted Price        True
+ R1 w% m: C% y: U, X1 z8 |dtype: bool
$ r! c6 x* s" s- f8 e: mdata['Weighted Price'].replace(0, np.nan, inplace=True)
7 M" [1 r& V9 T0 v( y/ F7 A2 @0 vdata['Weighted Price'].fillna(method='ffill', inplace=True); U+ N# K& z' y/ O# o; W3 t
data['Open'].replace(0, np.nan, inplace=True)* W* T- J" a% x: D# I7 B
data['Open'].fillna(method='ffill', inplace=True)* u$ e$ A: ?; H* {# l+ g2 g9 i, R
data['High'].replace(0, np.nan, inplace=True)
8 e1 v& u0 c. S: D: t% t3 Y3 D$ sdata['High'].fillna(method='ffill', inplace=True)  |; x) G# }* W, L2 i* K9 _
data['Low'].replace(0, np.nan, inplace=True), H7 t9 F2 t  q4 y
data['Low'].fillna(method='ffill', inplace=True)  \, L7 Q3 {$ b+ J) T, ]
data['Close'].replace(0, np.nan, inplace=True): s8 m+ O7 e0 S3 ]; b
data['Close'].fillna(method='ffill', inplace=True)
# ~- k8 M! a! }, D% \. G, L# ]data['Volume (BTC)'].replace(0, np.nan, inplace=True); V7 _2 J9 C- Z+ G
data['Volume (BTC)'].fillna(method='ffill', inplace=True)* e9 Q' h; I, N6 n8 d. |* Q
data['Volume (Currency)'].replace(0, np.nan, inplace=True)! L! v, u6 O1 N7 x; I- N
data['Volume (Currency)'].fillna(method='ffill', inplace=True): g: Y' @3 {& t5 c. k
(data == 0).astype(int).any()
3 L( `3 e8 X. Q2 T5 ^- s9 C5 ZDate                 False  j; @( d2 D* G4 u! {5 f/ U: E
Open                 False- Y! ~3 I8 G. s8 Z; q* e4 U
High                 False% B( g4 I; v1 t# ]
Low                  False
) a6 ?* C& V, O7 i# bClose                False
! w) Q$ t( ], f, f; yVolume (BTC)         False
; u! W2 P. M$ g. ]$ N3 k6 HVolume (Currency)    False  O; C# u' k1 M6 ]" X$ [4 @
Weighted Price       False
" Y% E2 @# Y$ ]/ Adtype: bool/ R; \2 Y1 {- @6 c2 m+ n2 K8 J! ^6 J
再看下数据的分布跟走势,这个时候曲线已经非常的连续" t& r3 J1 S4 L
plt.plot(data['Weighted Price'], label='Price')0 G7 |. @, g, d) o  d! b  t1 J. f
plt.ylabel('Price')5 d3 R& E- _- l) o  o5 O
plt.legend()- ^1 O5 s" F% M: ]( P( R3 U4 R
plt.show()
6 J) e% _! d2 f: {9 T7 P- R5 m$ q/ i
- ^8 s& ~" L. I' {训练数据集和测试数据集划分  ~- T& _8 ?: `' ]& h  O
将数据归一化到0-1
* a" n4 T; |+ _. e# ~data_set = data.drop('Date', axis=1).values7 e( j$ L6 X' F0 ]. j
data_set = data_set.astype('float32')$ t8 I, C# s5 S+ n9 H6 s( U
mms = MinMaxScaler(feature_range=(0, 1))/ a* G( c9 f# Y  K
data_set = mms.fit_transform(data_set)
/ D. O9 C. z) ^+ _; s8 D+ i以2:8划分测试数据集跟训练数据集
" m) D6 q" Y6 z  Tratio = 0.8
  u) S, D) N+ e0 p, strain_size = int(len(data_set) * ratio)
; P0 ~9 ~3 k+ K) a% ^test_size = len(data_set) - train_size
3 G8 {  y& g# C0 R3 v5 E( n7 F5 etrain, test = data_set[0:train_size,:], data_set[train_size:len(data_set),:]
. ^" Q- Q. J* R/ a创建训练数据集跟测试数据集,以1天作为窗口期来创建我们的训练数据集跟测试数据集。
  w8 C2 X0 L6 V. N/ ^( bdef create_dataset(data):) {* i* c: I) V% h% l, N
    window = 1
$ Z, Z* h7 J) K+ N1 ?0 d    label_index = 60 d4 X& \4 v: B$ p+ Y
    x, y = [], []) x2 n0 z$ u& s/ h. J0 K+ S
    for i in range(len(data) - window):* x; y: i0 F& n7 I, B/ G2 L
        x.append(data[i:(i + window), :])1 ^& Z5 u! V; G  J8 f' H
        y.append(data[i + window, label_index])
  t* d2 m- o' {) _3 J( Y    return np.array(x), np.array(y); F1 B* t' }( c+ ~
train_x, train_y = create_dataset(train)- X' u* f9 A# k! t
test_x, test_y = create_dataset(test)
1 l9 s% d' S; |0 j  U定义模型并训练) J7 ~! R$ _* J; W/ T  v6 q9 z
这次我们使用一个简单的模型,这个模型结构如下1. LSTM2. Dense。( E% |( t5 G* I
这里需要对LSTM的inputh shape做下说明, Input Shape的输入维度为(batch_size, time steps, features)。其中,time steps值的是数据输入的时候的时间窗口间隔,这里我们使用1天作为时间窗口,并且我们的数据都是日数据,因此这里我们的time steps为1。! p! h% ^8 R5 H
长短期记忆(Long short-term memory, LSTM)是一种特殊的RNN,主要是为了解决长序列训练过程中的梯度消失和梯度爆炸问题,这里先简单介绍下LSTM。
  L0 V/ f& a- ^$ l2 c8 P% \: w: o% c; |
从LSTM的网络结构示意图中,可以看到LSTM其实是一个小型的模型,他包含了3个sigmoid激活函数,2个tanh激活函数,3个乘法,1个加法。0 q* h, r* d8 ^9 s; P
细胞状态
, _! D4 }4 V5 |细胞状态是LSTM的核心,他是上图中最上面的那根黑线, 在这根黑线下面是一些门,我们在后面介绍。细胞状态会根据每个门的结果,来得到更新。下面我们介绍下这些门,你就会理解细胞状态的流程。
5 p2 P* x, ]8 x6 v3 s0 t  b  C" KLSTM网络能通过一种被称为门的结构对细胞状态进行删除或者添加信息。门能够有选择性的决定让哪些信息通过。门的结构是一个sigmoid层和一个点乘操作的组合。因为sigmoid层的输出是0-1的值,0表示都不能通过,1表示都能通过。一个LSTM里面包含三个门来控制细胞状态。下面我们来一一介绍下这些门。
  }# Q: o6 k& ~8 F$ p) J# l3 e7 `遗忘门
+ `5 |  u4 t3 ?, cLSTM的第一步就是决定细胞状态需要丢弃哪些信息。这部分操作是通过一个称为忘记门的sigmoid单元来处理的。我们来看下动画示意图,- ]6 R8 f* C+ B& M

. L, j7 d, O6 J9 _, w) D我们可以看到,遗忘门通过查看$h_{l-1}$和$x_{t}$信息来输出一个0-1之间的向量,该向量里面的0-1值表示细胞状态$C_{t-1}$中的哪些信息保留或丢弃多少。0表示不保留,1表示都保留。$ `* L: B4 @4 F2 K" R
数学表达式: $f_{t}=\sigma\left(W_{f} \cdot\left[h_{t-1}, x_{t}\right]+b_{f}\right)$
- i" `8 g: r4 ~2 t& D输入门8 ?& P9 t; n6 A+ M
下一步是决定给细胞状态添加哪些新的信息,这个步骤是通过输入门开完成的。我们先来看下动画示意图,$ y& K+ T1 n0 D0 D. Z

9 m+ C. n; K' v' n- I& J1 w" a我们看到了$h_{l-1}$和$x_{t}$的信息又被放入了一个遗忘门(sigmoid)跟输入门(tanh)中。因为遗忘门的输出结果是0-1的值,因此,如果遗忘门输出的是0的话,输入门后的结果$C_{i}$将不会被添加到当前的细胞状态中,如果是1,会全部的被添加到细胞状态中,因此这里的遗忘门的作用是将输入门的结果选择性的添加到细胞状态中。& L. Z2 O# g4 }* `8 z+ p" {/ u
数学公式为: $C_{t}=f_{t} * C_{t-1}+i_{t} * \tilde{C}_{t}$
+ a4 z8 z) M$ b! F4 d3 |; I输出门& ~0 o* l3 q# v, K- [
更新完细胞状态后需要根据$h_{l-1}$和$x_{t}$输入的和来判断输出细胞的哪些状态特征,这里需要将输入经过一个称为输出门的sigmoid层得到判断条件,然后将细胞状态经过tanh层得到一个-1~1之间值的向量,该向量与输出门得到的判断条件相乘就得到了最终该RNN单元的输出, 动画示意图如下
, B0 q' h8 Z+ k; P" N! W% h, M5 y* a& h# j
def create_model():5 v" ?! N9 h& f
    model = Sequential()9 \6 Y& z4 ]  Y
    model.add(LSTM(50, input_shape=(train_x.shape[1], train_x.shape[2])))6 P( q. ]. l. S# f
    model.add(Dense(1)): Y8 t; a! B' y( Z% I9 z
    model.compile(loss='mae', optimizer='adam')
' B$ d2 C. b' v+ Z. y$ @6 V0 n3 \4 J    model.summary()
  W8 c3 \) m6 J8 h$ _# t8 n, _* b    return model
) ^! L, Y3 H4 e0 I6 C0 V6 {model = create_model()
# I) ?- C1 q. I; y' o+ J! s) [8 L8 A. M) Q
history = model.fit(train_x, train_y, epochs=80, batch_size=64, validation_data=(test_x, test_y), verbose=1, shuffle=False)8 I1 p4 P, G3 U* B
plt.plot(history.history['loss'], label='train')) x5 v& C- _4 P; z' |3 Z
plt.plot(history.history['val_loss'], label='test')' A" v, I0 `$ S- u6 `
plt.legend()% n* n* g& F& ^* V9 _7 g
plt.show()
4 s3 A0 n( C7 d1 E
* p7 v7 F" n6 |4 a7 Ktrain_x, train_y = create_dataset(train)
$ z! x; v' B, z6 X$ y# ftest_x, test_y = create_dataset(test)7 I: ?2 g% q. u, |, W6 d) R
预测9 X3 I, p( K6 w* L
predict = model.predict(test_x)
% V( s; a8 x+ J3 S9 ]% d$ T0 yplt.plot(predict, label='predict')2 @" ^. S/ C( h& z7 {. u
plt.plot(test_y, label='ground true')9 ]: _# I& z/ a; f) e
plt.legend()  _9 E% W$ H- H5 D3 f" L
plt.show()
1 S7 C6 x2 I/ ]( q" @% }
7 V9 C& ~+ }  P. Z- Z当前利用机器学习预测比特币长期价格走势还是非常困难的,本文只能作为学习案例使用。该案例之后会上线与矩池云的Demo镜像之中,感兴趣的用户可以直接体验。
BitMere.com 比特池塘系信息发布平台,比特池塘仅提供信息存储空间服务。
声明:该文观点仅代表作者本人,本文不代表比特池塘立场,且不构成建议,请谨慎对待。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

成为第一个吐槽的人

Cherry95 小学生
  • 粉丝

    0

  • 关注

    0

  • 主题

    2