0


时间序列预测股票数据—以LSTM模型为例

一、对时间序列的理解:

  1. 时间序列是按照一定时间间隔排列的数据,时间间隔可以是任意时间单位,通过对时间序列的分析,我们可以探寻到其中的现象以及变化规律,并将这些信息用于预测。这就需要一系列的模型,用于将原始时间序列数据放进模型中进行训练,并用训练好的时间序列模型来预测未知的时间序列。

提供的数据:

  1. “中国平安”2016-2018年股票数据,背景为平安保险集团。数据预览如下:

通过预览数据,可知此次实验的数据属性为date(日期)、open(开盘价)、high(最高价)、low(最低价)、close(收盘价)以及volume(成交量)

  1. 其中,我们要实现股票预测,需要着重对close(收盘价)一列进行探索性分析。

二、使用LSTM进行时序预测

  1. 模型介绍:
  2. 包括遗忘门、输入门、输出门。LSTM将这些卡口作为去除或者增加细胞状态的工具。门是一种让信息选择式通过的方法,他们包含一个sigmoid神经网络层和一个按位的乘法操作。
  3. 其中,每一个sigmoid会输出01之间的数值,描述每个部分有多少量可以通过。0表示不允许任何量通过,1表示允许任意量通过。
  4. LSTM通过三个门,保护和控制细胞状态。

建模思路(包括数据处理、模型分块、建模、模型优化、检验等)

(1)数据处理:

  1. 导入数据,提取数据集的date日期和close收盘价两列,作为建模预测的对象。
  2. 模型分块,设置测试集规模以及滑块大小,现将数据归一化处理,转化为tensor可以识别的数据,再将原数据设定为滑块为1,每调用1批次的数据,将其添加到列表,从而实现二维数据转三维数据,再切分训练集、测试集。
  3. 建模步骤(依据上述思路进行建模,详细描述过程)
  4. 定义网络层:LSTM层(神经元个数:16,激活函数:relu)
  5. 全连接层(神经元个数:1,激活函数:relu,正则化:l2范数)
  6. 模型实例化并装配网络(优化器:采用自适应梯度优化算法Adam,学习率设定为0.1,损失函数采用交叉熵函数,评价指标采用准确率)
  7. 训练模型,设定训练批次为50,每批次样本量为100.
  1. #使用LSTM进行预测
  2. import tensorflow as tf
  3. from tensorflow.keras import datasets, layers, optimizers, Sequential, metrics
  4. from tensorflow.keras.layers import Input,Dropout,Dense,LSTM
  5. from tensorflow.keras.models import Model
  6. from tensorflow.keras import regularizers
  7. import tensorflow.keras as keras
  8. np.random.seed(100)
  9. # 选取随机种子个数100个
  1. # 设置神经网络参数
  2. # 提取收盘价
  3. y=stock['close']
  4. print(y)
  5. # 数据预处理
  6. test_ratio=0.4
  7. windows=1
  8. # 设置滑块大小
  9. # 定义测试集规模
  10. # # 通过比例切分
  11. # 测试集大小
  12. from sklearn.preprocessing import MinMaxScaler
  13. data_lsvm=y.values
  14. scaler=MinMaxScaler(feature_range=(0, 1))
  15. data_lsvm=scaler.fit_transform(data_lsvm.reshape(-1,1))
  16. print(data_lsvm)
  1. cut=round(test_ratio* data_lsvm.shape[0])
  2. print(data_lsvm.shape[0])
  3. print('切分:',cut)
  4. train,test=data_lsvm[:data_lsvm.shape[0]-cut,:],data_lsvm[data_lsvm.shape[0]-cut:,:]
  5. amount_of_features=data_lsvm.shape[1]
  6. lstm_input=[]
  7. data_temp=data_lsvm
  8. for i in range(len(data_temp)-windows):
  9. lstm_input.append(data_lsvm[i:i+windows,:])
  10. lstm_input=np.array(lstm_input)
  11. lstm_output=y[:-windows]
  12. lstm_output=np.array(lstm_output)
  13. x_train,y_train,x_test,y_test=lstm_input[:data_lsvm.shape[0]-cut,:],lstm_output[:data_lsvm.shape[0]-cut],lstm_input[data_lsvm.shape[0]-cut:,:],lstm_output[data_lsvm.shape[0]-cut:]
  14. print(x_train.shape,y_train.shape,x_test.shape,y_test.shape)
  15. x_train
  1. mn_units=16
  2. dropout=0.01
  3. # # 定义网络全连接层
  4. #
  5. def lstm_model():
  6. inputs=Input(shape=(windows,amount_of_features))
  7. # lstm层
  8. rnn = LSTM(units=mn_units, activation='relu',return_sequences=False)(inputs)
  9. dense=Dropout(dropout)(rnn)
  10. # dense1=Dense(16,activation='sigmoid',kernel_regularizer=regularizers.l2(0.1))(dense)
  11. # dense2=Dense(8,activation='relu',kernel_regularizer=regularizers.l2(0.1))(dense)
  12. outputs=Dense(1,activation='relu',kernel_regularizer=regularizers.l2(0.5))(dense)
  13. model=Model(inputs=inputs,outputs=outputs)
  14. model.compile(optimizer=keras.optimizers.Adam(0.1),loss=tf.losses.BinaryCrossentropy(),metrics=['accuracy'])
  15. model.summary()
  16. return model
  17. #
  18. batch_size=100
  19. #
  20. epoch=50
  21. # 训练网络
  22. mymodel=lstm_model()
  23. history = mymodel.fit(x_train,y_train,batch_size=batch_size,epochs=epoch)
  24. y_train_predict=mymodel.predict(x_test)

  1. fig= plt.figure(figsize=(8, 5))
  2. plt.plot(history.history['loss'])
  3. plt.title('model loss')
  4. plt.ylabel('loss')
  5. plt.xlabel('epoch')
  6. plt.show()

(3)预测结果(数据、拟合图等)

评估结果:

随着训练次数增多,loss值逐渐减小。

将预测后的数据进行评估,并将预测结果反归一化,如图:

  1. # print(mymodel.metrics_names)
  2. loss,acc=mymodel.evaluate(x_test,y_test)
  3. print('评估结果',loss,acc)
  4. y_train_predict=mymodel.predict(x_train)#预测结果
  5. y_test_predict=mymodel.predict(x_test)#预测结果
  6. print('预测结果',y_train_predict,y_test_predict)
  7. print(y_test_predict.shape)

  1. #反归一化
  2. trainPredict=scaler.inverse_transform(y_train_predict)
  3. testPredict = scaler.inverse_transform(y_test_predict)
  4. data_lsvmx=scaler.inverse_transform(data_lsvm)
  5. # y_test = scaler.inverse_transform(y_test)
  6. print(len(trainPredict),len(testPredict))
  7. data_lsvmx

反归一化后的结果:

  1. # 预测结果
  2. testPredict=pd.DataFrame(testPredict)
  3. close_new=testPredict
  4. close_new.columns=['new_close']
  5. stock_new=stock.iloc[:-windows,:]
  6. # 训练集预测结果
  7. trainPredict=pd.DataFrame(trainPredict)
  8. train_date=stock_new[:data_lsvm.shape[0]-cut].loc[:,['date']]
  9. new_date_train=train_date.reset_index()
  10. new_date_train=new_date_train.drop('index',axis=1)
  11. print(new_date_train)
  12. new_date=stock_new[data_lsvm.shape[0]-cut:].loc[:,['date']]
  13. new_date=new_date.reset_index()
  14. new_date=new_date.drop('index',axis=1)
  15. # date=pd.concat([new_date_train,new_date],axis=0)
  16. new_predict=pd.concat([new_date,close_new],axis=1)

新的预测结果:

作图:

  1. # 构建通过训练集进行预测的图表数据
  2. predict_train_plot = np.empty_like(data_lsvm)
  3. predict_train_plot[:, :] = np.nan
  4. predict_train_plot[:data_lsvm.shape[0]-cut, :] = trainPredict
  5. # 构建通过测试集进行预测的图表数据
  6. predict_test_plot = np.empty_like(data_lsvm)
  7. predict_test_plot[:, :] = np.nan
  8. predict_test_plot[data_lsvmx.shape[0]-cut+1:, :] = testPredict
  9. # 原数据
  10. data_plot = np.empty_like(data_lsvmx)
  11. data_plot[:, :] = np.nan
  12. data_plot[:, :] = data_lsvmx
  13. # # 构建通过原数据进行拟合的图表数据
  14. date=stock.loc[:,['date']]
  15. type(date["date"])

最后绘制预测图:

  1. fig2 = plt.figure(figsize=(10, 5))
  2. dataset = scaler.inverse_transform(data_lsvm)
  3. plt.plot(date["date"],predict_train_plot, color='green')
  4. plt.plot(date["date"],predict_test_plot, color='red')
  5. plt.plot(date["date"],data_plot, color='blue')
  6. plt.xticks(range(0,730,80))
  7. plt.show()

  1. 通过构建训练集进行预测的图表数据和通过测试集进行预测的图表数据,以及原数据的图表数据。
  2. 由图可知,该模型预测的价格走势和原数据走势大体吻合。
标签: lstm 人工智能 rnn

本文转载自: https://blog.csdn.net/m0_52051577/article/details/130587681
版权归原作者 那个叫马尔的大夫 所有, 如有侵权,请联系我们删除。

“时间序列预测股票数据—以LSTM模型为例”的评论:

还没有评论