python短期预测图_Python中利用长短期记忆模型LSTM进行时间序列预测分析
原文鏈接:http://tecdat.cn/?p=6663
此示例中,神經(jīng)網(wǎng)絡(luò)用于使用2011年4月至2013年2月期間的數(shù)據(jù)預(yù)測都柏林市議會(huì)公民辦公室的能源消耗。
每日數(shù)據(jù)是通過總計(jì)每天提供的15分鐘間隔的消耗量來創(chuàng)建的。
LSTM簡介
LSTM(或長期短期存儲(chǔ)器網(wǎng)絡(luò))允許分析具有長期依賴性的順序或有序數(shù)據(jù)。當(dāng)涉及到這項(xiàng)任務(wù)時(shí),傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)不足,在這方面,LSTM將用于預(yù)測這種情況下的電力消耗模式。
與ARIMA等模型相比,LSTM的一個(gè)特殊優(yōu)勢是數(shù)據(jù)不一定需要是固定的(常數(shù)均值,方差和自相關(guān)),以便LSTM對其進(jìn)行分析 - 即使這樣做可能會(huì)導(dǎo)致性能提升。
自相關(guān)圖,Dickey-Fuller測試和對數(shù)變換
為了確定我們的模型中是否存在平穩(wěn)性:生成自相關(guān)和部分自相關(guān)圖
進(jìn)行Dickey-Fuller測試
對時(shí)間序列進(jìn)行對數(shù)變換,并再次運(yùn)行上述兩個(gè)過程,以確定平穩(wěn)性的變化(如果有的話)
首先,這是時(shí)間序列圖:
據(jù)觀察,波動(dòng)性(或消費(fèi)從一天到下一天的變化)非常高。在這方面,對數(shù)變換可以用于嘗試稍微平滑該數(shù)據(jù)。在此之前,生成ACF和PACF圖,并進(jìn)行Dickey-Fuller測試。
自相關(guān)圖
部分自相關(guān)圖
自相關(guān)和部分自相關(guān)圖都表現(xiàn)出顯著的波動(dòng)性,這意味著時(shí)間序列中的幾個(gè)區(qū)間存在相關(guān)性。
運(yùn)行Dickey-Fuller測試時(shí),會(huì)產(chǎn)生以下結(jié)果:
當(dāng)p值高于0.05時(shí),不能拒絕非平穩(wěn)性的零假設(shè)。
STD1
954.7248
4043.4302
0.23611754
變異系數(shù)(或平均值除以標(biāo)準(zhǔn)差)為0.236,表明該系列具有顯著的波動(dòng)性。
現(xiàn)在,數(shù)據(jù)被轉(zhuǎn)換為對數(shù)格式。
雖然時(shí)間序列仍然不穩(wěn)定,但當(dāng)以對數(shù)格式表示時(shí),偏差的大小略有下降:
此外,變異系數(shù)已顯著下降至0.0319,這意味著與平均值相關(guān)的趨勢的可變性顯著低于先前。
STD2 = np.std(數(shù)據(jù)集)
mean2 = np.mean(數(shù)據(jù)集)
cv2 = std2 / mean2 #Cafficient of Variationstd2
0.26462445mean2
8.272395cv2
0.031988855
同樣,在對數(shù)數(shù)據(jù)上生成ACF和PACF圖,并再次進(jìn)行Dickey-Fuller測試。
自相關(guān)圖
偏自相關(guān)圖
Dickey-Fuller測試
... print('\ t%s:%。3f'%(key,value))
1%:-3.440
5%: - ?2.866
10%: - ?2.569
Dickey-Fuller檢驗(yàn)的p值降至0.0576。雖然這在技術(shù)上沒有輸入拒絕零假設(shè)所需的5%顯著性閾值,但對數(shù)時(shí)間序列已顯示基于CV度量的較低波動(dòng)率,因此該時(shí)間序列用于LSTM的預(yù)測目的。
LSTM的時(shí)間序列分析
現(xiàn)在,LSTM模型本身用于預(yù)測目的。
數(shù)據(jù)處理
首先,導(dǎo)入相關(guān)庫并執(zhí)行數(shù)據(jù)處理
LSTM生成和預(yù)測
模型訓(xùn)練超過100個(gè)時(shí)期,并生成預(yù)測。
#生成LSTM網(wǎng)絡(luò)
model = Sequential()
model.add(LSTM(4,input_shape =(1,previous)))
model.fit(X_train,Y_train,epochs = 100,batch_size = 1,verbose = 2)
#生成預(yù)測
trainpred = model.predict(X_train)
#將預(yù)測轉(zhuǎn)換回正常值
trainpred = scaler.inverse_transform(trainpred)
#calculate RMSE
trainScore = math.sqrt(mean_squared_error(Y_train [0],trainpred [:,0]))
#訓(xùn)練預(yù)測
trainpredPlot = np.empty_like(dataset)
#測試預(yù)測
#繪制所有預(yù)測
inversetransform,= plt.plot(scaler.inverse_transform(dataset))
準(zhǔn)確性
該模型顯示訓(xùn)練數(shù)據(jù)集的均方根誤差為0.24,測試數(shù)據(jù)集的均方根誤差為0.23。平均千瓦消耗量(以對數(shù)格式表示)為8.27,這意味著0.23的誤差小于平均消耗量的3%。
以下是預(yù)測消費(fèi)與實(shí)際消費(fèi)量的關(guān)系圖:
有趣的是,當(dāng)在原始數(shù)據(jù)上生成預(yù)測(未轉(zhuǎn)換為對數(shù)格式)時(shí),會(huì)產(chǎn)生以下訓(xùn)練和測試錯(cuò)誤:
在每天平均消耗4043千瓦的情況下,測試分?jǐn)?shù)的均方誤差占總?cè)站牧康慕?0%,并且與對數(shù)數(shù)據(jù)產(chǎn)生的相比非常高。
也就是說,重要的是要記住,使用1天的先前數(shù)據(jù)進(jìn)行預(yù)測,即Y表示時(shí)間t的消耗,而X表示時(shí)間t-1的消耗,由代碼中的前一個(gè)變量設(shè)置先前。讓我們來看看這增加到個(gè)究竟10和50天。
10天
#
50天
我們可以看到測試誤差在10天和50天期間顯著降低,并且考慮到LSTM模型在預(yù)測時(shí)考慮了更多的歷史數(shù)據(jù),消耗的波動(dòng)性得到了更好的捕獲。
鑒于數(shù)據(jù)是對數(shù)格式,現(xiàn)在可以通過獲得數(shù)據(jù)的指數(shù)來獲得預(yù)測的真實(shí)值。
例如,testpred變量用(1,-1)重新整形:
testpred.reshape(1,-1)
array([[7.7722197,8.277015,8.458941,8.455311,8.447589,8.445035,
......
8.425287,8.404881,8.457063,8.423954,7.98714,7.9003944,
8.240862,8.41654,8.423854,8.437414,8.397851,7.9047146]],
dtype = float32)
結(jié)論
對于這個(gè)例子,LSTM被證明在預(yù)測電力消耗波動(dòng)方面非常準(zhǔn)確。此外,以對數(shù)格式表示時(shí)間序列允許平滑數(shù)據(jù)的波動(dòng)性并提高LSTM的預(yù)測準(zhǔn)確度。
參考文獻(xiàn)
1.在python中使用lstm和pytorch進(jìn)行時(shí)間序列預(yù)測
2.python中利用長短期記憶模型lstm進(jìn)行時(shí)間序列預(yù)測分析
3.使用r語言進(jìn)行時(shí)間序列(arima,指數(shù)平滑)分析
4.r語言多元copula-garch-模型時(shí)間序列預(yù)測
5.r語言copulas和金融時(shí)間序列案例
6.使用r語言隨機(jī)波動(dòng)模型sv處理時(shí)間序列中的隨機(jī)波動(dòng)
7.r語言時(shí)間序列tar閾值自回歸模型
8.r語言k-shape時(shí)間序列聚類方法對股票價(jià)格時(shí)間序列聚類
9.python3用arima模型進(jìn)行時(shí)間序列預(yù)測
總結(jié)
以上是生活随笔為你收集整理的python短期预测图_Python中利用长短期记忆模型LSTM进行时间序列预测分析的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: python不等式编程_python-指
- 下一篇: pmp思维导图 第六版_《每天一小时,两