999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于CNN-LSTM-Attention組合模型對我國貨運量時序預(yù)測對比

2024-12-31 00:00:00燕學(xué)博曹世鑫
物流科技 2024年14期

摘 要:為了進一步提高我國貨運量的預(yù)測準確性,文章基于卷積神經(jīng)網(wǎng)絡(luò)和長短期記憶網(wǎng)絡(luò)模型,引入注意力機制(Attention Mechanism)的組合預(yù)測模型,以對我國貨運量進行時序預(yù)測。首先,利用卷積神經(jīng)網(wǎng)絡(luò)提取貨運量數(shù)據(jù)變化特征。其次,將所提取的特征構(gòu)成時間序列作為長短期記憶網(wǎng)絡(luò)的輸入。最后,通過注意力集中捕捉預(yù)測模型中經(jīng)LSTM層輸出的信息特征,劃分權(quán)重比例,提取關(guān)鍵信息,實現(xiàn)貨運量預(yù)測。結(jié)合全國月度貨運量歷史數(shù)據(jù)進行時序預(yù)測,然后與其他神經(jīng)網(wǎng)絡(luò)預(yù)測的各種評價指標進行對比,結(jié)果顯示,CNN-LSTM-Attention模型預(yù)測誤差小于其他模型,預(yù)測準確性相對較好。

關(guān)鍵詞:貨運量;預(yù)測;CNN;LSTM;注意力機制

中圖分類號:F259.22 文獻標志碼:A DOI:10.13714/j.cnki.1002-3100.2024.14.002

文章編號:1002-3100(2024)14-0005-05

Comparison of Time-Series Prediction of Freight Transportation Volume in China Based on CNN-LSTM-Attention Combination Model

YAN Xuebo1,CAO Shixin2 (1. School of Management, Fujian University of Technology, Fuzhou 350118, China; 2. School of Transportation, Fujian University of Technology, Fuzhou 350118, China)

Abstract: In order to further improve the prediction accuracy of China's high freight volume, this paper introduces a combined prediction model of Attention Mechanism based on convolutional neural network and long and short-term memory network model to forecast China's freight volume in time series. First of all, the convolutional neural network is used to extract the features of the freight volume data changes, and then the extracted features are used to constitute a time series as the input of the long and short-term memory network, and finally, the attention is focused on capturing the features of the information output from the LSTM layer in the prediction model, dividing the weight ratio, extracting the key information, and realizing the prediction of the freight volume. Combined with the national monthly freight volume historical data for time series prediction, and then compared with other neural network prediction of various evaluation indexes, the results show that the CNN-LSTM-Attention model prediction error is smaller than other models, and the prediction accuracy is relatively good.

Key words: freight volume; prediction; CNN; LSTM; attention mechanism

0 引 言

近年來,我國的貨物運輸總量持續(xù)增長,但增速整體上呈現(xiàn)出逐漸減緩的趨勢,這主要是因為我們的貨運量預(yù)測不夠準確和合理,導(dǎo)致了資源的浪費[1]。貨運量的準確預(yù)測對運輸行業(yè)的發(fā)展至關(guān)重要,它不僅揭示了未來貨運量的趨勢,還為行業(yè)的長遠規(guī)劃提供了基礎(chǔ)數(shù)據(jù),通過合理的預(yù)測,不僅可以及時識別貨運行業(yè)的發(fā)展瓶頸和潛在問題,還能為相關(guān)部門提供決策支持和建設(shè)性建議,確保運輸系統(tǒng)的持續(xù)優(yōu)化和完善[2]。因此,精準地預(yù)測貨運量對規(guī)劃貨運線路、調(diào)整運輸結(jié)構(gòu)以及優(yōu)化貨運資源配置具有重要意義。

如今,主流研究聚焦貨運量與經(jīng)濟增長之間的相互關(guān)系[3],從而為 GDP和產(chǎn)業(yè)結(jié)構(gòu)的優(yōu)化提供量化依據(jù)。目前在貨運量預(yù)測領(lǐng)域,研究方法可以分為基于回歸模型預(yù)測、灰色預(yù)測模型、基于深度學(xué)習(xí)的預(yù)測方法,以及組合預(yù)測模型預(yù)測方法。

如薛方等[4]利用回歸模型預(yù)測公路貨運量,嚴雪晴[5]利用灰色預(yù)測模型預(yù)測,張麗莉等[6]采用BP神經(jīng)網(wǎng)絡(luò),根據(jù)其產(chǎn)生的誤差曲線對模型進行迭代優(yōu)化的方法,該模型具有較好的預(yù)測精度。程肇蘭等[7]根據(jù)不同時間粒度下數(shù)據(jù)資料的易獲取程度,構(gòu)建基于月貨運量的長短期神經(jīng)網(wǎng)絡(luò)(LSTM)模型,對鐵路貨運量的預(yù)測結(jié)果表明,LSTM模型比自回歸移動平均模型(ARIMA)和BP神經(jīng)網(wǎng)絡(luò)預(yù)測效果更好。但在時間序列過長時,LSTM容易丟失時序的信息,使預(yù)測精確度降低。孟建軍等[8]對比發(fā)現(xiàn)組合預(yù)測模型將不同的預(yù)測方法進行有機結(jié)合,在結(jié)合過程中彌補單一模型的缺陷,對最優(yōu)的組合方式進行修正,以彌補模型的劣勢,從而建立綜合預(yù)測能力和分析能力。唐龍[9]通過將卷積神經(jīng)網(wǎng)絡(luò)(CNN)的關(guān)聯(lián)特征提取能力和LSTM 的時序特征提取能力進行有機結(jié)合,其組合模型預(yù)測效果優(yōu)于LSTM單一模型,但CNN只能提取時間序列的局部信息,無法對全部信息進行提取,從而影響了模型的精確度。注意力機制有效補足了CNN只能捕捉局部信息的短板,使得模型能夠在整個序列上實現(xiàn)全局的信息整合,并增強了對時間序列關(guān)鍵轉(zhuǎn)折點的敏感性。

因此本文在CNN-LSTM的基礎(chǔ)上引入注意力機制,建立CNN-LSTM-Attention貨運量預(yù)測模型,將具有提取數(shù)據(jù)特征能力的CNN和處理時間序列表現(xiàn)優(yōu)異的LSTM結(jié)合,以此用注意力機制分配概率權(quán)重補足CNN只能捕捉局部信息的短板,并驗證該模型的預(yù)測準確性。

1 研究方法

1.1 卷積神經(jīng)網(wǎng)絡(luò)模型

卷積神經(jīng)網(wǎng)絡(luò)(CNN)是深度學(xué)習(xí)中的一種強大的網(wǎng)絡(luò)結(jié)構(gòu),主要用于圖像和視頻識別、語音識別以及自然語言處理等領(lǐng)域。CNN的核心優(yōu)勢在于其能夠通過卷積層和池化層有效提取輸入數(shù)據(jù)的特征。在卷積層中,網(wǎng)絡(luò)通過應(yīng)用一系列的卷積操作來提取數(shù)據(jù)的局部特征,而池化層則用于減少特征的維度,從而降低計算復(fù)雜度并提取最主要的特征。在貨運量預(yù)測的應(yīng)用中,CNN可以通過其卷積層處理歷史貨運量數(shù)據(jù)。這些層通過濾波器自動檢測數(shù)據(jù)中的關(guān)鍵特征,如周期性變化、長期趨勢、季節(jié)性因素,以及可能的異常值。這些特征對理解貨運量的歷史行為和未來趨勢至關(guān)重要。

傳統(tǒng)的特征提取模型依賴于手工選取特征,這個過程不僅耗時而且充滿不確定性。相比之下,CNN通過其特有的卷積層和池化層能夠自動執(zhí)行特征提取和降維,有效減少手工處理的負擔(dān),并且更加有效地從貨運量中識別關(guān)鍵特征[10]。因此,本文先采用CNN對歸一化后的數(shù)據(jù)進行特征提取,然后通過LSTM網(wǎng)絡(luò)進行分析預(yù)測。CNN神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

1.2 LSTM網(wǎng)絡(luò)

長短期記憶網(wǎng)絡(luò)(LSTM)是對傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的重要改進,專門設(shè)計來解決RNN在處理長序列數(shù)據(jù)時面臨的挑戰(zhàn)。LSTM的核心特點是其內(nèi)部的“門”結(jié)構(gòu),包括輸入門、遺忘門和輸出門,這些門控制著信息的流入、保留和流出。通過這種獨特的機制,LSTM能夠有效避免梯度消失問題。梯度消失問題是在RNN中,隨著序列的增長,用于訓(xùn)練網(wǎng)絡(luò)的梯度可能會變得非常小(梯度消失)或異常大(梯度爆炸),從而阻礙了網(wǎng)絡(luò)從長序列中學(xué)習(xí)有效信息。這使得在需要捕捉長期依賴關(guān)系的預(yù)測任務(wù)中,LSTM 和類似的改進型RNN變體成為更優(yōu)的選擇[11]。

LSTM的關(guān)鍵是它的單元結(jié)構(gòu),每個單元包含四個主要部分:一個細胞狀態(tài)和三個“門”——遺忘門、輸入門和輸出門[12]。LSTM模型內(nèi)部單元結(jié)構(gòu)如圖2所示。

遺忘門的作用是通過一個sigmoid激活函數(shù)來確定哪些信息需要從細胞狀態(tài)中保留,哪些需要被遺忘。具體而言,遺忘門接收上一時刻的隱藏狀態(tài)(記憶細胞的一部分)和當前時刻的輸入,輸出一個介于0和1之間的值,表示對應(yīng)位置的信息保留的程度。0表示完全遺忘,1表示完全保留。

遺忘門的數(shù)學(xué)表達式如下。

(1)

其中:為遺忘門;表示Sigmoid函數(shù);和分別為遺忘門權(quán)重和偏置系數(shù);為t-1時刻單元輸出;為t時刻信息輸入。

輸入門是LSTM中的一個關(guān)鍵組件,其主要作用是控制新信息的輸入,即決定更新細胞狀態(tài)的哪些部分。輸入門允許網(wǎng)絡(luò)選擇性地更新細胞狀態(tài),以適應(yīng)當前輸入的信息。

輸入門的數(shù)學(xué)表達式如下。

(2)

(3)

(4)

其中:為輸入門,決定了多少新的候選值會被加入到細胞狀態(tài);是當前時間步的新候選值,它可能被添加到細胞狀態(tài)中;是當前時間步的細胞狀態(tài);是候選值的權(quán)重矩陣;是候選值的偏置項;是輸入門的權(quán)重矩陣;是輸入門的偏置項;是雙曲正切激活函數(shù),它將任意實值壓縮到區(qū)間[-1,1]。

輸出門是LSTM中的另一個關(guān)鍵組件,其主要作用是決定當前時刻隱藏狀態(tài)中的哪些信息將被輸出到網(wǎng)絡(luò)的下一層或用于最終的預(yù)測。輸出門通過一個sigmoid激活函數(shù)來控制隱藏狀態(tài)的哪些部分將被激活。

輸出門的數(shù)學(xué)表達式如下。

(5)

(6)

其中:是輸出門的輸出;是輸出門的權(quán)重矩陣;是輸出門的偏置項。

1.3 Attention注意力機制

注意力機制使模型能夠?qū)W⒂谳斎胄蛄兄械奶囟ú糠郑蕴岣咛幚砗皖A(yù)測的性能。它的靈感來自人類的視覺注意力機制,即人類視覺在觀察時并不會平等地關(guān)注整個視野,根據(jù)任務(wù)的需要集中注意力于視野中的某些部分。特別是在序列處理任務(wù)中,如自然語言處理和時間序列分析,注意力機制可以幫助模型在處理一個長序列時識別出最相關(guān)的信息。在LSTM網(wǎng)絡(luò)后添加注意力機制,可用于捕捉預(yù)測模型中經(jīng)LSTM層輸出的信息特征,劃分權(quán)重比例,提取關(guān)鍵信息,提高貨運量預(yù)測模型精度[13]。LSTM的隱藏層輸出被用作注意力機制的輸入,這些輸出首先通過一個全連接層,其參數(shù)是通過訓(xùn)練學(xué)習(xí)到的,以捕捉不同時間步的特征。隨后,這些全連接層的輸出經(jīng)過softmax函數(shù)進行歸一化處理,產(chǎn)生一組權(quán)重,這些權(quán)重揭示了各個時間步隱狀態(tài)對最終預(yù)測的相對重要性。通過這樣的機制,模型能夠在預(yù)測時賦予更多的注意力給那些關(guān)鍵的時間步,從而提高整體預(yù)測的準確度和效率。這個動態(tài)權(quán)重分配過程是自適應(yīng)的,確保了模型能夠在復(fù)雜的序列數(shù)據(jù)中識別并專注于最具信息量的部分。

注意力機制計算過程如下。

(7)

(8)

(9)

其中:是通過對注意力分數(shù)應(yīng)用softmax函數(shù)獲得的權(quán)重;為最后一層LSTM隱藏層的輸出,為每個隱藏層輸出的得分;加權(quán)平均求和后的值;是偏置項。

2 模型建立與實證分析

2.1 構(gòu)建 CNN-LSTM-Attention模型

第一步是通過一維卷積層對輸入數(shù)據(jù)進行處理。這個卷積層的作用是從原始時間序列數(shù)據(jù)中提取重要的特征,如周期性變化、趨勢以及可能的異常點。這一步是至關(guān)重要的,因為它為LSTM層提供了經(jīng)過預(yù)處理和精煉的輸入數(shù)據(jù)。接著,處理后的數(shù)據(jù)被送入LSTM層。LSTM是專門設(shè)計來處理時間序列數(shù)據(jù)的,它能夠捕捉數(shù)據(jù)中長期的依賴性和復(fù)雜的時間動態(tài)。此外,引入了dropout機制,這有助于防止過擬合,確保模型在面對新的、未見過的數(shù)據(jù)時仍然能夠表現(xiàn)良好。之后,在模型中加入了注意力機制。注意力層的作用是對LSTM層的輸出進行加權(quán),使模型能夠?qū)W⒂谛蛄兄凶铌P(guān)鍵的部分。這種加權(quán)處理使得模型在分析和預(yù)測時更加精準,因為它能夠區(qū)分哪些信息是對最終預(yù)測最為重要的。之后,經(jīng)過注意力處理的數(shù)據(jù)被送入一個全連接層,這個層次將信息聚合并映射到一個中間表示空間。通過ReLU激活函數(shù)的應(yīng)用,模型能夠增強捕捉非線性關(guān)系的能力,進一步增強了預(yù)測的準確性。在最后的數(shù)據(jù)處理階段,模型引入了另一個dropout層以增強其泛化能力,隨后第二個全連接層將處理過的特征映射到預(yù)測輸出空間。最后,另一個全連接層將處理后的信息映射到預(yù)測輸出空間。這一層的作用是將模型的所有學(xué)習(xí)成果轉(zhuǎn)化為具體的預(yù)測值,為最終的決策提供支持。CNN-LSTM-Attention預(yù)測模型結(jié)構(gòu)如圖3所示。

2.2 樣本處理

本文以中國貨運量為實驗背景,以實際月度數(shù)據(jù)為依據(jù)構(gòu)建CNN-LSTM-Attention貨運量預(yù)測模型,進行貨運量預(yù)測研究。實驗數(shù)據(jù)均取自國家統(tǒng)計局官網(wǎng),數(shù)據(jù)樣本示例如圖4所示,選取2005年1月—2023年 9月的貨運量月度數(shù)據(jù)共 225組,以2005年1月—2019年12月的貨運量作為訓(xùn)練數(shù)據(jù),以2020年1月—2023年9月的貨運量作為測試數(shù)據(jù)。所有模型均使用Python進行編寫,模型的訓(xùn)練在Pytorch框架下進行。

2.3 模型評價指標

本文采用以下四種在時間序列預(yù)測的常見指標,通過指標判斷模型預(yù)測效果,指標如下。

絕對平均誤差(MAE):。 (10)

相對平均誤差(MSE):。 (11)

均方根誤差(RMSE):。 (12)

平均絕對百分比誤差(MAPE):。 (13)

其中:ytrue表示測試集,即實際值;ypre表示通過模型預(yù)測出的值;n為測試集的樣本數(shù)。MAE、MSE、RMSE、MAPE數(shù)值越小,表示模型預(yù)測準確度越高。

2.4 參數(shù)設(shè)置

為了驗證CNN-LSTM-Attention的預(yù)測效果,分別使用卷積神經(jīng)網(wǎng)絡(luò)——長短時記憶網(wǎng)絡(luò)CNN-LSTM、長短時記憶LSTM網(wǎng)絡(luò)在相同時間節(jié)點數(shù)據(jù)下進行預(yù)測,進而對比分析。CNN-LSTM-Attention預(yù)測模型通過歷史數(shù)據(jù)點創(chuàng)建時間步長為3的時間序列,通過該序列用于訓(xùn)練和測試模型。在這個模型中,CNN層使用單輸入通道,擁有128個卷積核,每個卷積核的大小為3。LSTM層設(shè)定了128個隱藏狀態(tài)的維度和4個堆疊的隱藏層,以增強模型處理序列數(shù)據(jù)的能力。此外,模型還包含了一個自定義的注意力機制,旨在提升對序列中重要特征的關(guān)注。最后,模型通過兩個全連接層進行輸出,第一個全連接層將128維的特征映射到64維,第二個全連接層進一步將其映射為最終的2維輸出。整個模型的訓(xùn)練過程采用均方誤差(MSE)作為損失函數(shù),使用Adam優(yōu)化器,初始學(xué)習(xí)率設(shè)定為0.001,并通過學(xué)習(xí)率調(diào)度器在訓(xùn)練過程中進行調(diào)整。

2.5 實驗結(jié)果

將LSTM模型、CNN-LSTM模型和CNN-LSTM-Attention模型給出的預(yù)測值與實際值對比,其結(jié)果如圖5(a、b、c)所示。并運用MAE、RMSE、MSE、MAPE四種評價指標來衡量預(yù)測效果。

CNN-LSTM模型的訓(xùn)練數(shù)據(jù)顯示了在學(xué)習(xí)階段與實際值的良好擬合,然而在未來值的預(yù)測上,尤其是在圖5b的右端部分,我們看到預(yù)測值顯示了一定的波動,這暗示了模型在新數(shù)據(jù)上的不確定性。與此相比,當Attention機制被引入到CNN-LSTM模型中時,預(yù)測值的精度有了顯著提高。CNN-LSTM-Attention模型的預(yù)測曲線更緊密地跟隨了測試數(shù)據(jù),即使在數(shù)據(jù)波動較大的區(qū)域,也能保持較高的預(yù)測精確度,展現(xiàn)出優(yōu)越的泛化能力。另一方面,單獨的LSTM模型雖然在訓(xùn)練階段與真實數(shù)據(jù)有較好的擬合,但其預(yù)測曲線與測試數(shù)據(jù)相比,差異增大,特別是在預(yù)測未來值時,表明它可能不如結(jié)合了Attention機制的模型那樣處理新數(shù)據(jù)的能力。總體來看Attention機制在增強模型預(yù)測時間序列數(shù)據(jù)時的有效性,尤其是在處理可能出現(xiàn)的復(fù)雜模式和波動時,為CNN-LSTM模型提供了顯著的性能提升。

3種預(yù)測模型的評價結(jié)果如表1所示。四種預(yù)測模型經(jīng)評估后,結(jié)果顯示,本研究構(gòu)建的CNN-LSTM-Attention模型在各項性能指標上均優(yōu)于其他模型。具體而言,該模型在平均絕對誤差(MAE)上為0.107 5,相較于LSTM和CNN-LSTM模型,分別下降了13.38%和11.01%。在均方誤差(MSE)指標上,該模型減少至0.025 8,較其他兩種模型降低了24.78%和18.10%。均方根誤差(RMSE)為0.160 8,較LSTM和CNN-LSTM模型分別下降了13.39%和9.46%。平均絕對百分比誤差(MAPE)為0.182 9,較其他兩種模型降低了8.18%和8.04%。由此可見,基于Attention機制改進的CNN-LSTM模型,預(yù)測誤差最小,預(yù)測效果相對較好,更適合用于貨運量預(yù)測任務(wù)。

通過對比卷積神經(jīng)網(wǎng)絡(luò)-長短期記憶網(wǎng)絡(luò)(CNN-LSTM)、長短期記憶網(wǎng)絡(luò)(LSTM)以及卷積神經(jīng)網(wǎng)絡(luò)-長短期記憶網(wǎng)絡(luò)結(jié)合注意力機制(CNN-LSTM-Attention)三種模型在預(yù)測貨運量任務(wù)中的表現(xiàn)。實驗結(jié)果顯示:第一,綜合使用卷積神經(jīng)網(wǎng)絡(luò)、長短期記憶網(wǎng)絡(luò)和注意力機制在處理復(fù)雜時間序列預(yù)測問題上具有顯著優(yōu)勢,CNN-LSTM-Attention模型在預(yù)測中國貨運量方面,其綜合性能優(yōu)于LSTM、CNN-LSTM。第二,本研究證實了CNN在提取時間序列數(shù)據(jù)的空間特征方面的高效性,LSTM則在捕捉時間依賴性方面表現(xiàn)卓越,結(jié)合注意力機制,該模型能夠識別對結(jié)果影響最大時段的預(yù)測準確性。第三,該模型在處理高波動性和非線性特征的時間序列數(shù)據(jù)方面顯示出較強的魯棒性。這意味著它能夠有效應(yīng)對突發(fā)事件或不規(guī)則趨勢帶來的預(yù)測的不確定性問題,為貨運領(lǐng)域的決策提供了可靠的數(shù)據(jù)支持。

3 結(jié)論與建議

結(jié)合實驗結(jié)果,本文給出建議:將CNN-LSTM-Attention模型應(yīng)用于物流、供應(yīng)鏈管理、交通規(guī)劃等其他需要處理時間序列數(shù)據(jù)的領(lǐng)域。其在處理類似復(fù)雜時間序列的問題上可能同樣有效。

參考文獻:

[1] 李紅娟,盧天哲,祝漢燦.全國貨運量預(yù)測與貨運結(jié)構(gòu)分析[J].統(tǒng)計與決策,2022,38(18):179-183.

[2] 徐玉萍,鄧俊翔,蔣澤華.基于組合預(yù)測模型的鐵路貨運量預(yù)測研究[J].鐵道科學(xué)與工程學(xué)報,2021,18(1):243-249.

[3] 李文杰,袁肖峰,楊勝發(fā),等.基于投入產(chǎn)出模型的省際間貨運量模擬研究[J].鐵道科學(xué)與工程學(xué)報,2020,17(5):1302-1309.

[4] 薛方,蘇芮鋒,楊升,等.基于回歸分析的公路貨運量預(yù)測[J].汽車實用技術(shù),2019(15):65-69.

[5] 嚴雪晴.基于灰色預(yù)測模型的廣東省貨運總量預(yù)測研究[J].數(shù)學(xué)的實踐與認識,2020,50(14):294-302.

[6] 張麗莉.基于神經(jīng)網(wǎng)絡(luò)的公路貨運量預(yù)測方法研究[J].華中師范大學(xué)學(xué)報(自然科學(xué)版),2015,49(2):186-189.

[7] 程肇蘭,張小強,梁越.基于LSTM網(wǎng)絡(luò)的鐵路貨運量預(yù)測[J].鐵道學(xué)報,2020,42(11):15-21.

[8] 孟建軍,陳鵬芳,李德倉,等.鐵路貨運量預(yù)測研究綜述[J].鐵道標準設(shè)計,2022,66(10):18-26.

[9] 唐龍.基于深度學(xué)習(xí)的鐵路貨運量預(yù)測研究[D].成都:西南交通大學(xué),2024.

[10] 曹玉貴,謝夢醒.基于WD-CNN-LSTM模型的股票價格預(yù)測分析[J].華北水利水電大學(xué)學(xué)報(社會科學(xué)版),2023,

39(5):15-22.

[11] 張冠東,楊琛.基于多維長短時記憶網(wǎng)絡(luò)的貨運量預(yù)測[J].統(tǒng)計與決策, 2022,38(12):180-183.

[12] 路志遠,潘佩芬,白雪嬌,等.鐵路基礎(chǔ)設(shè)施位移數(shù)據(jù)預(yù)測模型研究[J].鐵路計算機應(yīng)用, 2022,31(3):12-18.

[13] 曹梅,楊超宇.基于小波的CNN-LSTM-Attention瓦斯預(yù)測模型研究[J].中國安全生產(chǎn)科學(xué)技術(shù),2023,19(9):69-75.

收稿日期:2023-12-20

基金項目:數(shù)字經(jīng)濟賦能福建省鄉(xiāng)村振興研究(GY-Z23160)

作者簡介:燕學(xué)博(1980—),男,湖北十堰人,福建理工大學(xué)管理學(xué)院,副教授、高級工程師,博士,研究方向:電子信息、大數(shù)據(jù);曹世鑫(1999—),本文通信作者,男,福建南平人,福建理工大學(xué)交通運輸學(xué)院碩士研究生,研究方向:數(shù)據(jù)挖掘、供應(yīng)鏈管理。

引文格式:燕學(xué)博,曹世鑫.基于CNN-LSTM-Attention組合模型對我國貨運量時序預(yù)測對比[J].物流科技,2024,47(14):5-9.

主站蜘蛛池模板: 香蕉视频国产精品人| 无码免费的亚洲视频| 欧美va亚洲va香蕉在线| 欧美精品在线视频观看| 999精品视频在线| 国产精品无码久久久久久| 久热这里只有精品6| 亚洲综合久久一本伊一区| 亚洲男人的天堂久久香蕉网| 亚洲无码高清免费视频亚洲| 免费国产好深啊好涨好硬视频| 久久国产精品影院| 免费毛片a| 国产综合网站| 国产成人91精品免费网址在线| 亚洲无码精品在线播放| 亚洲天堂网视频| 精品国产黑色丝袜高跟鞋| www.亚洲一区| 欧美全免费aaaaaa特黄在线| 一本久道久久综合多人| 亚洲欧美另类日本| 午夜精品区| 国产综合在线观看视频| www.狠狠| 一级毛片免费观看不卡视频| 国产极品美女在线播放| 日韩亚洲高清一区二区| 久久久精品无码一二三区| 极品尤物av美乳在线观看| swag国产精品| 国产一级毛片在线| 天堂岛国av无码免费无禁网站| 精品无码一区二区三区在线视频| 亚洲二三区| 亚洲成人网在线播放| 亚洲天堂免费| 久草国产在线观看| a级毛片免费看| 日韩国产高清无码| 手机精品福利在线观看| 国产精品欧美在线观看| 亚洲综合日韩精品| 久久综合五月| 亚洲手机在线| 亚洲AV无码不卡无码| 91成人在线观看| 欧美第二区| 亚洲成人网在线观看| 成人国产精品视频频| 天天操天天噜| 日韩无码黄色网站| 日本精品视频一区二区| 538国产在线| 亚洲乱码在线视频| 亚洲人在线| 国产在线98福利播放视频免费| 思思热在线视频精品| 高清无码不卡视频| 国产精品一区二区在线播放| 日韩精品一区二区三区大桥未久| 日本a∨在线观看| 国产亚卅精品无码| 最新国产高清在线| 亚洲日韩在线满18点击进入| 日本黄网在线观看| 天天色天天操综合网| 欧美成人在线免费| 亚洲成人高清在线观看| 欧亚日韩Av| 国产成人乱无码视频| 十八禁美女裸体网站| 久久熟女AV| 国产成人毛片| 中文字幕资源站| 日韩性网站| 欧美人与性动交a欧美精品| 久久精品亚洲中文字幕乱码| 中文纯内无码H| 精品一区二区三区波多野结衣| 熟女日韩精品2区| 亚洲欧美日韩综合二区三区|