王春景 劉丹 張文康 邵平 余龍舟 周恭強(qiáng)



作者簡介:王春景(1996-),碩士研究生,從事選礦設(shè)備與選礦過程自動化的研究。
通訊作者:劉丹(1983-),副教授,從事選礦工藝與理論、選礦設(shè)備及自動控制的研究,ldysyz1983@126.com。
引用本文:王春景,劉丹,張文康,等.基于LSTM神經(jīng)網(wǎng)絡(luò)的浮選品位預(yù)測模型[J].化工自動化及儀表,2024,51(2): 325-332.
DOI:10.20030/j.cnki.1000-3932.202402023
摘 要 針對目前選礦行業(yè)中浮選環(huán)節(jié)的精礦品位難以實時監(jiān)測的問題,提出基于長短時記憶(LSTM)網(wǎng)絡(luò)的浮選品位預(yù)測模型。利用浮選品位參數(shù)在時序上的相關(guān)性,采用兩層LSTM網(wǎng)絡(luò)提取特征,將浮選過程中的藥劑添加量、充氣速率、礦漿pH值等參數(shù)作為輸入值,對浮選后的精礦品位進(jìn)行實時預(yù)測,并以平均絕對誤差(MAE)、均方根誤差(RMSE)、可決系數(shù)(R2)對預(yù)測結(jié)果進(jìn)行評價。實驗結(jié)果表明:該神經(jīng)網(wǎng)絡(luò)模型的參數(shù)與結(jié)構(gòu)設(shè)置合理,預(yù)測表現(xiàn)良好,MAE為0.080 7、RMSE為0.109、R2達(dá)到了0.678。該模型適用于浮選環(huán)節(jié)的實時精礦品位預(yù)測,后續(xù)可根據(jù)預(yù)測值反饋調(diào)節(jié)浮選過程參數(shù),使得精礦品位趨近期望值,對浮選過程的智能化具有促進(jìn)作用。
關(guān)鍵詞 長短時記憶網(wǎng)絡(luò) 深度學(xué)習(xí) 時間序列 浮選品位預(yù)測
中圖分類號 TP14? ?文獻(xiàn)標(biāo)志碼 A? ?文章編號 1000-3932(2024)02-0325-08
選礦作為連接采礦與冶煉的重要環(huán)節(jié),其主要目的是剔除脈石并富集有用礦物,分選后的精礦品位高、雜質(zhì)少,可以減輕后續(xù)冶煉過程的資源消耗。而品位作為衡量精礦品質(zhì)的一個重要指標(biāo),在選礦過程中備受關(guān)注。長期以來,人們普遍缺乏對精礦品位的實時監(jiān)測能力,在浮選過程中,選礦廠通常采用人工采樣化驗的方法來獲取精礦的品位,但這樣的方式在時間上存在著滯后,難以及時獲取品位信息,使得各類可控變量調(diào)控不及時,進(jìn)而影響精礦的品質(zhì)。
由于浮選過程的復(fù)雜性,傳統(tǒng)的機(jī)理建模方式往往難以準(zhǔn)確描述浮選過程,產(chǎn)生的預(yù)測結(jié)果可靠性不足。隨著機(jī)器學(xué)習(xí)技術(shù)的發(fā)展,基于數(shù)據(jù)驅(qū)動的建模方法日漸成熟,國內(nèi)外學(xué)者提出了一些可行的品位預(yù)測方法。從基礎(chǔ)的最小二乘法,到相對復(fù)雜的支持向量機(jī)、隨機(jī)森林等,人們使用多種傳統(tǒng)機(jī)器學(xué)習(xí)方法對浮選品位進(jìn)行預(yù)測[1~7],通過采集浮選過程中的礦漿pH值、藥劑添加量等參數(shù),建立關(guān)鍵參數(shù)的輸入輸出模型,嘗試對浮選品位進(jìn)行實時軟檢測。之后,隨著以多層神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)的深度學(xué)習(xí)技術(shù)的發(fā)展,一些新型預(yù)測模型被相繼提出,部分模型在天氣、交通預(yù)測等多種領(lǐng)域中表現(xiàn)出了優(yōu)于傳統(tǒng)機(jī)器學(xué)習(xí)模型的預(yù)測效果[8~10]。在選礦的品位預(yù)測領(lǐng)域,相關(guān)領(lǐng)域的研究人員也對一些深度學(xué)習(xí)方法進(jìn)行了探索,文獻(xiàn)[11]開發(fā)了一種專用的深層神經(jīng)網(wǎng)絡(luò)FlotationNet,使用定制架構(gòu)處理輸入變量和輸出品位之間的不同映射關(guān)系,用以預(yù)測浮選品位;文獻(xiàn)[12]為了解決訓(xùn)練數(shù)據(jù)采集困難的問題,使用膠囊網(wǎng)絡(luò)建立模型,其模型只使用了少量數(shù)據(jù)進(jìn)行訓(xùn)練,也得到了相對不錯的預(yù)測結(jié)果。雖然這些嘗試取得了一定的成果,但也存在著預(yù)測效果欠佳、預(yù)測評價指標(biāo)一般、建模訓(xùn)練時間長、難以在生產(chǎn)中實際布署等問題,仍有改進(jìn)空間。
除了基于浮選參數(shù)的品位預(yù)測外,研究人員還在嘗試通過圖像信息對浮選泡沫進(jìn)行分類,并以此推導(dǎo)出最終的浮選品位[13~17]。首先采用一些聚類方法對浮選圖像進(jìn)行分類,并為各個分類人為添加其品位標(biāo)簽,用模型所輸出的幾個標(biāo)簽號對應(yīng)品位級別。但這類方式普遍存在一些問題,不同于使用浮選參數(shù)建立的回歸模型,使用泡沫圖像的分類模型需要在訓(xùn)練前就設(shè)置好分類數(shù)量,并給每一類泡沫形態(tài)打上與其對應(yīng)的品位標(biāo)簽,而泡沫圖像的分類是否正確、需要劃分為多少種類、如何將泡沫分類與精礦品位正確對應(yīng)起來等問題的解決方案尚不完善,導(dǎo)致使用泡沫圖像直接預(yù)測的浮選品位可靠性不高。同時,在浮選車間的實際生產(chǎn)過程中,受光照強(qiáng)度、液面反光等因素的干擾,泡沫圖像無法像實驗室條件中那樣穩(wěn)定,實際采集時會產(chǎn)生大量噪點(diǎn),影響最終的預(yù)測結(jié)果。因此,筆者將使用便于采集的浮選過程參數(shù),使用數(shù)據(jù)驅(qū)動方式構(gòu)建LSTM神經(jīng)網(wǎng)絡(luò)模型,實現(xiàn)精礦品位的軟測量。
1 浮選基本原理
浮選又稱浮游選礦,是根據(jù)物料的表面性質(zhì)差異,通過藥劑和機(jī)械調(diào)節(jié),高效分離出有用礦物和無用礦物的方法。浮選機(jī)的基本結(jié)構(gòu)如圖1所示,主要由浮選槽、葉輪-定子結(jié)構(gòu)、給礦口、精礦槽等部件組成。浮選時,先將礦漿置于浮選槽中,并通過葉輪攪動混勻,之后向礦漿中添加浮選藥劑并開始供氣。由于礦物的可浮性差異,易浮礦物在與氣泡接觸后會漂浮到泡沫層,此時可用刮板將含有精礦的泡沫刮到精礦槽中,尾礦則繼續(xù)進(jìn)入下一流程,如此便完成了一次浮選操作。在這一過程中,藥劑添加量、礦漿pH值、礦漿濃度、充氣速率等參數(shù)都會對浮選品位產(chǎn)生影響,如果可以實時預(yù)測精礦品位,則可以及時調(diào)整這些參數(shù),穩(wěn)定產(chǎn)品的質(zhì)量。
2 品位預(yù)測模型
如圖2所示,品位預(yù)測模型可分為3部分:數(shù)據(jù)集的預(yù)處理、模型訓(xùn)練、預(yù)測結(jié)果的輸出與評價。數(shù)據(jù)集的預(yù)處理部分主要用于輸入向量的篩選與處理,提高數(shù)據(jù)在神經(jīng)網(wǎng)絡(luò)中的訓(xùn)練效率;模型訓(xùn)練部分則需要搭建合適的網(wǎng)絡(luò)架構(gòu),完成浮選過程的建模;輸出與評價部分用于輸出預(yù)測值,并使用有效的評估方法對預(yù)測結(jié)果進(jìn)行評價。
圖2 品位預(yù)測模型結(jié)構(gòu)
2.1 數(shù)據(jù)預(yù)處理
訓(xùn)練所用的數(shù)據(jù)集采集自某鐵選廠的浮選車間,對于浮選液位、充氣速率、礦漿流量、礦漿pH值、礦漿密度等連續(xù)變量,每20 s采集一次;對于給礦品位、精礦品位等需要化驗的參數(shù),則是每15 min收集一次礦樣,但每2 h才進(jìn)行一次品位化驗。通過連續(xù)6個多月的采集,該數(shù)據(jù)集共含有737 453組數(shù)據(jù),每組包含時間刻度在內(nèi)有24類參數(shù),共17 698 872個可訓(xùn)練參數(shù),數(shù)據(jù)集的參數(shù)組成匯總于表1。
在浮選過程中,雖然所采集的這些參數(shù)均會對浮選精礦產(chǎn)生相應(yīng)的影響,但影響的程度有大有小。同時,數(shù)據(jù)的輸入量會影響模型的訓(xùn)練效率,輸入過多的無關(guān)數(shù)據(jù)還會占用大量顯存,提升訓(xùn)練的硬件成本。因此,在進(jìn)行訓(xùn)練前,需要通過相關(guān)性分析,剔除一些與精礦品位相關(guān)性不高的數(shù)據(jù)組。筆者在刪除數(shù)據(jù)集中的缺失值與重復(fù)項后,使用皮爾遜相關(guān)系數(shù)對相關(guān)性進(jìn)行判斷。皮爾遜相關(guān)系數(shù)可用于統(tǒng)計兩個變量之間的相關(guān)程度,計算值分布在-1~1之間,數(shù)值越接近0,表示相關(guān)性越差,反之則表示相關(guān)性越強(qiáng)。其計算式為:
表1 數(shù)據(jù)集的參數(shù)組成
r==(1)
整個數(shù)據(jù)集相關(guān)性的計算結(jié)果如圖3所示,其中,各類參數(shù)與精礦鐵品位的相關(guān)性如圖4所示。統(tǒng)計發(fā)現(xiàn),精礦的鐵品位與參數(shù)N(07浮選機(jī)充氣量)相關(guān)性較低,與參數(shù)F(礦漿pH值)、D(Amina用量)等的相關(guān)性較高,故在模型的輸入中剔除參數(shù)N。此外,因為給礦品位也是后期化驗所得,不應(yīng)加入訓(xùn)練集中,因此參數(shù)A(給礦鐵品位)、B(給礦硅品位)也予以剔除,其余數(shù)據(jù)則保留。
完成數(shù)據(jù)篩選后,還需進(jìn)行標(biāo)準(zhǔn)化處理,統(tǒng)一參數(shù)的數(shù)量級,避免參數(shù)量綱差異影響模型訓(xùn)練,同時提高梯度下降算法求最優(yōu)解的效率,加快模型的訓(xùn)練速度。筆者使用零均值歸一化方法進(jìn)行數(shù)據(jù)處理:
μ=x? ? ?(2)
σ=? ? ?(3)
z= ? ?(4)
其中,N為樣本數(shù)量,x為數(shù)據(jù)值,μ表示均值,σ為標(biāo)準(zhǔn)差,z為標(biāo)準(zhǔn)化的結(jié)果參數(shù)。
2.2 LSTM網(wǎng)絡(luò)框架
2.2.1 LSTM模型概述
長短時記憶網(wǎng)絡(luò)的結(jié)構(gòu)如圖5所示。與傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)相比,LSTM仍然是基于x和h來計算h,但對內(nèi)部結(jié)構(gòu)進(jìn)行了更精細(xì)的設(shè)計,加入了輸入門i、遺忘門f以及輸出門o3個門和1個內(nèi)部記憶單元c。輸入門控制當(dāng)前計算的新狀態(tài)以多大程度更新到記憶單元中;遺忘門控制前一步記憶單元中的信息如何被遺忘;輸出門控制當(dāng)前輸出與記憶單元間的關(guān)系。
圖5 LSTM單元結(jié)構(gòu)
經(jīng)典的LSTM中,第t步的更新計算式為:
i=σ(Wx+Uh+b)
f=σ(Wx+Uh+b)
o=σ(Wx+Uh+b)
=tanh(Wx+Uh)
c=f⊙c+i⊙
h=o⊙tanh(c)
其中,i是通過輸入x和上一步的隱含層輸出h進(jìn)行線性變換,再經(jīng)過激活函數(shù)σ得到的。輸入門i的結(jié)果是向量,其中每個元素是0~1間的實數(shù),用于控制各維度流過閥門的信息量;W、U兩個矩陣和向量b為輸入門的參數(shù),是在訓(xùn)練過程中需要學(xué)習(xí)得到的。遺忘門f和輸出門o的計算方式與輸入門類似,它們有各自的參數(shù)W、U和b。與傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)不同的是,LSTM從上一個記憶單元的狀態(tài)c到當(dāng)前狀態(tài)c的轉(zhuǎn)移不一定完全取決于激活函數(shù)計算得到的狀態(tài),還由輸入門和遺忘門共同控制。
在一個訓(xùn)練好的網(wǎng)絡(luò)中,當(dāng)輸入的序列中沒有重要信息時,LSTM的遺忘門的值接近于1,輸入門的值接近于0,此時過去的記憶會被保存,從而實現(xiàn)了長期記憶功能;當(dāng)輸入的序列中出現(xiàn)了重要信息時,LSTM會將其存入記憶中,此時其輸入門的值會接近于1;當(dāng)輸入的序列中出現(xiàn)了重要信息,且該信息意味著之前的記憶不再重要時,輸入門的值接近1,而遺忘門的值接近于0,這樣舊的記憶被遺忘,新的重要信息被記憶。經(jīng)過這樣的設(shè)計,整個網(wǎng)絡(luò)更容易學(xué)習(xí)到序列之間的長期特征。
2.2.2 模型架構(gòu)
如表2所示,數(shù)據(jù)處理完畢后,將會依次進(jìn)入兩個LSTM層進(jìn)行計算,最后再經(jīng)過一個全連接層以輸出計算值,其中,損失函數(shù)Loss設(shè)為MAE,優(yōu)化器Optimizer設(shè)為Adam,學(xué)習(xí)率Learning rate為0.001,迭代次數(shù)Epoch為100,批處理量Batch size為32。
表2 網(wǎng)絡(luò)結(jié)構(gòu)
2.3 模型評價指標(biāo)
神經(jīng)網(wǎng)絡(luò)模型根據(jù)任務(wù)的目的不同,可分為回歸模型和分類模型,不同于分類模型中常用的正確率指標(biāo),回歸模型更常用平均絕對誤差MAE、均方根誤差RMSE、可決系數(shù)R2等統(tǒng)計指標(biāo)來衡量結(jié)果的好壞。本模型作為時間序列的預(yù)測模型,仍屬于一種回歸模型,故采用MAE、RMSE和R2評價預(yù)測效果,MAE與RMSE越接近0、R2越接近1,則說明模型的預(yù)測效果越好。其計算式為:
MAE=|(y-)|
RMSE=
R=1-
其中,y為真實值,為預(yù)測值,y為真實值的平均值。
3 實驗及分析
3.1 實驗配置
實驗環(huán)境列于表3,處理器為Intel (R)Core(TM)i5-12400,GPU型號為NVIDIA GeForce 3090,顯存為24 GB,預(yù)測模型開發(fā)環(huán)境為Python3.9、Pytorch1.7.0、cuda10.1。
表3 配置和環(huán)境
3.2 層結(jié)構(gòu)對預(yù)測結(jié)果的影響
在時間序列預(yù)測模型中,網(wǎng)絡(luò)的層結(jié)構(gòu)對預(yù)測結(jié)果有著顯著的影響。層數(shù)少時訓(xùn)練速度快,但預(yù)測效果可能不佳;而由于LSTM網(wǎng)絡(luò)為具有時間記憶功能的串行網(wǎng)絡(luò),且難以進(jìn)行并行優(yōu)化,當(dāng)所用層數(shù)過多時又會消耗大量的計算資源,還存在梯度消失的風(fēng)險。
現(xiàn)將在其余參數(shù)不變的情況下,以層數(shù)為區(qū)分分別訓(xùn)練網(wǎng)絡(luò),對比不同層數(shù)下的預(yù)測效果,最終訓(xùn)練結(jié)果見表4,可以看出,3個評價指標(biāo)呈現(xiàn)一致。
表4 網(wǎng)絡(luò)層數(shù)對預(yù)測效果的影響
可決系數(shù)的變化趨勢如圖6所示,可以看出,當(dāng)LSTM網(wǎng)絡(luò)層數(shù)為2時,預(yù)測效果最佳。因為LSTM每一層的特征提取能力都很強(qiáng),兩層結(jié)構(gòu)已經(jīng)足夠提取所需特征,繼續(xù)增加網(wǎng)絡(luò)層數(shù)對預(yù)測結(jié)果并無益處,反而會使特征梯度在傳遞過程中逐漸消失,預(yù)測效果變差。
圖6 網(wǎng)絡(luò)層數(shù)對可決系數(shù)R2的影響
3.3 超參數(shù)的優(yōu)化
在機(jī)器學(xué)習(xí)中,超參數(shù)是指無法通過模型訓(xùn)練得到,而是需要在訓(xùn)練前就進(jìn)行設(shè)置的參數(shù)。訓(xùn)練時,需要對批處理量Batch size、學(xué)習(xí)率Learning rate、損失函數(shù)Loss、優(yōu)化器Optimizer等超參數(shù)進(jìn)行優(yōu)化,以提高預(yù)測模型的準(zhǔn)確性。現(xiàn)將在保持其余變量不變的情況下,逐一調(diào)試常用的超參數(shù),調(diào)試結(jié)果見表5,可以看出,當(dāng)Batch size為32、Learning rate為0.001、Loss為MAE、Optimizer為Adam時,此數(shù)據(jù)集在該硬件平臺的預(yù)測效果最佳。
表5 各組超參數(shù)對預(yù)測效果的影響
3.4 預(yù)測結(jié)果
使用優(yōu)化后的網(wǎng)絡(luò)結(jié)構(gòu)和超參數(shù)再次對數(shù)據(jù)集進(jìn)行模型訓(xùn)練,構(gòu)建品位預(yù)測模型。訓(xùn)練過程的損失值曲線如圖7所示,隨著迭代次數(shù)的增加,測試集的損失值逐漸減小,并開始出現(xiàn)振蕩,直至不再持續(xù)減小時停止訓(xùn)練。
圖7 預(yù)測模型的損失值曲線
使用此模型對驗證集做預(yù)測,其結(jié)果如圖8所示,發(fā)現(xiàn)預(yù)測值可以較好地貼合實際值曲線,預(yù)測結(jié)果的MAE為0.080 7、RMSE為0.109、R2為0.678。
4 結(jié)束語
為了解決浮選環(huán)節(jié)中精礦品位難以實時監(jiān)測的問題,使用浮選過程中的易測參數(shù)進(jìn)行建模,提出基于LSTM的浮選精礦品位預(yù)測模型。LSTM算法可以充分提取浮選過程的參數(shù)特征,提供可靠的預(yù)測結(jié)果。實驗表明,浮選精礦品位與礦漿pH值、藥劑添加量、浮選機(jī)充氣量等參數(shù)在時序上存在相關(guān)性,當(dāng)使用網(wǎng)絡(luò)層數(shù)為2、超參數(shù)Batch size為32、Learning rate為0.001、Loss為MAE、Optimizer為Adam的LSTM模型時預(yù)測效果最佳。
本模型在數(shù)據(jù)集總體的預(yù)測上表現(xiàn)良好,但在部分區(qū)間仍存在預(yù)測結(jié)果波動的情況,對此,后續(xù)研究擬通過改進(jìn)調(diào)參方式、擴(kuò)展數(shù)據(jù)集或更換其他模型的方式進(jìn)行優(yōu)化。
參 考 文 獻(xiàn)
[1] 李啟福,王雅琳,曹泊,等.基于滑窗B樣條偏最小二乘的浮選過程質(zhì)量指標(biāo)軟測量[J].中國科技論文,2012,7(4):294-301.
[2] 雷雨田,王慶凱,王旭.基于動態(tài)隨機(jī)森林算法的銅浮選精礦品位預(yù)測[J].礦冶,2022,31(6):110-113.
[3] 任傳成,楊建國.浮選過程精礦品位軟測量技術(shù)的研究進(jìn)展[J].礦山機(jī)械,2013,41(8):8-12.
[4] 陽春華,任會峰,許燦輝,等.基于稀疏多核最小二乘支持向量機(jī)的浮選關(guān)鍵指標(biāo)軟測量[J].中國有色金屬學(xué)報,2011,21(12):3149-3154.
[5] KHAJEHZADEH N,HAAVISTO O,KORESAAR L.On-stream and quantitative mineral identification of tailing slurries using LIBS technique[J].Minerals Engineering,2016,98:101-109.
[6] KHAJEHZADEH N,HAAVISTO O,KORESAAR L.On-stream mineral identification of tailing slurries of an iron ore concentrator using data fusion of LIBS,reflectance spectroscopy and XRF measurement techniques[J].Minerals Engineering,2017,113:83-94.
[7] WANG Q Y,LI F S,JIANG X Y,et al.On-stream mineral identification of tailing slurries of tungsten via NIR and XRF data fusion measurement techniques[J].Anal Methods,2020,12(25):3296-3307.
[8] TRAN T,LEE T,SHIN J Y,et al.Deep Learning-Based Maximum Temperature Forecasting Assisted with Meta-Learning for Hyperparameter Optimization[J].Atmosphere,2020,11(5):487.
[9] YU Y J,CAO J F,ZHU J F.An LSTM Short-Term Solar Irradiance Forecasting under Complicated Weather Conditions[J].IEEE Access,2018(7):053501.
[10] YUAN J,ABDEL-ATY M,GONG Y,et al.Real-Time Crash Risk Prediction Using Long Short-Term Memory Recurrent Neural Network[J].Transportation Research Record Journal of the Transportation Research Board,2019. DOI:10.1177/0361198119840611.
[11] PU Y,SZMIGIEL A,CHEN J,et al.FlotationNet:A hierarchical deep learning network for froth flotation recovery prediction[J].Powder Technology,2020,375:317-326.
[12] CEN L H,WU Y M,HU J,et al.Application of density-based clustering algorithm and capsule network to performance monitoring of antimony flotation process[J].Minerals Engineering,2022,184:ARTN 107603.
[13] ZHANG J,TANG Z H,LIU J P,et al.Recognition of flotation working conditions through froth image statistical modeling for performance monitoring[J].Minerals Engineering,2016,86:116-129.
[14] WANG X,CHEN S,YANG C,et al.Process working co-ndition recognition based on the fusion of morphological and pixel set features of froth for froth flotation[J].Minerals Engineering,2018,128:17-26.
[15] FU Y,ALDRICH C.Using Convolutional Neural Net -works to Develop State-of-the-Art Flotation Froth Image Sensors[J].IFAC-PapersOnLine,2018,51(21):152-158.
[16] FU Y,ALDRICH C.Froth image analysis by use of tra- nsfer learning and convolutional neural networks[J].Minerals Engineering,2018,115:68-78.
[17] ZARIE M,JAHEDSARAVANI A,MASSINAEI M.Flo-tation froth image classification using convolutional neural networks[J].Minerals Engineering,2020,155:106443.
(收稿日期:2023-06-06,修回日期:2023-06-28)
Flotation Grade Prediction Model Based on LSTM Neural Network
WANG Chun-jing1,2, LIU Dan1,2, ZHANG Wen-kang1,2,
SHAO Ping1,2, YU Long-zhou3, ZHOU Gong-qiang4
(1.Faculty of Land and Resources Engineering, Kunming University of Science and Technology;2.State Key Laboratory of Clean Utilization of Complex Nonferrous Metal Resources ;3. Yunnan Amade Electrical Engineering Co.,Ltd;
4. CAS Chengdu Information Technology Co., Ltd.)
Abstract? ?Considering the difficulty in real-time monitoring the concentrate grade of flotation process in the mineral processing industry, a flotation grade prediction model based on long short-term memory (LSTM) cyclic neural network was proposed. In which, through making use of the time-series correlation of flotation grade parameters, a two-layer LSTM network was used to extract features, and parameters such as reagent addition, aeration rate, ore pulp pH value during flotation were used as input values to real-time predict the concentrate grade after the flotation, including evaluating the prediction results with mean absolute error (MAE), root mean square error (RMSE), and R-squared (R2). The experimental results show that, the both parameters and structure of the neural network model are set reasonably along with good prediction performance; and the MAE is 0.080 7, the RMSE stands at 0.109 and the R2 reaches 0.678. The model is suitable for real-time concentrate grade prediction in the flotation process, and the parameters of the flotation process can be adjusted according to the predicted value feedback to make the concentrate grade approach the expected value, which can promote the intelligence of the flotation process.
Key words? ?long short-term memory network, deep learning, time series, flotation grade forecast