劉詠平 吳玉婷 劉杰 郝剛



摘要:為了解決高性能云計算環境中計算資源利用率不高、短期用戶需求大的問題,本文提出一種基于多負載均衡的自適應云計算資源管理模型,通過采用多種負載均衡實現算法,并動態地根據現有任務分配來評估,最終由評估結果使用最優負載均衡,使得等待作業可以高效地均衡分布在不同的資源上運行,從而增加系統的吞吐量及性能。
關鍵詞:云計算;資源管理;按需切換
中圖分類號:TP391? ? ?文獻標識碼:A
文章編號:1009-3044(2021)10-0060-03
1引言
目前大部分鋁型材企業對生產模具的管理主要通過建立模具管理倉庫對模具進行統一管理,并在模具上粘貼二維碼用于識別模具型號。由于鋁材的生產過程需要經過多個流通環節(出庫、拋光、加熱、上機、下機、堿洗、包膜、入庫等),且其中存在的多個環節需要經過高溫及堿洗,使得模具上粘貼的二維碼極易失效。為保證對模具的每一個環節做好記錄,需要人為對二維碼失效的模具重新粘貼上二維碼。二維碼標簽的重復粘貼大大降低了工業生產的效率,且多次人為識別模具編碼制作二維碼的過程增加了模具記錄的錯誤率。因此需要一種新的技術方案實現模具編碼識別,提高生產模具管理的便利性。
2相關工作
Mask RCNN模型去完成特定的目標檢測任務時,一般通過保持原始模型的主體結構,簡單修改模型最后的輸出層,并使用特定任務的訓練樣本對模進行訓練,以此實現將模型用于特定任務。雖然模型在眾多公開數據集[1, 2]均取得了優異的結果,但是由于眾多公開數據集主要由自然場景訓練樣本組成,無法保證針對特定的工業生產環境圖片下模型還具有良好的表現。而針對一個特定任務重新設計出一個性能良好的網絡模型需要大量專業先驗知識,且消耗大量的人力物力。針對這一問題,神經網絡架構搜索技術的出現實現了神經網絡結構的自動搜索。目前的神經網絡架構搜索策略主要有進化算法[3]、強化學習[4]、可微分[5]三種。[3]遺傳算法策略雖然能夠搜索到表現優秀的網絡的結構,但是其效率極其低下,需要消耗大量的計算資源。NASNet[4]使用強化學習策略,在cifar-10集imagenet數據集[1]上得到了優秀的結果,但是其同樣需要消耗巨大的計算力;NASNet[4]要求2000gpu天才能得到最好的結果。NAS-FPN[6]在maskrcnn[6]模型基礎上成功的搜索出了一個目前最優的特征金字塔結構,NAS-FPN[6]無論是在參數量,計算時間,準確率都要優于目前最好的模型,但該模型需要在100塊TPU上完成訓練。各類優化策略如ENAS[7]通過共享權重的方式使網絡能夠在0.5GPU天下收斂,但是效果上沒有超過人為設計的網絡。NAO[8]則通過將架構嵌入到連續潛在空間中利用梯度下降將進行優化,將搜索代價縮減到200GPU天。基于可微分的神經架構搜索策略DARTs[18]通過共享網絡結構并從中采樣網絡子結構的形式取代單獨的網絡結構進行訓練的方式進行網絡搜索,這一措施使模型在Cifar數據集下能只用1個GPU天便使模型收斂,大大降低了網絡搜索的成本,且能遷移到Imagenet[1]數據集上得到很好的表現。HNAS[10]則是在[5, 9]的基礎上將細胞級的搜索策略上升到了網絡級的搜索策略,并成功應用于語義分割上面,得到目前最優的結果。基于可微分的神經架構搜索策略[5, 9]在訓練時間上均只需要幾個GPU天,便能得到優秀的網絡結構。
本文提出了一種基于Mask RCNN的模具編碼識別方案。同時考慮到各種方法對Mask RCNN進行改進的模型無法保證針對模具編碼檢測任務效果的問題,重新設計網絡結構的不便性以及基于強化學習進行架構搜索計算資源消耗大的問題。本文在保持Mask RCNN網絡的主體結構(特征提取網絡,FPN,RPN網絡)的基礎上,基于DARTs[5]構建RCNN網絡,解決了面向公開數據集訓練得到的模型無法適應模具編碼識別任務的問題。
3 基于Mask RCNN的模具編碼識別方法研究
基于Mask RCNN構建的模具編碼識別網絡結構如圖1所示。由于模具編碼中存在數字6,9,且無法保證輸入圖片的方向,直接使用目標檢測算法進行模具編碼識別會造成數字6、9分類的巨大的錯誤率。因此,本文通過在輸入圖片時通過級聯一個翻轉識別網絡以解決數字6、9分類錯誤率高的問題。在翻轉網絡對輸入進行圖片處理后再送到下級網絡。下級則是基于darts對Mask RCNN中的rcnn網絡進行優化搭建的目標檢測網絡。
本文以[14]的研究為基礎,使用cell作為模型結構搜索的單位。本文設定網絡邊界操作集合θ=(3X3,5X5可分離卷積,3X3,5X5空洞卷積,3X3最大池化,3X3均值池化,跳躍連接,0連接)。設定每個cell包包含七個節點,其中兩個輸入,一個輸出,四個內部節點,節點間通過有向無環進行連接。設o(i, j)表示結點x(i)和x(j)的操作連接,那么可得:
設θ表示o(i)操作作用于x(i)的操作集合。使用公式(2)進行操作連續松弛:
其中a(i,j)表示兩個結點直接的連接權重,經過公式(2)的松弛之后,模型結構搜索的任務轉變成了對連續變量a的學習。a參數學習過程示意圖如下:
圖2(a)表示初始網絡結點未知;圖2(b)給定集合中操作將結點連接并將參數進行連續松弛;圖2(c)通過混合概率優化解決網絡結點α及w權重的雙重優化問題;最后通過最大化可能操作得到一個離散的網絡結構參數如圖4(d)所示。最終將多個cell進行堆疊得到完整網絡結構。
基于DARTs構建的RCNN網絡以RoIAlign輸出為輸入。網絡損失函數Loss = Ldarts+Lmask,其中Ldarts = Lcls+Lbox。
3 實驗結果及分析
為了驗證本文算法有效性,建立實驗仿真環境:CPU處理器為i7 8700,內存為16GB,顯卡為GTX 1080Ti X2,硬盤為2T,實驗平臺為Ubuntu 18.04。
數據集中圖片的尺寸不統一,因此在將圖片送入到翻轉檢測網絡之前,將圖片進行雙線性插值法統一圖片尺寸為244X244。同時使用imagenet數據集構建預訓練模型,訓練過程中固化卷積層參數,只對全連接層進行訓練。設定學習率為0.001,迭代次數為1000。
MASK R-CNN網絡特征提取使用resnet101預訓練模型,選擇resnet101的conv4作為特征輸出圖。設定scales為[68, 128, 256],設定縱橫比為[1, 2];設置IOU閾值為0.5用于進行非極大值框融合,設置預測結果閾值為0.85,拋棄分數小于0.85的預測框。設置學習率為0.003,迭代次數為300。
如表1所示,在IoU為0.5和0.75下,均有三個指標性能(ac,miss,overall)優于Mask RCNN和FAST RCNN模型:在IoU為0.5下,本文方法ac評價達到97.23%,優于原始Mask RCNN 1.96%。在IoU為0.75下,本文方法ac評價達到81.27%,優于原始Mask RCNN 4.83%.
4 結論及未來工作
本文提出的一種基于DARTs的Mask RCNN模具編碼識別方法。該方法首先定義網絡細胞結構,然后用DARTs技術訓練網絡細胞結構,最后用訓練后的網絡細胞堆疊重構Mask RCNN網絡中的分類回歸分支,實現對模具編碼的Mask RCNN目標檢測網絡。實驗結果表明,在IoU為0.5下,本文方法比傳統MASK RCNN方法的檢測性能提升約1.96%;在IoU為0.75下,本文方法比傳統MASK RCNN方法的檢測性能提升約4.83%。
參考文獻:
[1] Deng, J., et al. Imagenet: A large-scale hierarchical image database. in 2009 IEEE conference on computer vision and pattern recognition. 2009. Ieee.
[2] Lin, T.-Y., et al. Microsoft coco: Common objects in context. in European conference on computer vision. 2014. Springer.
[3] Real, E., et al., Regularized evolution for image classifier architecture search. arXiv preprint arXiv:1802.01548, 2018.
[4] Zoph, B., et al. Learning transferable architectures for scalable image recognition. in Proceedings of the IEEE conference on computer vision and pattern recognition. 2018.
[5] Liu, H., K. Simonyan, and Y. Yang, Darts: Differentiable architecture search. arXiv preprint arXiv:1806.09055, 2018.
[6] Ghiasi, G., T.-Y. Lin, and Q.V. Le. Nas-fpn: Learning scalable feature pyramid architecture for object detection. in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2019.
[7] Pham, H., et al., Efficient neural architecture search via parameter sharing. arXiv preprint arXiv:1802.03268, 2018.
[8] Luo, R., et al. Neural architecture optimization. in Advances in neural information processing systems. 2018.
[9] Liu, C., et al., Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Image Segmentation. arXiv preprint arXiv:1901.02985, 2019.
[10] Shin, R., C. Packer, and D. Song, Differentiable neural network architecture search. 2018.
【通聯編輯:梁書】