999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

支持數據隱私保護的聯邦深度神經網絡模型研究

2022-06-18 10:37:24張澤輝高鐵杠
自動化學報 2022年5期
關鍵詞:深度模型

張澤輝 富 瑤 高鐵杠

近年來,人工智能技術已經在圖像分類、目標檢測、語義分割、智能控制以及故障診斷等領域取得了優秀的成果[1?7].在解決某些特殊問題方面,深度學習算法已經逼近甚至超過人類水平.深度學習技術的快速發展主要依賴于豐富的數據集、算法的創新和運算設備性能的大幅提升[8].其中,數據集的豐富程度對深度學習模型的性能水平產生直接影響[9?11].但是,某些行業考慮到數據隱私泄露的問題,難以共享數據進行集中式學習.例如醫療行業在數據共享的過程中,某些病人的信息可能會泄露到不法分子手中,不法分子則利用患者信息推銷非法藥品、謀財害命[12?14].因此,為進一步提升模型性能水平,能夠組織多個研究機構通過共享本地模型參數的方式,實現協同訓練全局模型的聯邦學習算法被提出.

針對機器學習中數據隱私泄露的問題,一些隱私保護的方法被提出,主要可以分為以安全多方計算(Secure multiparty computation,SMPC)、同態加密(Homomorphic encryption,HE)為代表的基于加密的隱私保護方法和以差分隱私(Differential privacy,DP)為代表的基于擾動的隱私保護方法.

安全多方計算是指兩個或者多個持有私有數據的參與者通過聯合計算得到輸出,并且滿足正確性、隱私性、公平性等特性.Bonawitz 等[15]提出一種基于秘密共享的安全多方計算協議,旨在保證設備與服務端之間通信,并可以用于聯邦學習的參數聚合過程.與傳統密碼學方法相比,該協議的優點在于其計算代價并不高,但由于通信過程涉及大量安全密鑰及其他參數,可能導致通信代價會高于計算代價.

同態加密方案能夠保證對密文執行的特定數學運算會對其明文有著相同的影響.賈春福等[16]提出一種在同態加密數據集上訓練機器學習算法的方案.這類方法能夠很好地解決隱私安全問題,既可以將加密的數據聚合在一起進行模型訓練,也可以采用聯邦學習進行模型訓練.然而,該類方法[16?19]需要根據所構建的機器學習模型,選用或設計恰當的同態加密方案對訓練數據進行加密,對密碼學知識有著較高的要求.同時,由于對數據加密需要大量的算力資源,該類方法不適用于大數據環境下的深度學習模型訓練.Phong 等[20]提出通過對聯邦學習過程中各訓練者產生的梯度數據進行加密,從而保證多個參與訓練者的本地數據隱私安全.這類方法通過對梯度參數進行加密保護,能夠很好地保護數據隱私安全.然而,該方法的加密運算量與訓練數據量的大小直接相關,會大大增加模型訓練時間和計算成本,并且沒有對偏置項進行考慮.

差分隱私技術指在模型訓練過程中引入隨機性,即添加一定程度的隨機噪聲,使輸出結果與真實結果存在著一定程度的偏差,從而防止攻擊者推理.Agrawal 等[21]提出通過對訓練數據集進行擾動,實現聯邦深度神經網絡的隱私保護.Shokri 等[22]通過在神經網絡模型的梯度參數上添加噪聲,從而實現數據隱私的保護.Truex 等[23]針對聯邦學習模型,提出一種結合差分隱私和安全多方計算的隱私保護方案,能夠在保護數據隱私的同時,還有著較高的準確率.然而在梯度參數上添加噪聲,可能會造成機器學習模型訓練時收斂難度增大、預測精度下降,降低模型的使用性能.

針對上述問題,本文提出一種支持數據隱私保護的聯邦深度神經網絡模型.本文主要貢獻有兩個:1) 對多層神經網絡的訓練過程進行分析,詳細地論述模型權重參數與梯度參數是如何泄露數據集信息的.2) 基于此,將固定的偏置項參數改為隨機數生成,從而避免由于梯度參數信息泄露而導致數據信息的直接泄露;并且將模型梯度參數加密替換為神經網絡模型的權重參數加密,從而減少了加解密運算量;同時訓練者可選擇多種優化算法,不再局限于隨機梯度下降法,使得提出的方法更加適用于真實場景.

1 問題陳述與預備知識

1.1 問題陳述

本文研究的聯邦學習系統由兩部分組成:多個訓練者和參數服務器.所有訓練者都預先同意訓練一個確定框架的深度神經網絡模型,并使用相同的優化算法(如隨機梯度下降法) 和其他訓練參數(如學習率、mini-batch、迭代次數).各訓練者和參數服務器采用聯邦學習的方式,互相聯合、協作訓練一個深度神經網絡,在訓練過程中各訓練者的訓練數據均在本地.另外,訓練者和參數服務器之間需要認證與授權,授權后的訓練者才可以獲得從參數服務器下載參數和上傳參數的權限.關于云環境下的用戶認證和授權非本文研究重點,具體可見文獻[24].

本研究使用 “誠實且好奇”的半可信威脅模型[25].假設所有訓練者和參數服務器都是 “誠實且好奇”的半可信實體,所有訓練者和參數服務器都會遵守訓練協議,但是在訓練模型過程中都想要通過推理得到其他訓練者的數據信息.本文研究旨在在聯邦學習訓練階段保護各訓練者的數據隱私,使各訓練者不能推理得到對方的數據信息,同時也不能泄露信息給第三方服務器.

1.2 神經網絡模型

一個典型的神經網絡模型通常包含三層,分別為輸入層、隱藏層與輸出層[26].深度神經網絡模型可以包含多個隱藏層,每個隱藏層具有一定數量的神經元,并且不同隱藏層的神經元可以自動從訓練數據中提取不同層次的特征.兩個神經元之間的連接,即是神經網絡模型的權重參數.每層神經網絡除了神經元權重參數以外,還有偏置參數.權重參數和偏置參數統稱為神經網絡的模型參數.神經網絡工作過程主要有兩個:正向傳播與反向傳播.正向傳播過程是指,輸入數據正向通過各層神經元的計算,然后輸出預測結果.反向傳播過程是指,先計算預測結果與目標值的偏差值Loss,然后根據偏差值采用鏈式求導與學習算法(例如梯度下降法)對各層網絡的權重進行更新.

1.3 聯邦學習

當數據分散在不同組織中時,聯邦學習提供了一種多方協作訓練深度學習模型的解決方案,現在已成為深度學習領域的研究熱點[27?29].

圖1 為聯邦學習結構圖.首先,遠程參數服務器將初始化的深度學習模型發送至各個訓練者.然后,各訓練者使用自己本地的數據集對模型進行訓練,并將訓練的梯度參數Gi(i=1,2,···,n) 發送至參數服務器,而不是將本地數據發送到云端訓練.接著,參數服務器使用各訓練者所上傳的梯度參數,將全局模型的權重參數Wold更新為Wnew,并將更新后的權重參數發送至各個訓練者.整個學習過程重復進行,直至達到設定的學習次數或滿足用戶設定的停止訓練的條件.

圖1 聯邦學習結構Fig.1 Federated learning structure

可以看出,多個訓練者可以通過使用聯邦學習框架協同訓練深度學習模型,從而提高模型性能.但是,該訓練過程中主要存在兩個缺點:1)通信過程不安全;2)模型權重參數與梯度參數可能存在隱私安全問題.經典的信息加密方法能夠有效解決第一類問題[30?32],而第二類問題則需要根據深度學習具體問題建立一種隱私保護的機制.并且,由于隱私政策或法規的限制,大多數客戶都不愿共享其數據.因此,需要對考慮數據隱私保護的聯邦深度學習模型進行深入研究.

1.4 同態加密

根據支持的數學運算種類與運算次數,同態加密算法可以分為:支持一種數學運算且不限制運算次數的部分同態加密算法、支持特定數學運算且有限運算次數的有限同態加密算法、支持不限制數學運算種類且不限制運算次數的全同態加密算法.本研究采用的是Paillier 同態加密算法,該算法包括4個步驟(密鑰生成KeyGen、加密算法Encryption、解密算法Decryption 和驗證算法)[33?35].

1)密鑰生成 KeyGen (λ) →(pk,sk):

隨機選取兩個長度相同的大素數p和q,且滿足gcd(pq,(p ?1)(q ?1))=1,計算N=pq,λ=lcm(p ?1,q ?1),隨機選取g ∈,則公鑰pk=(N,g),私鑰sk=(λ).

2)加密算法 Encryption(pk,m)→c:

2 深度學習模型的隱私泄露

經典的神經網絡在訓練過程中,可能存在數據集隱私泄露的風險.圖2 為一個典型的三層神經網絡,其中x1與x2為輸入數據,wi(i=1,···,8) 分別為各神經元的權重,bi(i=1,···,4) 為各偏置項的權重,target為輸出目標值.下面以三種情況為例,詳細地對深度學習模型的隱私泄露問題進行說明.

圖2 神經網絡結構Fig.2 Neural network construction

1)第一種情況

首先計算神經網絡的輸出值與目標值的偏差,計算公式如下:

然后,根據鏈式求導法則,可以計算出w1、b1和w3的梯度:

根據鏈式求導結果,可以得出:

從式(5)、式(6)看出,能夠從梯度參數反推出輸入數據.并且第一層網絡的所有梯度參數,都能夠通過與之相對應的偏置項推導出數據信息,例如x1也可以通過w2的梯度除以b2的梯度得到.

圖3(a)~圖3(d)分別為信息泄露100%、80%、50%和30%的圖片.從圖中可以看出,當獲取一定數量的輸入數據時,其關鍵信息就可能已經泄露.

圖3 不同比例的數據信息泄露Fig.3 Different proportions of data information leakage

當求得訓練數據中的輸入數據后,通過神經網絡模型正向傳播求出模型輸出值.然后,根據式(7)、式(8)可以求出數據集中的目標輸出數據targeto1,類似可以依次求出所有的目標輸出數據.經過上述過程,數據集的信息便泄露出來.

2)第二種情況

假如第一層的梯度參數(?Ltotal/?wi,i=1,···,4)被加密,但是依然可以根據式(9)~式(11)推導出隱藏層的輸出值outh1與outh2.然后通過解方程組式(12),則可求出輸入數據x1與x2.再按照第一種情況正向傳播求解目標數據值,便可以得到數據集的所有信息.

3)第三種情況

假如神經網絡模型偏置項數值不是固定值1,而是由隨機數生成,可以通過式(13)求出各隱藏層輸出值與偏置項的比值.然后,嘗試可能使用的偏置項數值,將推測的偏置項數值根據第一種情況,計算出推測的輸出值和推測的目標值,最后將使用推測結果計算的梯度值與真實的梯度值進行比較.重復上述過程,暴力求解可能使用的偏置項數值.從圖4 中可以看出,當輸入數據為圖片時,與真實偏置項數值的差距即為推測圖片與真實圖片亮度的差距.因此,當推測的偏置項數值與真實的偏置項數值比較接近時,信息便可能出現泄露.

圖4 不同偏置值的數據信息泄露Fig.4 Data information leakage of different bias values

3 支持數據隱私保護的聯邦深度學習模型

支持數據隱私保護的聯邦深度學習模型,其中包括一個參數服務器與多個訓練者.模型運行過程主要分為三個部分:模型初始化、模型訓練和模型部署.圖5 為聯邦深度學習算法訓練過程交互圖.采用文獻[20]中提出的聯邦學習隱私保護的通訊方案,各訓練者與參數服務器之間建立不同的TLS/SSL (Transport layer security/Secure sockets layer)安全通道.各訓練者之間采用經典的AES (Advanced encryption standard)加密算法,對同態加密算法的公鑰pk與私鑰sk、深度神經網絡模型的結構參數、選用的優化算法及其學習率等進行加密傳輸.收到信息后,各訓練者進行模型初始化、模型訓練以及模型部署操作.

圖5 訓練過程交互圖Fig.5 Interaction in the training process

模型初始化.訓練者們預先確定負責模型初始化的訓練者.該訓練者對深度神經網絡模型進行搭建,模型中的權重參數與偏置項參數使用隨機數算法生成.然后,確定同態加密算法的參數,根據同態加密算法的定義生成公鑰pk與私鑰sk(具體過程見文中第1.4 節或參考文獻[33?35]),并將公鑰、私鑰與偏置項數值使用AES 算法加密后發送至各訓練者,對參數服務器保密.該訓練者使用同態加密算法的私鑰對深度神經網絡模型的權重參數進行同態加密,并將加密后的權重參數發送至參數服務器.參數服務器將該訓練者上傳的加密參數廣播至其他訓練者.其他訓練者使用私鑰對加密的模型權重參數進行解密,將解密后的參數加載到自己的本地模型,從而完成初始化過程.

模型訓練.如圖6 所示,各訓練者將下載的全局模型權重參數解密后,加載到本地模型上.使用本地數據對模型進行訓練,完成一次學習后,將更新的本地模型的權重參數經同態加密后上傳至參數服務器.進行加密的全局模型權重參數更新,并將加密的全局模型權重參數廣播給所有的訓練者.迭代上述學習過程,直至達到訓練設定條件.具體訓練過程見第3.1 節和第3.2 節.

模型部署.當模型完成訓練后,各訓練者不再上傳深度神經網絡的權重參數.將訓練好的深度神經網絡全局模型的權重參數經私鑰sk解密后,加載至本地模型進行部署,并斷開與參數服務器的連接.

3.1 訓練者

各訓練者對存儲在本地的數據集進行預處理,然后對本地的深度神經網絡模型進行訓練.具體步驟如下:

1)各訓練者首先根據具體項目內容,預先確定好所采用的數據預處理方式,然后對各自本地數據進行預處理;

2)各訓練者從參數服務器下載深度神經網絡全局模型權重參數密文,然后使用私鑰sk對密文進行解密,最后將全局模型權重參數加載至本地深度神經網絡模型;

3)各訓練者根據預先設定好的mini-batch 值、迭代次數、優化算法和學習率,使用本地數據進行一次迭代學習,并使用公鑰pk對本地深度神經網絡更新的模型權重參數進行同態加密,最后將密文發送至參數服務器;

4)重復步驟2)和步驟3),直至達到設定迭代次數.

3.2 參數服務器

如圖6 所示,參數服務器將各訓練者上傳的模型參數求平均值,并更新加密的全局模型權重參數.圖中密文計算公式的合法性是由同態加密算法的性質來保證的,具體特性可見附錄A.

圖6 支持數據隱私保護的聯邦學習訓練過程Fig.6 The training process of the date privacy-preserving federated learning

定理 1 (針對參數服務器的安全性).如果采用的加密方案是滿足CPA (Chosen-plaintext attack)安全的,則訓練者不會將數據集上的信息泄漏給“誠實但好奇”的參數服務器.

證明.訓練者僅將加密的模型權重參數發送到云服務器.因此,在聯邦訓練過程中,如果加密方案是CPA 安全的,則不會泄漏有關訓練者數據的任何信息.

注 1.當各參與訓練者通過不同的TLS/SSL 通道連接到參數服務器時,假設參數服務器不會和任何訓練者串通,訓練者僅能夠知道全局模型的參數,而不能知道其他參與訓練者的梯度信息.

注 2.深度神經網絡中的偏置項不是固定的常數項(例如數值為1),而是由某一訓練者隨機生成的常數項.

4 聯邦深度學習算法分析

4.1 安全性分析

回顧上述聯邦深度學習算法訓練過程,訓練者與參數服務器獲得的中間數據如表1 所示.從表1中可以看到,在聯邦深度學習訓練過程中,各訓練者通過私鑰解密獲得的是全局模型權重參數,無法獲得其他訓練者模型權重參數Wpar、梯度G、預測結果Prediction results 以及損失值Loss.同時,參數服務器獲得的是各訓練者加密過的本地模型權重參數Enc(Wpar) 和加密過的全局模型權重參數Enc(Wglobal),而參數服務器沒有私鑰,無法對參數數據進行解密.

表1 訓練者與參數服務器獲得的數據信息Table 1 Data information obtained by the participant and parameter server

聯邦深度學習訓練前,模型的偏置項參數與同態加密算法的私鑰、公鑰使用現代成熟的加密方法在各訓練者之間進行信息傳輸;聯邦深度學習訓練過程中,參數服務器與各訓練者傳輸的是模型參數的密文,即使模型參數信息被敵手截獲,其也無法進行解密.

4.2 時間分析

與傳統聯邦深度學習算法相比,本文所提出算法額外產生的計算開銷和通信開銷分別為:模型參數加密/解密,模型參數上傳/下載.本文使用Python 開源平臺上的Paillier 同態加密算法庫,密鑰長度為1024 bit,計算機CPU 型號為Intel i7-6500.表2 所示為不同個數的模型參數運算100 次,同態加密算法操作(包括加密操作、密文加法操作和解密操作)和無加密算法的直接相加的平均每次執行時間.

訓練過程中,迭代次數為epoch,訓練者個數為n,網絡模型參數個數為Mpar,則加密時間復雜度為O(epoch×n×Mpar×Epaillier),解密時間復雜度為O(epoch×n×Mpar×Dpaillier).可以看出,所提出的聯邦深度學習算法加密/解密次數與數據集無關.本文模型參數量為53018 (模型結構如表3所示,Li代表第i層神經網絡),n=2,一個迭代訓練過程加密/解密操作數為2 × 53018=1.06 ×105次.如果采用文獻[20]的方法,假設訓練數據集個數為60000個,則其一個迭代訓練過程加密/解密操作數為2 × 60000 ×53018/50=1.27 × 108次.通過對比能夠看出,直接對參數進行同態加密,能夠大大縮短模型訓練時間.

表3 深度神經網絡模型結構Table 3 Deep neural network model structure

本文所提出算法的通信開銷為Tcost=2(epoch×n×Mpar×ct),其中ct為一條密文大小,空間復雜度為O(n×Mpar×ct).可以看出,所提出算法的空間復雜度與數據集無關,主要受到模型參數量的影響.本文模型參數量為53018,n=2,ct=256 bit,一個迭代訓練過程通信開銷為2 × 53018 × 256=25.88 MB.如果采用文獻[20]的方法,假設訓練數據集個數為60000個,則其一個迭代訓練過程通信開銷為2 × 60000 ×53018 × 256/50=0.12 GB.通過對比能夠看出,直接對參數進行同態加密,能夠大大減小通信開銷.

5 實驗與分析

5.1 實驗環境與數據集

電腦運行環境如下:CPU 為Intel i7-6550,內存16 GB,顯卡NVIDIA 1050Ti,Pytorch 1.1,CUDA 9.0,Win10 操作系統.使用開源的Paillier 庫[36],對神經網絡模型的權重參數進行加密與解密.實驗數據集為Zalando Research 在GitHub 上推出的一個用于替代手寫數字識別數據集MNIST 的全新數據集Fashion-MNIST,該數據集已經被廣泛用于機器學習算法的性能評估[37?39].Fashion-MNIST 的訓練集包含60000個樣本,測試集包含10000個樣本,共有10 類(Trouser,Pullover,Dress,Coat 等),每個樣本都是28 × 28 的灰度圖像.本文以兩個訓練者為例,實現支持隱私保護的聯邦深度神經網絡模型.訓練集中,前30000個樣本設定為數據集1,后30000個樣本設定為數據集2,從而完成訓練數據集的切割.傳統訓練模型使用完整的訓練數據集,而聯邦深度學習中的訓練者1 使用數據集1 作為訓練數據集,訓練者2 使用數據集2 作為訓練數據集.訓練好模型后,采用Fashion-MNIST 測試數據集進行評估.

5.2 實驗和結果分析

本節將傳統深度神經網絡模型與支持隱私保護的聯邦深度神經網絡模型采用如表3 所示相同的結構,采用SGD (Stochastic gradient descent)算法對深度神經網絡DNN (Deep neural network)與聯邦深度神經網絡PFDNN (Privacy-preserving federated deep neural network) 進行訓練,采用ReLU 激活函數,循環次數epoch為300 次.DNN-1與PFDNN-1 學習率設定為0.005,DNN-2 與PFDNN-2 學習率設定為0.01.

不同mini-batch 值下,各模型訓練過程曲線如圖7 所示,其中包含測試數據集識別準確率Accuracy曲線、測試數據集Loss曲線和訓練數據集Loss曲線.從圖7(a)和圖7(b)中可以看出,DNN模型在迭代前50 次時,訓練集Loss值與測試集Loss值迅速下降,識別準確率Accuracy快速提高.DNN-1 模型迭代至150 次左右時,Loss值與識別準確率趨近于穩定.由于學習率高于DNN-1,DNN-2 模型迭代至100 次左右時Loss值與識別準確率Accuracy趨近于穩定.從圖7(c)和圖7(d)的Loss值曲線可以看出,PFDNN-1 與PFDNN-2 模型在訓練時模型收斂速度相比于DNN 模型較慢一些,迭代至200 次后Loss值與識別準確率趨近于穩定.并且從各模型的測試集Loss曲線可以觀察到,使用較小mini-batch 值會加快模型收斂速度.在mini-batch=32 時,各模型的測試集Loss曲線都出現了不同程度的過擬合現象.可以看出,所提出的PFDNN 模型在不同參數下,識別準確率Accuracy、訓練集Loss值與測試集Loss值都與DNN 模型總體保持一致.

圖7 各模型訓練過程曲線Fig.7 Training process curves of each models

為觀察DNN 與PFDNN 具體物品分類的情況,4 種模型在測試集識別結果的混淆矩陣如圖8所示.可以看出,DNN 與PFDNN 對測試集中的Shirt 識別效果都不理想,并且都主要誤識別為Tshirt、Pullover 和Coat.以混淆矩陣的結果和訓練過程測試集識別準確率對DNN 與PFDNN 的偏差進行評估.評估計算公式為:

圖8 測試集預測結果的混淆矩陣Fig.8 The confounding matrix of the test dataset prediction results

式中,cn表示物品種類個數,DNNacc,i表示DNN識別第i類物品的準確率,PFDNNacc,i表示PFDNN 識別第i類物品的準確率,DNNacc,max表示DNN 在訓練過程中測試集最高的準確率,PFDNNacc,max表示PFDNN 在訓練過程中測試集最高的準確率.如表4 所示,隨著mini-batch 值的增大,DNN 與PFDNN 在具體物品分類上的偏差加大.在mini-batch 值較大時,PFDNN-1 由于欠擬合,與DNN 最高準確率的偏差最大達到了2.82%;而當PFDNN 充分訓練后,與DNN 最高準確率的偏差較小.總體可以看出,所提出的PFDNN 模型能夠保證很高的精確度.

表4 不同模型偏差結果Table 4 The deviation results of the different models

表5 為4 種模型在測試集上,對不同種類物品的識別精確率Precision與召回率Recall.識別精確率是指正確預測為正占全部預測為正的比例,而召回率是指正確預測為正占全部為正的比例.識別精確率與召回率越接近1,說明分類器的分類效果越好.從表5 中可以看出,傳統深度學習模型與所提出的聯邦深度學習模型對各類物品識別的結果相差不大.這說明本文所提出的PFDNN 模型能在沒有明顯精度損失的前提下,保護數據的隱私安全.

表5 不同類別物品的預測結果Table 5 Prediction results of the different items

6 結論

針對聯邦學習中存在的數據隱私信息泄露問題,提出了一種支持隱私保護的聯邦深度神經網絡模型.本文以多層神經網絡為研究目標,詳細地分析模型梯度參數可能會造成數據隱私泄露的三種情況.基于此,初始化模型參數時,偏置項參數不再使用固定數值而使用隨機數,以避免梯度參數泄露導致數據信息直接泄露.然后,引入同態加密算法,各訓練者通過對深度神經網絡模型的權重參數進行同態加密,從而保障了自身本地數據隱私安全.與傳統聯邦學習隱私保護方法相比,使用模型權重參數共享,能夠將模型參數更新過程轉移到訓練者端(即邊緣端),降低了參數服務器(即云端)性能要求,并且訓練者不再局限于隨機梯度下降法.理論分析與實驗表明,所提出的聯邦深度神經網絡在沒有明顯損失模型精度的前提下,能夠對用戶數據的隱私進行有效的保護.

所提出的聯邦深度學習模型收斂速度較慢,并且在非獨立同分布數據集和較大mini-batch 值上會出現一定程度的精度損失.雖然提高全局模型更新頻率能夠進一步提高精度,但是會消耗大量的計算資源與訓練時間.因此,下一步擬通過使用GPU對同態加密過程進行加速,以進一步縮短模型訓練時間.并且,擬對參數服務器中的模型權重參數更新機制(例如,全局模型參數更新頻率和mini-batch值)進行深入研究,從而增加支持訓練者的個數,并提高模型收斂速度和計算精度.

附錄 A Paillier 加密算法同態特性

可以看出,E(m1) 和E(m2) 的乘法結果相當于明文消息m1+m2在公鑰pk和隨機數r1、r2下進行加密,因此,Pallier 加密算法滿足加法同態特性.

當對密文進行指數運算時,根據加密算法有:

從結果可以看出,對密文的指數運算等于明文之間的乘法運算.

猜你喜歡
深度模型
一半模型
深度理解一元一次方程
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
深度觀察
深度觀察
深度觀察
深度觀察
3D打印中的模型分割與打包
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 91免费观看视频| 欧美日韩国产高清一区二区三区| a毛片基地免费大全| 国产无码性爱一区二区三区| 人人看人人鲁狠狠高清| 欧美视频免费一区二区三区| 成人福利在线视频| 国产成人一区在线播放| 国产欧美综合在线观看第七页| 日韩欧美中文| 永久免费AⅤ无码网站在线观看| 亚洲日本www| A级毛片高清免费视频就| 成人国产免费| 日韩精品亚洲精品第一页| 麻豆a级片| 精品国产成人av免费| 最新加勒比隔壁人妻| av一区二区无码在线| 中文字幕在线不卡视频| 国产精品蜜芽在线观看| 99re这里只有国产中文精品国产精品 | 国产女人水多毛片18| 99精品免费欧美成人小视频| 成人午夜精品一级毛片| 国产女主播一区| 中文字幕亚洲第一| 久久99国产综合精品1| 国产精品极品美女自在线| 亚洲成a人片7777| 国产噜噜噜视频在线观看| 国产亚洲欧美在线专区| 亚洲精选无码久久久| 91毛片网| 区国产精品搜索视频| 国产成人综合日韩精品无码首页| 欧美国产日韩在线观看| 亚洲婷婷六月| 精品国产欧美精品v| 久草中文网| 亚洲国产精品无码久久一线| 精品乱码久久久久久久| 91成人免费观看在线观看| 久久这里只有精品2| 天天摸夜夜操| 欧美国产综合色视频| 亚洲男人在线| 91精品情国产情侣高潮对白蜜| 欧美一区国产| 午夜日本永久乱码免费播放片| 一级高清毛片免费a级高清毛片| 性视频一区| 日韩天堂网| 日本精品一在线观看视频| 国产经典在线观看一区| 高h视频在线| 欧美 亚洲 日韩 国产| 欧美激情首页| 久久这里只有精品国产99| 国产真实自在自线免费精品| 麻豆AV网站免费进入| 久久动漫精品| 精品一区国产精品| 亚洲热线99精品视频| 国产欧美精品午夜在线播放| 99久久国产精品无码| 国产在线专区| 毛片大全免费观看| 久久99国产综合精品1| 国产sm重味一区二区三区| 国产微拍一区| 精品国产成人三级在线观看| 亚洲成aⅴ人片在线影院八| 中文字幕免费在线视频| 久久香蕉国产线看精品| 欧美成人综合视频| 视频二区中文无码| 91无码视频在线观看| 日本a∨在线观看| 丁香婷婷久久| 成人福利在线视频| 欧美国产日韩在线观看|