〔摘 要〕通過仿真實驗得出,運用簡約HJ神經網絡原理可以從我們所收集查找到的信息中分離出和讀者需求信息最接近的信息,這樣可以大大降低我們個性化信息推薦的盲目性和低效性,從而更進一步提升我們圖書館的個性化信息服務質量。
〔關鍵詞〕簡約HJ神經網絡;個性化服務;信息分離;信息推薦
〔中圖分類號〕G250.73 〔文獻標識碼〕C 〔文章編號〕1008-0821(2009)02-0057-03
The Application of Reduced HJ Neural Network in
Library Personalized Information RecommendationFeng Lei Zhang Yuguang Tang Li
(Library,Shanghai Institute of Technology,Shanghai 200235,China)
〔Abstract〕Through the simulation experiments,using reduced HJ neural network can separate the closet information to the readers requirements,thus the blindness and low effectiveness could be greatly reduced and the quality of personalized information service could be further promoted.
〔Key words〕reduced HJ neural network;personalized service;information separation;information recommendation
個性化信息推薦的目標是為讀者提供滿足其個性化需求的服務,在個性化信息推薦中重要的環節就是從我們所找到的千萬條信息中提煉出滿足讀者個性需求的信息推薦給讀者。目前推薦系統存在的普遍問題是推薦的盲目性和低效性,產生這問題的主要原因就是我們不能在我們找到的信息中準確的分離出最貼近讀者個性需求的信息推薦給讀者。
1 簡約HJ神經網絡
自1986年Herarlt和Jutten提出了以他們名字命名的神經網絡(HJ)方法后,近年來在各行業已有許多應用[1]。簡約HJ神經網絡運用于滿足讀者個性需求信息分離,即可有效地去除我們所采集的無用信息,提高推薦的準確性。這對圖書館個性化信息服務產生了深刻的影響,對提高圖書館個性化信息服務水平起到了強大的推動作用,這是一種新型的多信息分離方法。如圖1所示。
圖1 簡約HJ神經網絡
1.1 簡約HJ神經網絡原理
假設有零均值隨機信息S1(t),S2(t) t∈T
設傳輸通道是線性,可測信息為m1(t),m2(t),如圖2所示。有
m1(t)
m2(t)=a11a12
a21a22S1(t)
S2(t)(1)
且a11a22-a12a21≠0[2]
圖2 簡約HJ神經網絡1.2 簡約HJ神經網絡的信息分離的算法設計
y13(t)y2(t)=0,y23(t)y1(t)=0,(2)
信息m1(t),m2(t)是可分離的[3]。
其中式(2)滿足圖2的結構
易知:
y1(t)
y2(t)=11-D12D211-D12
-D211m1(t)
m2(t)
∴y1(t)
y2(t)=11-D12D211D12
D211a11a12
a21a22S1(t)
S2(t)(3)
y1(t)
y2(t)=D10
0D2S1(t)
S2(t)
根據(2)構造神經網絡,有
dD12dt=μy13(t)y2(t)
dD21dt=μy23(t)y1(t)(4)
可推得:
dD12dt=μy13(t)y2(t)
dD21dt=μy23(t)y1(t)(5)
當系統(5)達到穩態,其輸出即為分離系數D12,D21
此時的輸出為y1=a11S1,y2=a22S2由此即達到了信息分離的目的[4]。
2009年2月第29卷第2期現?代?情?報Journal of Modern InformationFeb.2009Vol.29 No.2
2009年2月第29卷第2期簡約HJ神經網絡在圖書館個性化信息推薦中的應用Feb.2009Vol.29 No.2
2 簡約HJ神經網絡信息分離的程序設計與仿真
在個性化信息推薦中,我們通過和讀者的溝通,了解到讀者的個性化信息需求,根據讀者需求我們查找到了與其需求信息相關所有資料,在這些資料中要提煉出與其需求最接近的信息推薦給讀者,這樣才能給讀者帶來使用的方便和推薦信息的準確性,避免信息過載和迷航[5]。我們假設讀者所需信息為源信息Y1,我們按照讀者需求查找到的總的混合信息設定為Y2,通過簡約HJ神經網絡運算把Y1從Y2中分離出來。
2.1 信息分離的程序設計步驟
2.1.1 初始化的步驟
第1步,確定輸入源信息Y1和Y2數組長度大小
第2步,設置數組值全為0
第3步,設置3種不同收斂因子的變化算法
(1)收斂因子的以變小固定值來計算
(2)第2種收斂因子的初始值為0.02
(3)第3種收斂因子的初始值為3
2.1.2 確定混疊信息的算法
第1步,取輸入源信息的最大值和最小值
第2步,確定輸入傳遞函數矩陣A=10.3
0.30.5計算混疊信息s1
s2=10.3
0.30.5y1
y2
第3步,設置計算步長為h=0.01
2.1.3 信息分離算法的步驟
第1步,若flag=1 即收斂因子為固定值
則i=floor(k*8/hsize)+1
確定收斂因為在迭代中的取值。
第2步,若flag=0 即收斂因子為變值,其算法為
muu(k+1)=muu(k)+h*(0.02-muu(k))/TD
Mu=0.02-muu(k)+0.0005
第3步,若flag=0 即收斂因子為變值,其算法為
muu(k+1)=muu(k)+h*(3-muu(k))/TD
Mu=3-muu(k)+0.1
第4步,計算迭代公式
daa(1)dt=μ(s1-aa(1)s2)3(s2-aa(2)s1)
daa(2)dt=μ(s2-aa(2)s1)3(s1-aa(1)s2)
第5步,計算aa(1)=11-D12D211-D12
D211
再計算D11D12
D21D22=aa(1)a11a12
a21a22
2.2 信息分離程序設計的仿真
把程序加載到MATLAB中并運行,經過反復調試之后,得到如下的仿真結果
定義t=0:pi/100:3*pi;
y1=sin(t);
y2=sign(sin(10*t));
hdsep(y1,y2,t,flag) 其中flag可取1,2,3
定義兩個輸入分別為一列正弦波是讀者所需求的信息和一列方波是我們收集到的混合信息,在算法中假設輸入波形是未知的,我們看到的是兩列波的混合波形,通過神經網絡的計算,還原得到跟輸入近似的波形。
圖3是我們輸入的正弦波與方波,分別為y1=sin(t)與y2=sign(sin(10*t)),我們能觀測到的是兩列波形的混合波形,通過簡約HJ神經網絡把混合信息分離得到原來未知的輸入波形。
圖3 輸入波形圖4即為我們可以觀察到的混合波形,我們要把讀者所需信息從混合信息中分離出來,這樣才能達到準確的個性化信息推薦。
圖4 混合波形
可以看到圖5中的兩列波形近似與正弦波與方波,就是我們輸入的y1=sin(t);y2=sign(sin(10*t));從圖形中可以看到,正弦波上稍有一些混合信息的疊加,但是總體的效果跟輸入的波形已經基本相似。因此認為我們通過混合信息的分離,把最接近讀者需求的信息提煉了出來,大大提高了個性化信息推薦的準確性,給讀者帶來了極大的方便。
圖5 分離結果
3 結 論
用簡約HJ神經網絡對所收集到的混合信息進行的分離,從仿真結果來看分離的結果是比較理想的。一般的數值計算中,對S-y的傳輸矩陣中的非對角元素不為零,但為一個較小的數目。工程上,一般可約定,當混合信息的幅值比為1000∶1,則可認定信息已被分離[6]。仿真過程也證明了該分離方法是有效的。在信息社會中,個性化信息服務只有做到更細致更準確,才會真正使讀者滿意,圖書館的服務才能真正體現出以人為本的服務宗旨。
參考文獻
[1]J.Herault and C.Jutten,“Space or time adaptive signal processing byneuralnetwork models”,Neural Network for computing[M].Snowbird,1986.
[2]Kalman,R,Eand Bucy,R.S”New Results in Linear Filtering and Prediction Theory Trans[M].Asme,Ser.D.J.BasicEng.,1961:95-107.
[3]袁曾任.人工神經元網絡及其應用[M].北京:清華大學出版社,1996.
[4]胡守仁,余少波,等.神經網絡導論[M].北京:國防大學出版社,1993.
[5]馬文峰,高風榮.論數字圖書館個性化信息推薦系統[J].現代圖書情報技術,2003,(2):16-18.
[6]虞曉,胡光銳.基于統計估計的盲信號分離算法[J].上海交通大學學報,1999,33(5):566-569.