葉建華 羅毅



摘 要:社會問答平臺答案質量績效感知與重要性期望感知的差異性,運用重要性—績效性分析(Importance Performance Analysis,IPA)方法可以分為四個象限,即“繼續保持”區域、“重點改善”區域、“毋需優先”區域和“過度表現”區域。文章運用顧客滿意度模型理論,構建基于“重點改善”區域相關指標的用戶答案質量滿意度概念模型,并通過調研來修正和檢驗概念模型。通過研究發現,用戶的期望感知質量、績效感知質量和感知價值,對用戶的總體滿意度產生直接顯著的影響,并且總體滿意度對用戶的持續使用產生強正相關影響,表明提高“重點改善”區域質量的相關指標能夠有效地增加用戶的滿意度,增強用戶持續使用社會問答平臺資源的意愿,并為社會問答平臺答案質量的提升提供相關建議。
關鍵詞:社會問答平臺;答案質量;用戶滿意度模型
中圖分類號: G203 文獻標識碼: A DOI:10.11968/tsyqb.1003-6938.2016018
Quality Research of Answers in Social Q&A; Platforms Based on Indexes of the“Concentrate Here”Region
Abstract Answers on social Q&A; platforms show differences between quality performance perception and importance expectation perception. According to the method of IPA(Importance Performance Analysis), the differences can be divided into four regions:“Continue to Maintain”region,“Key to Improve”region,“No Need for Priory”region and “Over Expression”region. Based on pilot studies, this paper uses customer satisfaction model theory to structure the conceptual model of customer satisfaction to the quality of answers on social Q&A; platforms with indexes of the“Key to Improve”region, and then corrects and tests it through user surveys. This paper finds that users expectation perception quality, performance perception quality and perception value have direct and great influences on users general satisfaction degrees, which has a strong positive correlation influences on users continuance. This paper also finds that improving the four quality indexes of “Key to Improve” region can effectively enhance users satisfaction and the willingness to use social Q&A; platforms continuously. This paper also gives suggestions on bettering the quality of answers on social Q&A; platforms.
Key words social Q&A; platform; answer quality; user satisfaction model
1 引言
社會問答平臺(Social Q&A; Platform,SQA)又被稱為社會問答社區或者問答平臺等,目前對其還沒有一個統一的標準定義。 Shah[1]從用戶服務的角度將其定義為一種提供用戶使用自然語言表達信息需求的方式;一個提供參與者滿足用戶需求的平臺和一個構建包含鼓勵參與的社區。同時,Shah也從用戶、內容和技術三個角度來定義當前社會問答平臺研究的相關領域。從用戶角度出發,用戶的分類[2-5]、專家發現[6-9]和用戶動機[10-13]是其研究的重點。從技術角度出發,其研究的重點包括數據挖掘技術[14-16]、問題自動生成[17-18]以及答案的自動摘要[19-20]。而以內容為核心的研究主要分為兩個層面,首先是基于問題的相關研究,包括問題的分類[21-23]、檢索[24-26]和推薦[27-29];其次是基于答案的研究,其重點包括付費型問答平臺答案質量的研究[30-31]和基于文本與非文本特征的答案質量評價研究[32-35]。
本課題小組在文獻[36]中研究了社會問答平臺答案質量績效感知與重要性期望感知之間的差異,運用重要性—績效性分析方法,對答案質量績效感知與重要性期望感知差異性進行分析,以每個維度的績效感知質量與期望感知質量的平均值為橫、縱坐標值,以所有維度績效感知質量與期望感知質量的平均值為分割線,將十三個維度分為四個象限,即“繼續保持”區域、“重點改善”區域、“毋需優先”區域和“過度表現”區域(見表1)。其中,“重點改善”區域的“專業性、權威性、客觀公正、完整性”四個指標是本文研究的重點,其突出特點是用戶的期望感知較高,而社會問答平臺答案質量的實際答案質量較低。這種期望質量與績效感知質量的差異不一致性,僅能表明社會問答平臺的答案質量尚不能滿足用戶的信息需求,還有較大的提升空間,但“重點改善”區域相關指標的改善是否能夠提高用戶的滿意度,是否能夠激勵用戶持續使用社會問答平臺的信息資源是本文重點研究的目的。
表1 答案質量的“四個象限”特征與指標
2 概念模型的構建
本文主要采用的是中國用戶滿意度指數模型——CCSI模型,融合了用戶的“期望感知質量”和“績效感知質量”,構建社會問答平臺答案質量“重點改善”區域指標的用戶滿意度概念模型。首先采用“期望不一致”的顧客滿意度測量模型,將用戶期望的信息質量(即重要性期望感知)與感知的信息質量(績效感知)進行對比,同時考慮到用戶獲取答案的成本因素,引入感知價值,并考慮用戶對當前社會問答平臺答案質量的總體滿意程度,以及用戶是否會繼續使用社會問答平臺作為信息源來獲取知識,因此引入總體質量滿意度和用戶忠誠兩個隱性變量。基于“重點改善”區域的用戶滿意度概念模型的構成要素主要有[37-38]:
(1)用戶感知質量,即績效感知質量。績效感知是指信息用戶在使用社會問答平臺過程中或者使用后對其答案質量的感知與判斷,他是決定用戶對社會問答平臺答案質量滿意程度的一個十分重要的因素,感知質量作為內生潛在變量無法直接測量,本文以“重點改善”的四個指標為觀測變量來衡量感知質量,故感知質量的觀測變量包括四個:社會問答平臺答案質量的專業性、權威性、客觀公正性和完整性。
(2)用戶期望質量,即重要性期望感知質量,指用戶根據自身的學習、科研需要和過去使用社會問答平臺的經歷,對其希望社會問答平臺答案質量所能達到的一種理想狀態的描述與認知。Oliver指出期望質量對用戶的滿意度產生直接的影響,主要是因為顧客總是習慣于一定的實際表現,而對這種習慣往往形成預期,成為滿意度的評價標準。它包括兩個方面:一是用戶根據自身需求,希望能滿足需求而對質量的期望;二是用戶根據過去的使用經驗而產生的質量期望。重要性期望感知質量作為內生潛在變量無法直接測量,本文以“重點改善”的四個指標為觀測變量來衡量感知質量,故感知質量的觀測變量包括四個:社會問答平臺答案質量的專業性期望質量、權威性期望質量、客觀公正期望質量和完整性期望質量。
(3)感知價值。感知價值表示用戶所獲得的信息資源質量相對于其花費的成本的比值。本研究主要對象是獲取社會問答平臺答案信息資源的用戶,其花費的主要成本是付出的努力成本,包括時間和精力。因此本文的感知價值的觀測變量包括兩個:相對于所獲取的信息資源質量的努力成本(感知價值一)和相對于努力成本所獲取的信息資源質量(感知價值二)。
(4)用戶滿意度。用戶的滿意度主要是指用戶在使用社會問答平臺中的相關信息資源后對其整體的滿意度進行評價。用戶滿意度作為潛在內生變量,其測量的指標主要包括三個方面,即用戶對信息資源質量總體的滿意程度、相對于用戶信息需求的滿意度和相對于用戶期望的滿意度。
(5)持續使用。持續使用是指用戶在結合對社會問答平臺信息源質量滿意度認知的基礎上決定是否繼續使用社會問答平臺中的信息資源,用戶持續使用意愿受用戶總體滿意度的直接影響。持續使用作為潛在內生變量,其測量的主要指標包括兩個方面:第一是用戶是否還會繼續使用社會問答平臺來滿足自身的信息需求;第二是當用戶滿足自身信息需求所花費的時間和精力增加時,是否還繼續使用該社會問答平臺。
本文主要是使用結構方程模型的方法,通過驗證性因素分析來研究“重點改善”區域的相關指標對用戶對社會問答平臺答案質量的滿意度感知與持續使用意愿的影響(見圖1)。其中矩形方框代表的是觀測變量,橢圓形代表潛在內生變量,且潛在變量之間由加粗有向線表示二者之間的因果關系,假設潛在變量之間存在正向的因果關系。
3 模型驗證
本文以社會問答平臺使用者為研究對象,問卷調查包括三個方面:第一,根據用戶近三個月使用社會問答平臺的經歷,對答案質量進行評價;第二,根據用戶學習和科研情況,對社會問答平臺答案質量的期望進行評價;第三,根據用戶使用社會問答平臺的經歷,對其答案質量以及總體感知進行評價。
3.1 感知質量與期望質量的信度和效度檢驗
通過上述研究表明,“專業性”“權威性”“客觀公正性”和“完整性”是社會問答平臺重點改善的要點,基于這四種測量指標構建用戶滿意度模型的感知質量與期望質量的測量指標。為了保證該測量工具的有效性,在進行正式調查前對感知質量與期望質量的信度和效度進行檢驗(見表2),本文采用預調查的方式,前期共發放問卷100份,回收有效問卷86份。
從檢驗數據可知,感知質量與期望質量的Cronbach α值均大于0.7,且各題項的項已刪除Cronbach α值小于總體值,說明變量之間具有良好的一致性。將感知質量與期望質量做一個因子分析,對其KMO值設定一個大于0.7的標準,提取一個共同因素的因素負荷量,因素負荷量的值越大表示題項與共同因素間的關系愈密切,可以得到各變量的因子負荷量均大于0.45的結果(見表3),說明變量之間具有一致性,通過效度檢驗。因此感知質量與期望質量的信度和效度滿足要求。
3.2 數據描述
后期數據的收集主要通過調查問卷的形式進行獲取,其中紙質問卷200份,共收回195份,有效問卷186份;網絡問卷315份,收回283份,有效問卷數268份,獲得總問卷數為454份,有效率為88.2%。調查對象在學科的分布上較為平均,其中文科背景的被調查者235人,理科背景的219人各占總數的51.8%和48.2%;在知識層次上,本科學生的數量與碩士及碩士以上的人數基本相等,各占總數的53.5%和46.5%。且被調查的用戶超過50%使用社會問答平臺的年限在兩年以上。由此可以得出,被調查者對于社會問答平臺答案質量的評價能在一定程度上反映用戶對資源質量的認知。
3.3 數據的信度與效度檢驗
在對全部問卷數據進行分析之前,需要對總體數據進行信度和效度檢驗,量表只有通過了信度和效度檢驗,其所測數據才具有可靠性和有效性。信度指問卷具有穩定性和一致性,本研究利用SPSS19.0軟件對問卷內容的15個觀測變量分組進行內在一致性分析,內在一致性分析往往用Cronbach α值來衡量。每組的Cronbach α值均大于0.7,說明變量具有良好的內部一致性(見表4)。
表4 每組觀測變量的信度檢驗
在效度檢驗中,本研究主要采用建構效度,即因子分析法進行效度檢驗。在進行因子分析前先計算兩組變量的KMO值,以確定樣本是否進行因子分析。KMO檢驗值為0.912,大于給定的0.7的標準,表明其兩組數據適合進行因子分析。
成本矩陣中顯示了提取一個共同因素的因素負荷量,因素負荷量的值越大表示題項與共同因素間的關系愈密切,各變量的因子負荷量大于0.45,說明變量之間具有一致性,通過效度檢驗(見表5)。
表5 成分矩陣
3.4 模型檢驗
本文采用結構方程模型(Structural Equation Modeling, SEM)對上文的概念模型進行驗證,SEM是一種理論模型檢定的統計方法,用來檢定關于觀測變量和潛變量之間假設關系的一種多重變量統計的實證分析方法,即以所收集的數據來檢定基于理論所建立的假設模型。利用AMOS7.0構建基于“重點區域”相關指標的用戶滿意度的概念模型圖,經過多次修正模型最終得到通過驗證的概念模型圖(見圖2)。
(1)模型適配度檢驗。由圖2右下方整體模型適配度描述可知,該模型的卡方值為88.771,P=0.87>0.05,未達到顯著水平,接受虛無假設,表示理論模型和實際觀察數據相適配。但是卡方值易受到樣本數大小的影響,因此也考察其他適配度的統計量(見表6)。由表中數據可知指標均達到適配標準,因此可以認定該模型可以很好的擬合樣本數據。
(2)模型標準化路徑系數分析。圖2中的數值表示的是潛在變量間以及潛在變量與觀測變量的標準化回歸系數。潛在變量之間的標準化回歸系數表示變量間的相關關系,數值的大小表示因變量對果變量的影響因素大小,本文在概念模型構建階段的假設,即潛在變量之間的因果關系假設成立。潛在變量與觀測變量的標準化回歸系數為因素負荷量,因素負荷量的平方值為潛在變量對觀測變量的解釋變異量,因素負荷量越大,表示潛在變量的觀測變量的個別信任度較好。圖中15個觀測變量對其潛在變量的因素負荷量均在0.61~0.97之間,表示觀測變量能較好地反映潛在變量的特征。
4 模型數據分析
本文在文獻[36]的基礎上,以社會問答平臺答案質量“重點改善”區域的四個相關指標為基礎,研究用戶對社會問答平臺答案質量的期望感知和績效感知與用戶的總體滿意度以及持續使用的相關關系。通過圖2用戶滿意度模型的標準化系數圖以及變量間的相關關系可知:
(1)用戶期望感知質量作為外生潛在變量,對績效感知質量、感知價值和用戶滿意度有著直接的影響關系。用戶期望感知質量對績效感知質量的影響(0.373)大于對感知價值(0.232)和用戶滿意度(0.151)的影響。原因在于用戶衡量績效感知質量時,習慣于用期望質量與其相比較,因此對其影響較大。感知價值受到期望感知質量和績效感知質量的影響,而后者(0.622)對感知價值的影響要明顯大于前者(0.232)。感知價值的觀測變量包括相對于花費成本所獲得答案的質量和相對于獲得答案的質量所花費的成本,兩者都是將花費的成本與實際獲得的答案質量即績效感知質量進行比較,因此績效感知質量相對于期望質量對其影響度更大。
(2)用戶滿意度受到期望質量、績效質量和感知價值三個潛在變量的影響。感知價值(0.486)對用戶滿意度的影響高于績效感知質量(0.402)和期望質量(0.151),表明在質量滿意度的方面,用戶更加傾向于從價值的角度去衡量,同時問答平臺答案質量的績效質量也是影響用戶最終滿意度的重要方面,其也通過對感知價值的影響來間接的影響用戶的總體滿意度。而期望質量對用戶滿意度也產生影響,但是影響效果有限,原因在于用戶對社會問答平臺答案質量的總體滿意度主要來源于問答平臺答案使用效果后的感知評價,而期望質量大多作為用戶感知答案質量的評價標準,因此其對總體滿意度影響相對較小。
(3)持續使用潛在變量受到滿意度潛在變量的直接影響,滿意度對待續使用的直接效果值為0.998,表明用戶對社會問答平臺的滿意程度決定了用戶是否會持續使用社會問答平臺的信息資源,用戶的滿意度越大,持續使用社會問答平臺信息源的可能性也就越高。對于持續使用變量的兩個觀測變量,即用戶是否會繼續使用社會問答平臺以滿足自身信息需求(持續使用一)和用戶所花費的成本增加時用戶是否還會繼續使用該信息資源,從兩者路徑系數的因素負荷量來看,用戶會持續使用社會問答平臺信息資源來滿足自身的信息需求,但是當所花費的時間和精力出現變化時,用戶繼續使用該信息資源的意愿就會有所變化。
5 討論與建議
(1)本文以“重點改善”區域的四個指標為期望感知質量與績效感知質量的觀測變量,來研究這些指標與用戶對社會問答平臺的滿意度以及是否會持續使用該信息資源的相關關系。通過上面分析得出,用戶對社會問答平臺答案質量的期望價值與績效感知價值之間存在差異,且這種不一致性也對用戶關于問答平臺的總體滿意度產生直接性的影響,而滿意度的大小在很大程度上決定了用戶是否會繼續使用社會問答平臺的信息資源。說明提高“重點改善”區域的相關指標一方面對于滿足用戶對相關質量標準的期望具有十分重要的作用,同時通過改善相關指標來提升用戶對社會問答平臺的總體滿意度以及將這些滿意度轉化為用戶持續使用該信息資源的動力具有十分重要的意義。
(2)用戶持續使用社會問答對社會問答平臺答案質量的滿意度受到用戶期望質量、績效感知質量和感知價值三者的正向影響。其中用戶的感知價值與用戶的績效感知質量是影響用戶滿意度最重要的兩個潛在變量。這種顯著的影響關系為提高用戶的滿意度提供了相關的思路。第一,著重提高社會問答平臺答案質量,特別要重視“重點改善”區域相關指標的改善,從而提高用戶的滿意度,促使用戶持續使用社會問答平臺資源;第二,優化社會問答平臺的用戶服務與用戶體驗,節省用戶使用社會問答平臺資源的時間和精力,提高用戶獲得高質量信息的性價比,從而提供用戶滿意度,間接影響用戶持續使用的意愿,同時持續使用潛在變量的“持續使用二”觀測變量,也表明了當用戶在只用社會問答平臺所花費的成本變化時,其使用意愿也會發生相應的變化。
參考文獻:
[1] Shah C,Oh S,Oh J S.Research agenda for social Q&A;[J].Library & Information Science Research, 2009,31(4):205-209.
[2] 毛波,尤雯雯. 虛擬社區成員分類模型[J].清華大學學報(自然科學版)2006(S1):1069-1073.
[3] 王偉軍,甘春梅.Web2.0信息資源管理[M].北京:科學出版社,2011.
[4] 張中峰,李秋丹.社區問答系統研究綜述[J].計算機科學,2010,37(11):19-23.
[5] Gazan R.Seekers,sloths and social reference:Homework questions submitted to a question-answering community[J]. New Review of Hypermedia and Multimedia, 2007, 13(2): 239-248.
[6] Chen L,Nayak R. Expertise analysis in a question answer portal for author ranking[C].Web Intelligence and Intelligent Agent Technology, 2008. WI-IAT'08. IEEE/WIC/ACM International Conference on.IEEE,2008:134-140.
[7] Jurczyk P,Agichtein E.Discovering authorities in question answer communities by using link analysis[C].Proceedings of the sixteenth ACM conference on Conference on information and knowledge management.ACM,2007:919-922.
[8] Jurczyk P,Agichtein E.Hits on question answer portals:exploration of link analysis for author ranking[C].Proceedings of the 30th annual international ACM SIGIR conference on Research and development in information retrieval. ACM, 2007: 845-846.
[9] Zhou G,Lai S,Liu K,et al.Topic-sensitive probabilistic model for expert finding in question answer communities[C].Proceedings of the 21st ACM international conference on Information and knowledge management. ACM, 2012: 1662-1666.
[10] Raban D R. Self‐presentation and the value of information in Q&A; websites[J]. Journal of the American society for information science and technology, 2009, 60(12): 2465-2473.
[11] Raban D,Harper F. Motivations for answering questions online[J].New media and innovative technologies, 2008, 73.
[12] Nam K K,Ackerman M S, Adamic L A. Questions in, knowledge in?:a study of naver's question answering community[C].Proceedings of the SIGCHI conference on human factors in computing systems. ACM, 2009: 779-788.
[13] Oh S.The characteristics and motivations of health answerers for sharing information, knowledge, and experiences in online environments[J]. Journal of the American Society for Information Science and Technology, 2012, 63(3): 543-557.
[14] 王寶勛.面向網絡社區問答對的語義挖掘研究[D]. 哈爾濱:哈爾濱工業大學, 2013.
[15] Jeon J, Croft W B, Lee J H. Finding similar questions in large question and answer archives[C].CIKM 05. New York, NY, USA: ACM, 2005:84-90.
[16] Soricut R, Brill E. Automatic question answering using the web: Beyond theFactoid[J].Inf. Retr., 2006, 9(2):191–206.
[17] Ignatova K,Bernhard D, Gurevych I.Generating high quality questions from low quality questions[C].Proceedings of the Workshop on the Question Generation Shared Task and Evaluation Challenge,(NSF, Arlington, VA).2008.
[18] Zhao S,Wang H,Li C,et al. Automatically Generating Questions from Queries for Community-based Question Answering[C].IJCNLP,2011:929-937.
[19] Liu Y,Li S,Cao Y,et al. Understanding and summarizing answers in community-based question answering services[C].Proceedings of the 22nd International Conference on Computational Linguistics-Volume 1. Association for Computational Linguistics,2008:497-504.
[20] Tomasoni M, Huang M. Metadata-aware measures for answer summarization in community Question Answering[C].Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics. Association for Computational Linguistics, 2010:760-769.
[21] Ignatova K,Toprak C,Bernhard D,et al. Annotating question types in social Q&A; sites[C].Tagungsband des GSCL Symposiums ‘Sprachtechnologie und eHumanities,2009:44-49.
[22] Harper F M,Weinberg J,Logie J,et al.Question types in social Q&A; sites[J].First Monday,2010,15(7).
[23] Pomerantz J.A linguistic analysis of question taxonomies[J].Journal of the American Society for Information Science and
Technology,2005, 56(7):715-728.
[24] Wu H,Wu W,Zhou M,etc.Improving search relevance for short queries in community question answering[C].Proceedings of the 7th ACM international conference on Web search and data mining.ACM,2014:43-52.
[25] Cao X,Cong G,Cui B,et al.The use of categorization information in language models for question retrieval[C].Proceedings of the 18th ACM conference on Information and knowledge management.ACM,2009:265-274.
[26] Ji Z,Xu F,Wang B.A category-integrated language model for question retrieval in community question answering[M].Information Retrieval Technology. Springer Berlin Heidelberg, 2012: 14-25.
[27] Xu F,Ji Z,Wang B.Dual role model for question recommendation in community question answering[C].Proceedings of the 35th international ACM SIGIR conference on Research and development in information retrieval. ACM, 2012:771-780.
[28] Guo J,Xu S,Bao S,et al.Tapping on the potential of q&a; community by recommending answer providers[C].Proceedings of the 17th ACM conference on Information and knowledge management.ACM,2008:921-930.
[29] Zhou T C,Lyu M R,King I.A classification-based approach to question routing in community question answering[C].Proceedings of the 21st international conference companion on World Wide Web.ACM,2012:783-790.
[30] Chen Y, HO T H U A, KIM Y M I.Knowledge market design:A field experiment at Google Answers[J].Journal of Public Economic Theory, 2010, 12(4): 641-664.
[31] Jeon G Y J,Kim Y M,Chen Y.Re-examining price as a predictor of answer quality in an online Q&A; site[C].Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. ACM,2010:325-328.
[32] Zhu Z,Bernhard D,Gurevych I.A Multi-Dimensional model for assessing the quality of answers in social Q&A; sites[J].Technische Universit?覿t Ukp Lab,2009:264-265.
[33] Jeon J, Croft W B, Lee J H, et al. A framework to predict the quality of answers with non-textual f eatures[C].Proceedings of the 29th annual international ACM SIGIR conference on Research and development in information retrieval.ACM,2006: 228-235.
[34] Agichtein E,Castillo C,Donato D, et al. Finding high-quality content in social media[C].Proceedings of the 2008 International Conference on Web Search and Data Mining.ACM,2008:183-194.
[35] Shah C,Pomerantz J.Evaluating and predicting answer quality in community QA[C].Proceedings of the 33rd international ACM SIGIR conference on Research and development in information retrieval.ACM,2010:411-418.
[36] Luo Y,Li X,Jiang Y.Research on Cognition of Answer Quality of Social Q&A; Sites Based on Analysis of Perceptions of User Expectations[J].Geomatics and Information Science of Wuhan University,2014,39(10):72-77.
[37] 莫祖英, 馬費成. 數據庫信息資源內容質量用戶滿意度模型及實證研究[J].中國圖書館學報,2013 (2):85-97.
[38] 廖穎林. 顧客滿意度指數測評方法及其應用研究[M].上海:上海財經大學出版社,2008.