[摘 要]智慧館員問(wèn)答服務(wù)系統(tǒng)的研究與開(kāi)發(fā),旨在通過(guò)融合先進(jìn)的通義千問(wèn)大模型,提升圖書(shū)館信息服務(wù)的質(zhì)量和效率。研究發(fā)現(xiàn),利用人工智能大模型不僅能迅速響應(yīng)用戶(hù)提出的常規(guī)查詢(xún),還能有效處理復(fù)雜的多步驟問(wèn)題,引導(dǎo)用戶(hù)逐步獲取所需信息。為了優(yōu)化系統(tǒng)性能,尤其針對(duì)高并發(fā)請(qǐng)求和資源利用問(wèn)題,研究提出了一種云計(jì)算與本地計(jì)算相結(jié)合的彈性部署策略,這不僅降低了硬件投入成本,還增強(qiáng)了系統(tǒng)的靈活性和擴(kuò)展能力,以此為智慧館員問(wèn)答服務(wù)系統(tǒng)的推廣提供可持續(xù)性支持。此外,對(duì)于模型與數(shù)據(jù)的對(duì)接,需要根據(jù)數(shù)據(jù)的不同特點(diǎn)嚴(yán)格區(qū)分,選擇微調(diào)、外接知識(shí)庫(kù)或設(shè)置系統(tǒng)消息等不同的方式進(jìn)行,降低模型的運(yùn)維成本并提高模型的可靠性。同時(shí),研究強(qiáng)調(diào)了知識(shí)庫(kù)建設(shè)的重要性,倡導(dǎo)全校各學(xué)院和部門(mén)積極參與知識(shí)庫(kù)建設(shè),以確保知識(shí)庫(kù)的持續(xù)完善,滿(mǎn)足師生在學(xué)習(xí)和研究中的個(gè)性化需求,減少模型的機(jī)器幻覺(jué)。通過(guò)不斷測(cè)試與優(yōu)化,智慧館員問(wèn)答服務(wù)系統(tǒng)有望在未來(lái)實(shí)現(xiàn)更加智能化的服務(wù),為用戶(hù)提供更加個(gè)性化的體驗(yàn)。
[關(guān)鍵詞]通義千問(wèn)大模型 智慧館員 教育信息化建設(shè) 圖書(shū)館服務(wù) 數(shù)字化轉(zhuǎn)型
[中圖法分類(lèi)號(hào)]G258. 6;TP391 [文獻(xiàn)標(biāo)識(shí)碼]A [文章編號(hào)]1003-7845(2024)06-0058-10
[引用本文格式]徐鴻,宋涵,蔣蓮.基于通義千問(wèn)大模型的智慧館員問(wèn)答服務(wù)系統(tǒng)研究[J].高校圖書(shū)館工作, 2024(6):58-67.
本文系云南開(kāi)放大學(xué)科研基金資助項(xiàng)目“聊天生成預(yù)訓(xùn)練轉(zhuǎn)化器應(yīng)用智慧圖書(shū)館服務(wù)研究”(項(xiàng)目編號(hào):23YNOU32)的研究成果之一。
引言
自然語(yǔ)言處理(Natural Language Processing, NLP)是計(jì)算機(jī)科學(xué)與人工智能領(lǐng)域研究人類(lèi)語(yǔ)言與計(jì)算機(jī)交互的一門(mén)子學(xué)科,一直以來(lái)都是人工智能研究的熱點(diǎn)。2022年11月30日,OpenAI團(tuán)隊(duì)發(fā)布了一款由人工智能驅(qū)動(dòng)和自然語(yǔ)言處理工具實(shí)現(xiàn)的系統(tǒng)———ChatGPT ,基于GPT ( Generative Pretrained Transformer)的大語(yǔ)言模型(Large Language Model,LLM)可用于各類(lèi)對(duì)話(huà)式應(yīng)用,隨后大語(yǔ)言模型成為增長(zhǎng)速度最快的應(yīng)用模型之一[1-2]。
基于LLM的人工智能產(chǎn)品擁有卓越的語(yǔ)言生成和模擬對(duì)話(huà)能力,將其多樣、準(zhǔn)確的內(nèi)容運(yùn)用到圖書(shū)館智能問(wèn)答服務(wù)系統(tǒng)中,可以為讀者提供高效、個(gè)性化的服務(wù)。基于LLM的智能問(wèn)答系統(tǒng)能夠與圖書(shū)館用戶(hù)進(jìn)行交互式對(duì)話(huà),快速解答用戶(hù)的問(wèn)題、指導(dǎo)用戶(hù)操作等,在即時(shí)滿(mǎn)足用戶(hù)需求的同時(shí),也能向用戶(hù)推薦相關(guān)資源、提供個(gè)性化服務(wù)[3]。
LLM在計(jì)算機(jī)科學(xué)領(lǐng)域取得了顯著進(jìn)展,但在其他行業(yè)中的推廣應(yīng)用仍較為緩慢。除了廣受關(guān)注的“機(jī)器幻覺(jué)”問(wèn)題,即模型可能生成不符合現(xiàn)實(shí)或邏輯錯(cuò)誤的內(nèi)容,高昂的建設(shè)和運(yùn)維成本同樣是制約其廣泛應(yīng)用的關(guān)鍵因素。2022年11月以來(lái),大語(yǔ)言模型發(fā)展迅速,從最初的ChatGPT版本進(jìn)化至更先進(jìn)的ChatGPT4. 0版本。同時(shí),阿里云的Qwen模型亦升級(jí)到Qwen2. 5版本。這些模型不僅在語(yǔ)言處理能力上有所提升,還朝著多模態(tài)方向邁進(jìn)。
硬件技術(shù)方面同樣取得了顯著進(jìn)步,從初期對(duì)高性能圖形處理器(GPU)的高度依賴(lài),發(fā)展到現(xiàn)在通過(guò)軟件優(yōu)化使中央處理器(CPU)也能承擔(dān)部分計(jì)算任務(wù),盡管這在一定程度上犧牲了效率。更進(jìn)一步地,專(zhuān)為特定任務(wù)設(shè)計(jì)的神經(jīng)網(wǎng)絡(luò)處理器(NPU)等新型計(jì)算單元的出現(xiàn),標(biāo)志著大語(yǔ)言模型計(jì)算架構(gòu)正朝著專(zhuān)業(yè)化、高效化方向發(fā)展。這些硬件與技術(shù)的迭代升級(jí),不僅體現(xiàn)了大語(yǔ)言模型正處于快速發(fā)展的階段,也預(yù)示著未來(lái)語(yǔ)言模型的部署和使用將更加便利,成本有望進(jìn)一步降低。
然而,即便如此,當(dāng)前在特定領(lǐng)域建設(shè)應(yīng)用大語(yǔ)言模型時(shí),投資者和開(kāi)發(fā)者仍普遍面臨投入與產(chǎn)出不成比例的風(fēng)險(xiǎn),擔(dān)心高昂的初期投資無(wú)法帶來(lái)預(yù)期的經(jīng)濟(jì)回報(bào),從而導(dǎo)致資源的浪費(fèi)。這種擔(dān)憂(yōu)限制了大語(yǔ)言模型在非計(jì)算機(jī)科學(xué)領(lǐng)域的應(yīng)用,但也激發(fā)了研究者與工程師不斷探索降低模型成本、提高效率的新方法,以期在未來(lái)能夠更廣泛地利用這些先進(jìn)技術(shù)成果,助力更多行業(yè)的智能化轉(zhuǎn)型與發(fā)展。
目前,信息系統(tǒng)已經(jīng)開(kāi)始運(yùn)用大語(yǔ)言模型進(jìn)行深度學(xué)習(xí)和大規(guī)模數(shù)據(jù)訓(xùn)練,能夠處理和理解自然語(yǔ)言,使人類(lèi)操作員能夠更好地與其交互。例如,在配置管理、故障排除、監(jiān)控和報(bào)警處理等方面,大語(yǔ)言模型可以接收自然語(yǔ)言形式的任務(wù)指令,并執(zhí)行相應(yīng)的操作。大語(yǔ)言模型的學(xué)習(xí)能力使其在提供常見(jiàn)問(wèn)題的解決策略和最佳做法方面具有潛力。它可以從過(guò)去的運(yùn)維記錄中學(xué)習(xí)并預(yù)測(cè)潛在的系統(tǒng)問(wèn)題和故障,進(jìn)而主動(dòng)采取措施預(yù)防問(wèn)題的發(fā)生,這種預(yù)防性的自動(dòng)化運(yùn)維方式可以顯著提高系統(tǒng)的穩(wěn)定性和可用性。
然而,大語(yǔ)言模型在自動(dòng)化運(yùn)維領(lǐng)域的應(yīng)用也面臨挑戰(zhàn)。模型的訓(xùn)練需要大量的高質(zhì)量數(shù)據(jù),而在實(shí)際的運(yùn)維場(chǎng)景中,獲取和標(biāo)注高質(zhì)量數(shù)據(jù)是一個(gè)復(fù)雜的過(guò)程。此外,模型的可解釋性也是一個(gè)需要解決的難題,以確保在發(fā)生故障或錯(cuò)誤時(shí),相關(guān)的運(yùn)維決策可以被正確地追蹤和解釋。
為了更有效地解決上述問(wèn)題,研究者們?cè)O(shè)計(jì)了基于微調(diào)大模型與知識(shí)增強(qiáng)框架的故障分析系統(tǒng),它通過(guò)大語(yǔ)言模型的低階適應(yīng)(Low-Rank Adaptation of Language Models, LoRA)和知識(shí)數(shù)據(jù)的微調(diào)方法,在大模型的基礎(chǔ)上進(jìn)行細(xì)致調(diào)整,從而使模型更好地理解和處理與故障分析相關(guān)的專(zhuān)業(yè)術(shù)語(yǔ)和概念[4]。
本文通過(guò)采用通義千問(wèn)Qwen2. 5-14B模型與Ollama框架實(shí)現(xiàn)了低成本的模型本地化部署。在此基礎(chǔ)上,利用云南開(kāi)放大學(xué)圖書(shū)館的相關(guān)數(shù)據(jù)對(duì)模型進(jìn)行微調(diào),并通過(guò)LangChain框架將模型與云南開(kāi)放大學(xué)圖書(shū)館的知識(shí)庫(kù)相連接,成功構(gòu)建了云南開(kāi)放大學(xué)圖書(shū)館智慧館員問(wèn)答服務(wù)系統(tǒng)。該系統(tǒng)作為將大語(yǔ)言模型應(yīng)用于云南開(kāi)放大學(xué)圖書(shū)館智慧圖書(shū)館建設(shè)的初步嘗試,旨在探索國(guó)產(chǎn)大語(yǔ)言模型在智慧圖書(shū)館建設(shè)中的應(yīng)用要點(diǎn)及合理的實(shí)施方案,提出切實(shí)可行的建議,同時(shí)為大語(yǔ)言模型在其他領(lǐng)域的應(yīng)用提供有價(jià)值的參考案例。
1 基于通義千問(wèn)大模型的智慧館員問(wèn)答服務(wù)系統(tǒng)解決的主要問(wèn)題
Law D.曾言:“社會(huì)不需要圖書(shū)館,我們需要的是獲取信息。”[5]可見(jiàn),在數(shù)字化時(shí)代,人們并非停止了閱讀,而是更多地采取了碎片化的方式獲取信息。借助百度、Bing等搜索引擎以及各類(lèi)論壇,用戶(hù)能夠迅速地獲取所需信息。在這種模式下,用戶(hù)只需提出問(wèn)題并點(diǎn)擊確認(rèn),即可獲得答案。鑒于此,智慧館員問(wèn)答服務(wù)系統(tǒng)的開(kāi)發(fā)旨在通過(guò)智能化手段減少圖書(shū)館的人力負(fù)擔(dān),在數(shù)字時(shí)代背景下顯著提升圖書(shū)館工作人員信息獲取效率。該系統(tǒng)不僅能夠簡(jiǎn)化用戶(hù)的查詢(xún)流程,提高信息檢索的速度和準(zhǔn)確性,還能夠通過(guò)持續(xù)學(xué)習(xí)和優(yōu)化,更好地滿(mǎn)足用戶(hù)日益增長(zhǎng)的信息需求[6-7]。
隨著時(shí)代的演進(jìn),高校經(jīng)歷了學(xué)校合并、新校區(qū)建設(shè)、招生擴(kuò)張等一系列變革,高職高專(zhuān)院校亦通過(guò)多種途徑培養(yǎng)和引進(jìn)人才、建強(qiáng)師資隊(duì)伍,以改善辦學(xué)條件和提高教學(xué)質(zhì)量。然而,在這一系列的發(fā)展與壯大的過(guò)程中,絕大多數(shù)高校的圖書(shū)館卻未能隨之?dāng)U充人力資源,反而出現(xiàn)了人員規(guī)模的縮減現(xiàn)象。編內(nèi)及編外人員的總體數(shù)量不足,工作人員呈現(xiàn)老齡化趨勢(shì),這些問(wèn)題在高校圖書(shū)館中尤為明顯。與此同時(shí),數(shù)字時(shí)代的到來(lái)深刻改變了師生的閱讀習(xí)慣,他們對(duì)紙質(zhì)圖書(shū)的依賴(lài)程度逐漸降低。據(jù)統(tǒng)計(jì),近年來(lái)特別是過(guò)去3年里,紙質(zhì)圖書(shū)的借閱量呈現(xiàn)出急劇下降的趨勢(shì),部分高校的借閱量已降至歷史峰值的一半甚至三分之一[8]。值得注意的是,即便在這樣的趨勢(shì)下,借閱量較高的書(shū)籍仍集中在哲學(xué)、歷史、文學(xué)等領(lǐng)域。這種變化不僅表明了師生閱讀行為的新趨勢(shì),也揭示了圖書(shū)館現(xiàn)有的館藏發(fā)展策略可能已不再適應(yīng)當(dāng)前的需求。同時(shí),圖書(shū)館工作人員的短缺,不僅影響了服務(wù)質(zhì)量,也限制了圖書(shū)館在面對(duì)數(shù)字時(shí)代挑戰(zhàn)時(shí)的應(yīng)對(duì)能力。因此,如何在新的時(shí)代背景下調(diào)整圖書(shū)館的服務(wù)模式、提升服務(wù)質(zhì)量,成為一個(gè)亟待解決的問(wèn)題。
將大語(yǔ)言模型運(yùn)用于智慧圖書(shū)館的建設(shè),正是為了應(yīng)對(duì)這些挑戰(zhàn)而采取的措施,圖書(shū)館通過(guò)技術(shù)創(chuàng)新提升服務(wù)效率與質(zhì)量,更好地服務(wù)廣大師生。在正式建設(shè)智慧館員問(wèn)答服務(wù)系統(tǒng)前,對(duì)智慧館員問(wèn)答服務(wù)系統(tǒng)的功能需求進(jìn)行調(diào)研是十分重要的環(huán)節(jié)。云南開(kāi)放大學(xué)圖書(shū)館基于本館的實(shí)際業(yè)務(wù),以每年開(kāi)展的新生入館教育為契機(jī)進(jìn)行需求調(diào)研。研究團(tuán)隊(duì)對(duì)云南開(kāi)放大學(xué)多個(gè)學(xué)院的調(diào)研發(fā)現(xiàn),用戶(hù)普遍缺乏對(duì)圖書(shū)館的數(shù)字資源及數(shù)字圖書(shū)館的了解。同時(shí),針對(duì)學(xué)生的調(diào)研結(jié)果顯示,學(xué)生對(duì)自修室閱覽室的開(kāi)放時(shí)間、電腦的使用方法、各類(lèi)圖書(shū)的具體位置等存在較多疑問(wèn)。通過(guò)調(diào)研,我們了解到師生對(duì)智慧館員問(wèn)答服務(wù)系統(tǒng)的期望與需求。
據(jù)此,智慧館員問(wèn)答服務(wù)系統(tǒng)應(yīng)當(dāng)具備以下基本功能:第一,圖書(shū)館基本信息介紹。智慧館員問(wèn)答服務(wù)系統(tǒng)應(yīng)能夠迅速回應(yīng)師生關(guān)于圖書(shū)館基本信息的查詢(xún),如“圖書(shū)館共有多少圖書(shū)?”等問(wèn)題,提供詳細(xì)的館藏信息,包括圖書(shū)總數(shù)、分類(lèi)等詳情。第二,書(shū)籍的精確查詢(xún)。智慧館員問(wèn)答服務(wù)系統(tǒng)需根據(jù)師生輸入的圖書(shū)名稱(chēng),快速準(zhǔn)確地提供圖書(shū)的位置及編號(hào)信息,幫助用戶(hù)快速定位所需圖書(shū)。第三,數(shù)字資源及數(shù)字網(wǎng)站的介紹與說(shuō)明。針對(duì)師生提出的關(guān)于數(shù)字資源使用的問(wèn)題,智慧館員問(wèn)答服務(wù)系統(tǒng)應(yīng)能夠提供詳盡的介紹和操作指南,確保用戶(hù)能夠順利訪問(wèn)和利用數(shù)字圖書(shū)館的各類(lèi)資源。第四,知識(shí)信息咨詢(xún)服務(wù)。當(dāng)師生提出專(zhuān)業(yè)領(lǐng)域的知識(shí)問(wèn)題時(shí),智慧館員問(wèn)答服務(wù)系統(tǒng)應(yīng)能夠提供相關(guān)文本內(nèi)容、代碼或文案,甚至基于現(xiàn)有知識(shí)資源生成新的知識(shí)內(nèi)容,為用戶(hù)提供有價(jià)值的學(xué)術(shù)支持。第五,學(xué)科問(wèn)題快速解答。智慧館員問(wèn)答服務(wù)系統(tǒng)須具備對(duì)師生提出的學(xué)科問(wèn)題進(jìn)行語(yǔ)義和內(nèi)容分析的能力,并利用已訓(xùn)練的學(xué)科數(shù)據(jù)模型準(zhǔn)確且及時(shí)地進(jìn)行知識(shí)解答,滿(mǎn)足用戶(hù)學(xué)術(shù)研究和學(xué)習(xí)的需求。
智慧館員問(wèn)答服務(wù)系統(tǒng)的設(shè)計(jì)目標(biāo)是優(yōu)化用戶(hù)體驗(yàn),確保師生在使用過(guò)程中能夠獲得流暢、愉悅的人機(jī)交互體驗(yàn),通過(guò)智能化和人性化的技術(shù)手段,為師生創(chuàng)造輕松、高效的信息交流環(huán)境。該系統(tǒng)應(yīng)當(dāng)追求卓越的人機(jī)對(duì)話(huà)質(zhì)量,精準(zhǔn)響應(yīng)師生的各種查詢(xún)與咨詢(xún)需求,通過(guò)高效、自然的對(duì)話(huà)模式,滿(mǎn)足用戶(hù)的信息獲取需求,極大提升系統(tǒng)操作的便捷性和滿(mǎn)意度。
2 基于通義千問(wèn)大模型的智慧館員問(wèn)答服務(wù)系統(tǒng)的設(shè)計(jì)
2. 1 系統(tǒng)架構(gòu)設(shè)計(jì)
為了確保模型既經(jīng)濟(jì)實(shí)惠又能有效解決上述問(wèn)題,研究在構(gòu)建智慧館員問(wèn)答服務(wù)系統(tǒng)時(shí)基于調(diào)研和硬件成本選擇了開(kāi)源的通義千問(wèn)Qwen2. 5-14B模型。相較于ChatGPT等國(guó)外模型,通義千問(wèn)作為一款國(guó)產(chǎn)開(kāi)源的大模型在理解中文方面具有獨(dú)特的優(yōu)勢(shì)。在微調(diào)訓(xùn)練和二次開(kāi)發(fā)過(guò)程中,通義千問(wèn)能夠更好地處理中文內(nèi)容,避免了一句話(huà)中夾雜中英文的現(xiàn)象,確保了語(yǔ)言表達(dá)的自然流暢。智慧館員問(wèn)答服務(wù)系統(tǒng)架構(gòu)可劃分為4個(gè)層次,即數(shù)據(jù)層、邏輯層、計(jì)算層和應(yīng)用層,如圖1所示。

(1)數(shù)據(jù)層。數(shù)據(jù)層主要包括圖書(shū)館的核心數(shù)據(jù),例如圖書(shū)館館藏?cái)?shù)據(jù)、學(xué)科數(shù)據(jù)集、用戶(hù)問(wèn)答資料以及圖書(shū)館基礎(chǔ)信息等。其中按原始數(shù)據(jù)存儲(chǔ)來(lái)源可分為數(shù)據(jù)庫(kù)數(shù)據(jù)、文本數(shù)據(jù)。數(shù)據(jù)層需要將LangChain框架和LLaMA-Factory框架等作為橋梁鏈接計(jì)算層,讓計(jì)算參數(shù)傳遞到計(jì)算層,使模型可以從數(shù)據(jù)層獲取所需的元數(shù)據(jù),以更加適應(yīng)云南開(kāi)放大學(xué)圖書(shū)館的實(shí)際應(yīng)用場(chǎng)景。
(2)邏輯層。邏輯層是智慧館員問(wèn)答服務(wù)系統(tǒng)的中樞,主要依靠通義千問(wèn)大模型提供的相關(guān)算法解析用戶(hù)所提出的問(wèn)題。同時(shí)還有知識(shí)圖譜,用于存儲(chǔ)圖書(shū)館相關(guān)的實(shí)體、概念及其關(guān)系,以提高系統(tǒng)對(duì)問(wèn)題的理解以及生成答案的精確度。另外,規(guī)則引擎包含了圖書(shū)館業(yè)務(wù)規(guī)則和邏輯,用于處理師生提出的相關(guān)問(wèn)題,確保回答的一致性和準(zhǔn)確性。
(3)計(jì)算層。計(jì)算層是智慧館員問(wèn)答服務(wù)系統(tǒng)的業(yè)務(wù)處理中心,其中心任務(wù)是由通義千問(wèn)大模型提供的自然語(yǔ)言處理功能完成的。首先,它對(duì)師生輸入的自然語(yǔ)言進(jìn)行預(yù)處理,包括分詞、詞性標(biāo)注和命名實(shí)體識(shí)別等,以更準(zhǔn)確地理解查詢(xún)意圖。然后,利用通義千問(wèn)大模型理解和生成自然語(yǔ)言,以應(yīng)對(duì)復(fù)雜的問(wèn)題并給出相應(yīng)的答案。此外,在推理與決策階段,系統(tǒng)會(huì)依據(jù)上下文和知識(shí)庫(kù)中的信息作出合理推測(cè)和決定,以提供最合適的答案或建議。
(4)應(yīng)用層。應(yīng)用層旨在提供一個(gè)直觀的操作界面,使師生能夠輕松地與智慧館員問(wèn)答服務(wù)系統(tǒng)進(jìn)行交互。這一層基于B/ S結(jié)構(gòu),使用Gradio快速搭建頁(yè)面布局和基礎(chǔ)系統(tǒng)功能。應(yīng)用層主要包括用戶(hù)界面和結(jié)果展示兩部分,用戶(hù)界面提供了一個(gè)良好的交互環(huán)境,允許用戶(hù)輸入查詢(xún)信息;結(jié)果展示則將系統(tǒng)獲取的信息格式化處理后,以文本的形式呈現(xiàn)。
2. 2 用戶(hù)問(wèn)答流程設(shè)計(jì)
基于通義千問(wèn)大模型的智慧館員問(wèn)答服務(wù)系統(tǒng)的問(wèn)答流程設(shè)計(jì)如圖2所示。該設(shè)計(jì)充分考慮了師生對(duì)系統(tǒng)的需求,旨在提供更加精準(zhǔn)、高效的問(wèn)答服務(wù)。首先,系統(tǒng)會(huì)對(duì)師生輸入的問(wèn)題進(jìn)行細(xì)致解析,利用大模型識(shí)別問(wèn)題的類(lèi)型及用戶(hù)的潛在意圖,這一過(guò)程是后續(xù)準(zhǔn)確響應(yīng)用戶(hù)需求的基礎(chǔ)。接下來(lái),在請(qǐng)求處理階段,后端將接收的來(lái)自前端的問(wèn)題文本與識(shí)別出的信息一同交到模型調(diào)用階段。

在模型調(diào)用階段,經(jīng)過(guò)預(yù)處理的問(wèn)題被提交給通義千問(wèn)大模型,此時(shí)需要利用模型對(duì)預(yù)處理的信息與問(wèn)題本身進(jìn)行結(jié)合處理。例如,圖書(shū)館基本信息以及一些管理規(guī)定、知識(shí)信息咨詢(xún)服務(wù)等數(shù)據(jù)已經(jīng)被微調(diào)進(jìn)入模型,若問(wèn)題與上述主題相關(guān),則可以直接由模型進(jìn)行回答。若問(wèn)題是書(shū)籍精確查詢(xún),則需要利用LangChain框架將自然語(yǔ)言問(wèn)題轉(zhuǎn)換為SQL查詢(xún)語(yǔ)句,利用SQL查詢(xún)獲取所需數(shù)據(jù)。若問(wèn)題涉及數(shù)字資源及數(shù)字網(wǎng)站的介紹與說(shuō)明、學(xué)科服務(wù),則通過(guò)LangChain框架鏈接知識(shí)庫(kù)進(jìn)行檢索,將檢索到的相關(guān)信息與原始問(wèn)題結(jié)合,以生成更加精確的答案。這種內(nèi)外結(jié)合的方式可以大大提高答案的相關(guān)性和準(zhǔn)確性,使得系統(tǒng)能夠更好地滿(mǎn)足師生的查詢(xún)需求。
在響應(yīng)生成環(huán)節(jié),通義千問(wèn)模型會(huì)根據(jù)輸入的信息和檢索到的數(shù)據(jù)生成最終的答案。為了確保答案的質(zhì)量,系統(tǒng)會(huì)對(duì)模型的輸出進(jìn)行后處理,包括清理冗余信息和格式化答案,確保最終呈現(xiàn)給用戶(hù)的信息既清晰又準(zhǔn)確。
2. 3 系統(tǒng)的實(shí)現(xiàn)
為了相對(duì)有效地評(píng)估大模型部署所需的硬件需求,尋找合適的建設(shè)方式,項(xiàng)目組對(duì)智慧館員問(wèn)答服務(wù)系統(tǒng)進(jìn)行了如下嘗試。
2. 3. 1 環(huán)境搭建與依賴(lài)管理
為確保智慧館員問(wèn)答服務(wù)系統(tǒng)的順暢運(yùn)行,智慧館員問(wèn)答服務(wù)系統(tǒng)搭建了工作站。工作站具體配置包括16GB的顯存、32GB的內(nèi)存、1TB的硬盤(pán)、擁有16個(gè)核心的中央處理器( CPU)、具備超過(guò)15TFlops的單精度計(jì)算能力。同時(shí),防火墻已開(kāi)放80端口以支持Web應(yīng)用程序的訪問(wèn)。該硬件設(shè)備可以重復(fù)應(yīng)用于其他人工智能研究。
在系統(tǒng)開(kāi)發(fā)環(huán)境中,智慧館員問(wèn)答服務(wù)系統(tǒng)采用了Ubuntu22. 04操作系統(tǒng),并與PyTorch深度學(xué)習(xí)框架結(jié)合。整個(gè)開(kāi)發(fā)過(guò)程均使用Python 3. 10語(yǔ)言進(jìn)行編寫(xiě)。此外,還安裝了諸如Ollama在內(nèi)的必要工具,以及Torch、Transformers、LangChain、LangChain-community和Gradio等在內(nèi)的必備Python庫(kù)。
2. 3. 2 模型的下載與微調(diào)
(1)微調(diào)數(shù)據(jù)準(zhǔn)備。智慧館員問(wèn)答服務(wù)系統(tǒng)運(yùn)用的模型是從GitHub的模型倉(cāng)庫(kù)下載的通義千問(wèn)大模型,數(shù)據(jù)選取從阿里云模型倉(cāng)庫(kù)下載的權(quán)重文件。本次微調(diào)訓(xùn)練意在加強(qiáng)模型解決數(shù)學(xué)問(wèn)題的能力,選取了由DeepMind和GoogleResearch聯(lián)合創(chuàng)建的數(shù)據(jù)集,MathQA包含了許多數(shù)學(xué)子領(lǐng)域,包括但不限于算術(shù)、代數(shù)、幾何、概率、微積分等,以及云南開(kāi)放大學(xué)圖書(shū)館管理辦法及規(guī)定等文件。之后按照LLaMA-Factory所要求的格式對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,將MathQA數(shù)據(jù)集進(jìn)行格式轉(zhuǎn)換,將云南開(kāi)放大學(xué)圖書(shū)館管理辦法及規(guī)定文件進(jìn)行拆解,將數(shù)據(jù)統(tǒng)一為json格式。
(2)模型微調(diào)。通過(guò)LLaMA-Factory使用訓(xùn)練命令對(duì)準(zhǔn)備好的數(shù)據(jù)集進(jìn)行訓(xùn)練,其中需要注意cutoff_len參數(shù),它控制訓(xùn)練數(shù)據(jù)的最大長(zhǎng)度,使用者需要根據(jù)內(nèi)存情況進(jìn)行調(diào)整,避免內(nèi)存溢出。同時(shí)在訓(xùn)練過(guò)程中要及時(shí)進(jìn)行驗(yàn)證,如果驗(yàn)證數(shù)據(jù)集的性能不再提高,則需要終止訓(xùn)練,避免出現(xiàn)過(guò)度擬合。訓(xùn)練初次嘗試使用工作站,訓(xùn)練20小時(shí)后最終失敗,后經(jīng)核驗(yàn)發(fā)現(xiàn)微調(diào)通義千問(wèn)大模型至少需要18. 7G的顯存,因此額外租用了24小時(shí)的云服務(wù)器進(jìn)行微調(diào)。
2. 3. 3 模型部署
為了確保模型具有較高的運(yùn)行效率,提高模型加載速度,并簡(jiǎn)化部署流程,需要對(duì)微調(diào)好的模型進(jìn)行量化處理。利用Ollama框架對(duì)量化后的模型進(jìn)行部署,通過(guò)細(xì)致的參數(shù)配置來(lái)提高模型生成文本的質(zhì)量。這些參數(shù)主要包括文本創(chuàng)造性、核采樣以及重復(fù)懲罰等。具體而言,文本創(chuàng)造性參數(shù)用于調(diào)控模型生成內(nèi)容的新穎性和多樣性;核采樣參數(shù)設(shè)置則是通過(guò)設(shè)定一個(gè)概率閾值,來(lái)確定從輸出分布中抽取候選詞匯時(shí)所占的比例;重復(fù)懲罰參數(shù)的作用在于減少模型輸出中重復(fù)詞匯或短語(yǔ)的出現(xiàn)次數(shù)。當(dāng)這些參數(shù)被合理設(shè)置后,即可加載經(jīng)過(guò)微調(diào)和量化的模型,使其更加貼合特定任務(wù)的需求。這種方法不僅保證了模型能夠生成高質(zhì)量的文本,也有效避免了諸如過(guò)度重復(fù)或創(chuàng)意不足等常見(jiàn)的生成問(wèn)題。在本系統(tǒng)中,還降低了模型的創(chuàng)造性設(shè)置,以確保輸出內(nèi)容的準(zhǔn)確性和可靠性。
2. 3. 4 知識(shí)庫(kù)集成
為了實(shí)現(xiàn)對(duì)書(shū)籍、數(shù)字資源及網(wǎng)站信息的查詢(xún),以及對(duì)學(xué)科問(wèn)題的快速解答,構(gòu)建一個(gè)高效的知識(shí)庫(kù)和連接這些資源的橋梁至關(guān)重要。主要方法是利用LangChain框架鏈接知識(shí)庫(kù)或數(shù)據(jù)庫(kù)進(jìn)行檢索(見(jiàn)圖3)。這一過(guò)程首先需要將相關(guān)信息文檔化,并借助LangChain框架內(nèi)的DocumentLoader組件來(lái)加載圖書(shū)館的各種文檔資料。此外,通過(guò)使用QuerySQLDatabaseTool進(jìn)行數(shù)據(jù)庫(kù)查詢(xún),進(jìn)一步增強(qiáng)系統(tǒng)的功能。通過(guò)這樣的配置,系統(tǒng)不僅能夠鏈接到外部數(shù)據(jù)庫(kù)或知識(shí)庫(kù),還能讓用戶(hù)進(jìn)行高效的查詢(xún)操作,從而顯著提升圖書(shū)館的服務(wù)效率和用戶(hù)的使用體驗(yàn)。

2. 3. 5 用戶(hù)交互實(shí)現(xiàn)
使用Gradio庫(kù),定義應(yīng)用的核心功能,即處理用戶(hù)輸入和響應(yīng)輸出的邏輯。首先,構(gòu)建Gradio界面,該界面包含一個(gè)清晰的文本輸入框(用戶(hù)可以在此輸入信息)和一個(gè)輸出區(qū)域(用于展示應(yīng)用的響應(yīng))。其次,優(yōu)化界面布局,確保用戶(hù)界面的流暢性和易用性。最后,啟動(dòng)應(yīng)用,用戶(hù)便可通過(guò)瀏覽器訪問(wèn),實(shí)現(xiàn)與系統(tǒng)的高效互動(dòng)。通過(guò)這種方式, Gradio簡(jiǎn)化了前端界面的開(kāi)發(fā)過(guò)程,讓系統(tǒng)能夠更加專(zhuān)注核心邏輯的實(shí)現(xiàn)。
3 系統(tǒng)的測(cè)用
3. 1 系統(tǒng)的典型測(cè)試
通過(guò)上述步驟,基于通義千問(wèn)大模型的智慧館員問(wèn)答服務(wù)系統(tǒng)得以完成,系統(tǒng)能夠穩(wěn)定運(yùn)行。項(xiàng)目組成功部署并邀請(qǐng)師生進(jìn)行測(cè)試,部分問(wèn)題的問(wèn)答如表1所示。

3. 2 系統(tǒng)測(cè)試中的主要問(wèn)題
3. 2. 1 難以消除的“機(jī)器幻覺(jué)”
在系統(tǒng)測(cè)試過(guò)程中,依然遇到了難以徹底消除的“機(jī)器幻覺(jué)”問(wèn)題(見(jiàn)表2)。例如,當(dāng)師生詢(xún)問(wèn)圖書(shū)館的相關(guān)介紹時(shí),系統(tǒng)初始的回答可能是準(zhǔn)確的。然而,再進(jìn)一步提問(wèn),模型出現(xiàn)了“機(jī)器幻覺(jué)”,盡管當(dāng)前的知識(shí)庫(kù)未明確提供這些問(wèn)題的具體答案,系統(tǒng)依然生成了看似合理的但實(shí)際上是錯(cuò)誤或過(guò)時(shí)的描述。這可能是因?yàn)橄到y(tǒng)中已經(jīng)含有某些信息,導(dǎo)致其在處理新問(wèn)題時(shí),傾向于利用這些已有的但可能不完全準(zhǔn)確的知識(shí)來(lái)生成答案,從而產(chǎn)生了幻覺(jué)現(xiàn)象。
如表2的問(wèn)題1與問(wèn)題2在所提供的知識(shí)庫(kù)中有較為全面的資料,智慧館員問(wèn)答服務(wù)系統(tǒng)提供了相對(duì)可靠的回答。但在回答問(wèn)題3時(shí),“綜合服務(wù)區(qū)或前臺(tái)工作人員”“嘗試查找學(xué)校官方網(wǎng)站上的聯(lián)系方式或直接發(fā)送郵件至學(xué)校的公共郵箱詢(xún)問(wèn)具體的聯(lián)絡(luò)方式和時(shí)間安排”等內(nèi)容均未存在于知識(shí)庫(kù)中,這部分生成的回答與事實(shí)并不相符。云南開(kāi)放大學(xué)圖書(shū)館并未設(shè)立綜合服務(wù)區(qū),聯(lián)系方式在學(xué)校二級(jí)網(wǎng)站可查詢(xún),但未設(shè)立公共郵箱。所以該部分內(nèi)容均為“機(jī)器幻覺(jué)”。
幻覺(jué)產(chǎn)生的主要原因是模型訓(xùn)練初期,會(huì)對(duì)大量的數(shù)據(jù)進(jìn)行訓(xùn)練。而生成式人工智能的工作機(jī)制,本質(zhì)上是依據(jù)上文內(nèi)容按照概率及可能性來(lái)生成后續(xù)內(nèi)容。對(duì)于外部知識(shí)庫(kù)未明確說(shuō)明而邏輯上應(yīng)當(dāng)具有的部分信息,智慧館員問(wèn)答服務(wù)系統(tǒng)會(huì)自動(dòng)依據(jù)邏輯進(jìn)行補(bǔ)充。

3. 2. 2 并發(fā)用戶(hù)數(shù)量影響系統(tǒng)的運(yùn)行效率
在實(shí)際應(yīng)用過(guò)程中,當(dāng)并發(fā)用戶(hù)數(shù)量維持在3人至5人,并且所提出的查詢(xún)屬于直接性問(wèn)題———無(wú)須外部數(shù)據(jù)源支持即可解答的問(wèn)題時(shí),該系統(tǒng)能夠在10秒內(nèi)高效地生成約200字的回答,體現(xiàn)了其在小規(guī)模并發(fā)場(chǎng)景下的快速響應(yīng)能力和良好的用戶(hù)體驗(yàn)。
然而,隨著并發(fā)用戶(hù)數(shù)量的增加,特別是當(dāng)并發(fā)用戶(hù)數(shù)量超過(guò)5人,或者用戶(hù)的查詢(xún)涉及復(fù)雜的數(shù)據(jù)檢索與分析任務(wù)需訪問(wèn)特定的數(shù)據(jù)庫(kù)或知識(shí)庫(kù)時(shí),模型的響應(yīng)時(shí)間將顯著延長(zhǎng),最長(zhǎng)可達(dá)近3分鐘。這種延遲不僅影響了系統(tǒng)的整體效率,也會(huì)降低用戶(hù)體驗(yàn)。特別是在實(shí)時(shí)互動(dòng)要求較高的應(yīng)用場(chǎng)景下,過(guò)長(zhǎng)的等待時(shí)間可能會(huì)導(dǎo)致用戶(hù)滿(mǎn)意度下降,進(jìn)而影響系統(tǒng)的長(zhǎng)期使用率和用戶(hù)黏性。
產(chǎn)生以上現(xiàn)象的主要原因是算力不足,當(dāng)用戶(hù)提出問(wèn)題系統(tǒng)可以直接回答時(shí),僅需要1次針對(duì)模型本身的推演計(jì)算。而當(dāng)模型不可以直接回答時(shí),則需要先訪問(wèn)知識(shí)庫(kù),針對(duì)問(wèn)題將文本庫(kù)中的文本內(nèi)容向量化后進(jìn)行查詢(xún),再將查詢(xún)到的內(nèi)容連同問(wèn)題交給模型推演生成回答。數(shù)據(jù)庫(kù)查詢(xún)是先將問(wèn)題交由模型進(jìn)行轉(zhuǎn)義,將問(wèn)題變成數(shù)據(jù)庫(kù)查詢(xún),再將查詢(xún)結(jié)果與問(wèn)題一同交給模型進(jìn)行推演生成。所以通過(guò)知識(shí)庫(kù)或數(shù)據(jù)庫(kù)得到結(jié)果需要進(jìn)行多次推演計(jì)算。如果需要大模型流暢運(yùn)行,則需要較高的算力支撐,當(dāng)算力不足時(shí)模型很難維持高效運(yùn)轉(zhuǎn)。
3. 2. 3 缺乏高質(zhì)量的知識(shí)庫(kù)
在本次系統(tǒng)測(cè)試中,所使用知識(shí)庫(kù)及微調(diào)數(shù)據(jù)的局限性也有所體現(xiàn)(見(jiàn)表3)。作為圖書(shū)館,我們所服務(wù)的學(xué)科領(lǐng)域極為廣泛,這意味著我們必須構(gòu)建一個(gè)涵蓋各個(gè)學(xué)科的高質(zhì)量知識(shí)庫(kù)。然而,本次知識(shí)庫(kù)建設(shè)完全依賴(lài)館內(nèi)自行整理,參與整理工作的人員專(zhuān)業(yè)背景差異大,知識(shí)儲(chǔ)備和專(zhuān)業(yè)視角各不相同,這直接影響了最終知識(shí)庫(kù)的質(zhì)量,使得系統(tǒng)未能達(dá)到預(yù)期的理想效果。

從表2中問(wèn)題3的回答可以看出,知識(shí)庫(kù)的邏輯完善性會(huì)直接影響系統(tǒng)輸出的質(zhì)量。再如表3所示,提問(wèn)“教師立德樹(shù)人應(yīng)該做什么?”時(shí),知識(shí)庫(kù)誤將“立德樹(shù)人”理解為“樹(shù)人立德”,而在智慧館員問(wèn)答服務(wù)系統(tǒng)的回答中存在“立德樹(shù)人”與“樹(shù)人立德”2種表述。可以看出知識(shí)庫(kù)的可靠性會(huì)直接影響智慧館員問(wèn)答服務(wù)系統(tǒng)回答的準(zhǔn)確性。
3. 3 問(wèn)題的解決方案
3. 3. 1 優(yōu)化智慧館員問(wèn)答服務(wù)系統(tǒng)的部署
智慧館員問(wèn)答服務(wù)系統(tǒng)應(yīng)用過(guò)程中,研究團(tuán)隊(duì)發(fā)現(xiàn)除了集中邀請(qǐng)師生參與測(cè)試時(shí)會(huì)出現(xiàn)短暫的高并發(fā),大多數(shù)時(shí)間用戶(hù)的使用率并不高。學(xué)生反饋顯示,除了咨詢(xún)圖書(shū)館相關(guān)的問(wèn)題,智慧館員問(wèn)答服務(wù)系統(tǒng)在其他問(wèn)題上的表現(xiàn)不如通義千問(wèn)與Kimi等免費(fèi)模型。因此,在實(shí)際部署時(shí),我們需要充分考慮智慧館員問(wèn)答服務(wù)系統(tǒng)前期的使用率,特別是在系統(tǒng)尚未全面推廣作為師生助手的情況下。
通過(guò)現(xiàn)階段的應(yīng)用可知,智慧館員問(wèn)答服務(wù)系統(tǒng)需要保持本校讀者的黏性,首要的就是保持模型推演的高效性。當(dāng)下建設(shè)一個(gè)完全本地化的大模型,成本是巨大的,在如此高昂的GPU運(yùn)行成本下,新的軟硬件技術(shù)層出不窮,模型本地化運(yùn)行的成本不斷降低,如本研究所采用的Ollama框架,就大大降低了模型的部署難度。因此部署高效的大模型需要較為合理的模式,既要確保模型的可用性,也要控制建設(shè)成本。基于實(shí)驗(yàn)結(jié)果,我們提出云計(jì)算結(jié)合本地計(jì)算的彈性部署策略,即當(dāng)問(wèn)題可直接回答且并發(fā)請(qǐng)求較少時(shí),由本地系統(tǒng)處理模型推演;而在訪問(wèn)知識(shí)庫(kù)或面臨高并發(fā)請(qǐng)求需要進(jìn)一步擴(kuò)充算力時(shí),則采用按Token計(jì)費(fèi)的云計(jì)算服務(wù),這樣既能保證服務(wù)質(zhì)量,又能有效降低硬件建設(shè)的成本。同時(shí)對(duì)于學(xué)校整體而言,應(yīng)當(dāng)化整為零,采用微服務(wù)的方式,各個(gè)部門(mén)根據(jù)實(shí)際情況計(jì)算算力需求,進(jìn)行彈性控制。通過(guò)這種方式,圖書(shū)館在智慧館員問(wèn)答服務(wù)系統(tǒng)的應(yīng)用階段可以以較低的成本進(jìn)行測(cè)試,尋找本地化與云計(jì)算結(jié)合部署的平衡點(diǎn)。
3. 3. 2 推進(jìn)高校機(jī)構(gòu)知識(shí)庫(kù)的建設(shè)
根據(jù)應(yīng)用中出現(xiàn)的問(wèn)題可知,通過(guò)微調(diào)訓(xùn)練的模型可以符合某一領(lǐng)域的推理使用需求,但其精度不足以支撐更高的應(yīng)用需求。從智慧館員問(wèn)答服務(wù)系統(tǒng)出現(xiàn)的“機(jī)器幻覺(jué)”可以看出,通過(guò)微調(diào)可以改變及完善邏輯,但無(wú)法校驗(yàn)回答的準(zhǔn)確性。而從鏈接知識(shí)庫(kù)與數(shù)據(jù)庫(kù)的智慧館員問(wèn)答服務(wù)系統(tǒng)的回答來(lái)看,知識(shí)庫(kù)數(shù)據(jù)的準(zhǔn)確性、邏輯的完善性會(huì)直接影響智能生成的結(jié)果。因此,若要增強(qiáng)本校讀者的黏性,圖書(shū)館就需要針對(duì)本校的資源建設(shè)自己的機(jī)構(gòu)知識(shí)庫(kù),讓本校師生有更好的使用體驗(yàn)。
機(jī)構(gòu)知識(shí)庫(kù)的資源一般包括機(jī)構(gòu)成員的學(xué)術(shù)論文、研究報(bào)告、教學(xué)資料、會(huì)議記錄、專(zhuān)利文檔、多媒體資源等數(shù)字化成果,能為機(jī)構(gòu)的科研與決策提供助力。全校各學(xué)院和部門(mén)應(yīng)當(dāng)共同參與學(xué)科知識(shí)庫(kù)的建設(shè),合力構(gòu)建高質(zhì)量的知識(shí)庫(kù),為智慧館員問(wèn)答服務(wù)系統(tǒng)提供高效、準(zhǔn)確的信息支持,以此消除“機(jī)器幻覺(jué)”。此外,各個(gè)部門(mén)應(yīng)當(dāng)根據(jù)自己的職能整理自己的知識(shí)庫(kù),最終匯聚成一個(gè)大的機(jī)構(gòu)知識(shí)庫(kù)。例如,圖書(shū)館在采購(gòu)圖書(shū)時(shí),不能僅收集書(shū)目信息,應(yīng)當(dāng)連同圖書(shū)介紹一同獲取。基于完備的數(shù)據(jù),智能館員問(wèn)答服務(wù)系統(tǒng)才可以準(zhǔn)確回答與圖書(shū)相關(guān)的問(wèn)題。再者,圖書(shū)館工作人員應(yīng)當(dāng)聯(lián)合教務(wù)工作人員將教師使用的教材與教案數(shù)字化后納入知識(shí)庫(kù),形成專(zhuān)門(mén)的主題模塊,以滿(mǎn)足學(xué)生的學(xué)習(xí)需求。擁有本校教材和教案的知識(shí)庫(kù),不僅可以提高智能館員問(wèn)答服務(wù)系統(tǒng)的性能和用戶(hù)體驗(yàn),還能促進(jìn)校園內(nèi)部的知識(shí)共享與交流,為師生提供更加便捷、高效的學(xué)習(xí)和研究工具,以此增加用戶(hù)的黏性。
此外,對(duì)于不同的數(shù)據(jù)使用場(chǎng)景我們也應(yīng)當(dāng)采取差異化的接入策略,根據(jù)數(shù)據(jù)的特點(diǎn)和用戶(hù)的實(shí)際需求,靈活選擇最合適的使用方式,以提高系統(tǒng)的效率和改善用戶(hù)體驗(yàn)。例如,針對(duì)強(qiáng)調(diào)數(shù)據(jù)真實(shí)性與權(quán)威性的場(chǎng)景,我們應(yīng)優(yōu)先選用真實(shí)可靠的數(shù)據(jù)源,并借助知識(shí)庫(kù)等方式進(jìn)行鏈接檢索;而對(duì)于側(cè)重邏輯推理與知識(shí)應(yīng)用的場(chǎng)景,我們可以采用微調(diào)模型參數(shù)的方式,在保障功能實(shí)現(xiàn)的同時(shí),簡(jiǎn)化了使用流程與后續(xù)維護(hù)工作。
4 智慧館員問(wèn)答服務(wù)系統(tǒng)的應(yīng)用意義
智慧館員問(wèn)答服務(wù)系統(tǒng)的應(yīng)用盡管存在部分問(wèn)題,但其仍具有重要意義。這一系統(tǒng)不僅能夠提供更加精準(zhǔn)和及時(shí)的信息服務(wù),還能有效提升圖書(shū)館的服務(wù)效率和用戶(hù)滿(mǎn)意度,同時(shí)促進(jìn)圖書(shū)館資源的有效利用和知識(shí)的傳播。通過(guò)不斷測(cè)試與優(yōu)化,智慧館員問(wèn)答服務(wù)系統(tǒng)有望在未來(lái)實(shí)現(xiàn)更加智能化的服務(wù),為用戶(hù)提供更加個(gè)性化的體驗(yàn)。
4. 1 提供更精確、快捷的圖書(shū)館信息服務(wù)
智慧館員問(wèn)答服務(wù)系統(tǒng)能根據(jù)用戶(hù)提問(wèn)快速生成答案,且具備一定的準(zhǔn)確度,這使得師生能夠迅速獲取所需的信息。無(wú)論是查詢(xún)圖書(shū)館的基本詳情,如開(kāi)館和閉館時(shí)間、座位預(yù)訂情況,還是查找特定書(shū)籍,甚至是尋求一些基礎(chǔ)的學(xué)術(shù)指導(dǎo),該系統(tǒng)都能提供及時(shí)的幫助。師生無(wú)須耗費(fèi)大量時(shí)間和精力去尋找資料或等待人工回復(fù),大幅提升了信息獲取的效率[9]。
通過(guò)建設(shè)智慧館員問(wèn)答服務(wù)系統(tǒng),圖書(shū)館的傳統(tǒng)服務(wù)模式得到了顯著改進(jìn)。系統(tǒng)不僅簡(jiǎn)化了師生獲取信息的過(guò)程,還使得圖書(shū)館的資源通過(guò)更高效的方式被充分利用起來(lái)。智慧館員問(wèn)答服務(wù)系統(tǒng)借助其優(yōu)秀的自然語(yǔ)言理解及綜合分析能力對(duì)文獻(xiàn)資料進(jìn)行總結(jié)分析,進(jìn)而為師生整合出綜述性的研究資料。哈佛大學(xué)圖書(shū)館將ChatGPT4. 0集成到自己的智能問(wèn)答系統(tǒng)中,該系統(tǒng)被師生視為數(shù)字助手和科研伙伴。也有學(xué)者運(yùn)用基于ChatGPT的虛擬館員智能問(wèn)答系統(tǒng)解決專(zhuān)業(yè)領(lǐng)域的學(xué)術(shù)問(wèn)題,系統(tǒng)不僅提供了20多種解決方案,還引入了新的統(tǒng)計(jì)術(shù)語(yǔ),有效地幫助解決了研究過(guò)程中的難題[10]。由此可見(jiàn),基于大語(yǔ)言模型的智慧館員問(wèn)答服務(wù)系統(tǒng)可以作為一種創(chuàng)新的研究輔助工具,幫助用戶(hù)快速檢索、匯集、處理和整理文獻(xiàn)資料,形成新穎的觀點(diǎn),并提供新的研究途徑,從而支持用戶(hù)的科研決策。
4. 2 提供多語(yǔ)言的文獻(xiàn)修改服務(wù)
智慧館員問(wèn)答服務(wù)系統(tǒng)對(duì)不同讀者的相同問(wèn)題,能夠提供多樣且高質(zhì)量的回答。系統(tǒng)具備龐大的語(yǔ)料庫(kù),覆蓋多種語(yǔ)言及多個(gè)學(xué)科領(lǐng)域,可根據(jù)讀者提問(wèn)的具體內(nèi)容采用相應(yīng)的語(yǔ)言回答,這些特性讓系統(tǒng)成為讀者強(qiáng)有力的寫(xiě)作輔助工具。例如,在2022年,計(jì)算生物學(xué)家Pividori M.和Greene C. S.[11]運(yùn)用基于大語(yǔ)言模型的虛擬館員智能問(wèn)答系統(tǒng)來(lái)改進(jìn)他們的研究文獻(xiàn),系統(tǒng)能在幾秒內(nèi)給出修改意見(jiàn),并在幾分鐘內(nèi)完成整篇文章的修訂,從而使文章結(jié)構(gòu)更加完整和緊湊,顯著減少作者修改文章的時(shí)間,讓他們能夠?qū)⒏嗟木ν度肫渌芯抗ぷ鳌?/p>
4. 3 提供專(zhuān)業(yè)的創(chuàng)作服務(wù)
智慧館員問(wèn)答服務(wù)系統(tǒng)能在多個(gè)領(lǐng)域?yàn)橛脩?hù)提供專(zhuān)業(yè)支持。比如,在計(jì)算機(jī)科學(xué)領(lǐng)域,它可以提供代碼示例幫助解決編程難題。當(dāng)然,該系統(tǒng)最突出的還是其強(qiáng)大的自然語(yǔ)言處理功能,系統(tǒng)能整合不同來(lái)源的學(xué)術(shù)文獻(xiàn)和語(yǔ)言資源,生成獨(dú)特的文本內(nèi)容,助力用戶(hù)輕松創(chuàng)建符合自身需求的語(yǔ)言文本。受1999年舊金山圖書(shū)館發(fā)起的“全國(guó)小說(shuō)寫(xiě)作月”活動(dòng)的啟發(fā),2013年網(wǎng)絡(luò)藝術(shù)家卡澤米在GitHub上發(fā)起“全國(guó)小說(shuō)生產(chǎn)月”活動(dòng),鼓勵(lì)參與者使用任何基于大語(yǔ)言模型的技術(shù)工具編寫(xiě)小說(shuō),哥倫比亞大學(xué)圖書(shū)館員和耶魯大學(xué)圖書(shū)館員使用智慧館員問(wèn)答服務(wù)系統(tǒng)創(chuàng)作的小說(shuō)在GitHub上發(fā)布后獲得了高點(diǎn)擊率和好評(píng),其他參與者使用大語(yǔ)言模型創(chuàng)作的文字內(nèi)容也公開(kāi)分享至GitHub,供所有人閱讀、評(píng)論和下載[12]。通過(guò)智慧館員問(wèn)答服務(wù)系統(tǒng),師生不僅能進(jìn)行自主學(xué)習(xí)和大量的閱讀,快捷地獲取信息,還能高效地創(chuàng)造出高質(zhì)量的作品,將自己的想法和創(chuàng)意轉(zhuǎn)化為語(yǔ)言文本。
5 結(jié)語(yǔ)
利用大語(yǔ)言模型對(duì)智慧館員問(wèn)答服務(wù)系統(tǒng)進(jìn)行開(kāi)發(fā)和應(yīng)用,體現(xiàn)了人工智能技術(shù)在提升圖書(shū)館服務(wù)質(zhì)量方面的巨大潛力。集成人工智能大模型不僅能高效解答用戶(hù)提出的多種問(wèn)題,還可以顯著提升圖書(shū)館信息檢索的準(zhǔn)確性和速度。為了應(yīng)對(duì)系統(tǒng)使用中的高并發(fā)請(qǐng)求和資源優(yōu)化問(wèn)題,研究提出了云計(jì)算與本地計(jì)算相結(jié)合的彈性部署策略。這種方法在保證服務(wù)質(zhì)量的同時(shí),降低了硬件投入成本,增強(qiáng)了系統(tǒng)的靈活性和擴(kuò)展性。此外,對(duì)圖書(shū)館管理規(guī)定等高頻訪問(wèn)信息,研究建議采用直接設(shè)定系統(tǒng)消息的方式,避免了頻繁微調(diào)模型所帶來(lái)的不便,簡(jiǎn)化了系統(tǒng)的維護(hù)流程。
基于大語(yǔ)言模型的智慧館員問(wèn)答服務(wù)系統(tǒng)的開(kāi)發(fā)與應(yīng)用,離不開(kāi)全校各學(xué)院和部門(mén)的積極參與和支持。需要全體師生共同參與提出學(xué)科知識(shí)庫(kù)的建設(shè)需求和建議,通過(guò)各院系合作來(lái)促進(jìn)知識(shí)庫(kù)的不斷完善,為系統(tǒng)提供豐富、高質(zhì)量的信息源。只有具備高質(zhì)量的數(shù)據(jù),才可以盡可能地消除“機(jī)器幻覺(jué)”。未來(lái),隨著人工智能技術(shù)的不斷進(jìn)步和應(yīng)用場(chǎng)景的拓展,智慧館員問(wèn)答服務(wù)系統(tǒng)有望在教育領(lǐng)域發(fā)揮更大的作用。我們將繼續(xù)探索如何優(yōu)化模型算法,提高系統(tǒng)的智能化水平,使其在更復(fù)雜的學(xué)術(shù)環(huán)境中展現(xiàn)更高的適應(yīng)性和實(shí)用性。同時(shí),還將深入研究用戶(hù)行為模式,以更好地理解用戶(hù)需求,為用戶(hù)提供更加個(gè)性化的信息服務(wù)。最終,智慧館員問(wèn)答服務(wù)系統(tǒng)將為教育信息化建設(shè)、知識(shí)的傳播與共享作出積極貢獻(xiàn)。
參 考 文 獻(xiàn)
[1] Feuerriegel S,Hartmann J,Janiesch C,et al. Generative AI[J]. Business Information Systems Engineering,2024(1):111-126.
[2] 張嘉寧,宋西貴. ChatGPT與圖書(shū)館的領(lǐng)域動(dòng)向[J].農(nóng)業(yè)圖書(shū)情報(bào)學(xué)報(bào),2023(8):19-29.
[3] 鄭世林,陶然,楊文博. ChatGPT等生成式人工智能技術(shù)對(duì)產(chǎn)業(yè)轉(zhuǎn)型升級(jí)的影響[J].產(chǎn)業(yè)經(jīng)濟(jì)評(píng)論,2024(1):5-20.
[4] 程思凡. ChatGPT知識(shí)生產(chǎn)框架、技術(shù)迷思與未來(lái)演進(jìn)[J].當(dāng)代傳播,2023(6):60-64.
[5] 數(shù)字時(shí)代的圖書(shū)館,還是以資源為王嗎? [EB/ OL]. [2024-09-17]. https:// mp. weixin. qq. com/ s/ HHg_TD0mwR4kCDrr e-6EhBA.
[6] 胡瀟戈,戚越,王玉琦,等.面向智能問(wèn)答的圖書(shū)館參考咨詢(xún)知識(shí)庫(kù)體系設(shè)計(jì)及構(gòu)建[J].圖書(shū)情報(bào)知識(shí),2019(5):101 -108,119.
[7] 李雪婷,李莘.圖書(shū)館微信平臺(tái)自動(dòng)問(wèn)答機(jī)器人語(yǔ)言體系研究[J].現(xiàn)代情報(bào),2016(10):99-101,122.
[8] 肖錚,吳至藝,林俊偉. 2007—2017年廈門(mén)大學(xué)圖書(shū)館紙質(zhì)文獻(xiàn)借閱記錄數(shù)據(jù)集[J].圖書(shū)館雜志,2020(6):113-117.
[9] 譚豐隆,陳婧,劉洋陽(yáng). ChatGPT與圖書(shū)館變革:雙重效應(yīng)、認(rèn)知變化與發(fā)展策略[J].圖書(shū)館論壇,2024(10):42-50.
[10] Stokel-Walker C,Van Noorden R. What ChatGPT and generative AI mean for science[J]. Nature,2023(7947):214-216.
[11] Pividori M,Greene C S. A publishing infrastructure for AI-assisted academic authoring[J]. Journal of the American Medical Informatics Association,2024(9):2103-2113.
[12]宋時(shí)磊.詩(shī)歌之后:國(guó)外人工智能小說(shuō)的創(chuàng)作探索[J].湖北社會(huì)科學(xué),2021(12):126-132.
Research on the Intelligent Librarian QA Service System Based on Tongyi Qianwen Large Language Model
Xu Hong1 Song Han2 Jiang Lian1
1. Yunnan Open University Library, Kunming, 650500 2. Yunnan Online Learning Cadre Academy of Yunnan Open University, Kunming, 650101
Abstract The research and development of the Intelligent Librarian QA Service System aims to enhance the quality and efficiency of library information services by integrating the advanced Tongyi Qianwen large language model (LLM). The study found that utilizing AI LLMs not only enables rapid responses to routine queries but also effectively handles complex multi-step problems, guiding users to obtain the information they need in stages. To optimize system performance, particularly for handling high-concurrency requests and resource utilization issues, the research proposes an elastic deployment strategy combining cloud computing and local computing. This approach reduces hardware investment costs while enhancing system flexibility and scalability, providing sustainable support for promoting the Intelligent Librarian QA Service System. Furthermore, for the integration of models and data, it is necessary to strictly differentiate based on the characteristics of the data and adopt different approaches such as fine-tuning, external knowledge base integration, or system message configuration. This reduces the operational costs of the models and enhances their reliability. The research also emphasizes the importance of constructing knowledge bases and advocates active participation from all colleges and departments within universities to ensure continuous improvement of the knowledge bases. This helps meet the personalized needs of faculty and students in learning and research while reducing model hallucinations. Through constant testing and optimization, the Intelligent Librarian QA Service System is expected to achieve more intelligent services in the future, providing users with more individualized experiences.
Keywords Tongyi Qianwen large language model; Intelligent librarian; Educational informatization construction; Library service; Digital transformation