摘要:作為人工智能技術(shù)發(fā)展的最新階段,生成式人工智能雖然在創(chuàng)造性、交互性和通用性等方面展現(xiàn)出不同于傳統(tǒng)人工智能的獨特性,但是它的創(chuàng)新應(yīng)用具有極高的不確定性,潛藏著巨大的倫理風(fēng)險,諸如傳播偏見和歧視、泄露隱私、制造虛假信息、操縱認(rèn)知和導(dǎo)致科研倫理失范等。筆者認(rèn)為應(yīng)在分析生成式人工智能倫理風(fēng)險的技術(shù)邏輯和社會建構(gòu)等根源的基礎(chǔ)上探尋生成式人工智能倫理風(fēng)險的防范之策,強化“增進人類福祉”的價值理念、增強技術(shù)可解釋性、健全倫理規(guī)制、加強企業(yè)自律和構(gòu)建風(fēng)險治理的全球合作機制等。
關(guān)鍵詞:生成式人工智能;倫理風(fēng)險;科技向善;科技倫理治理
DOI:10.16397/j.cnki.1671-1165.202501001開放科學(xué)(資源服務(wù))標(biāo)識碼(OSID):
基金項目:國家社會科學(xué)基金項目“基于中國語境的生成式人工智能倫理風(fēng)險研究”(24BZX108);江蘇省社會科學(xué)基金重點項目“生成式人工智能的倫理風(fēng)險及治理對策研究”(23ZXA001);江蘇高校哲學(xué)社會科學(xué)研究重大項目“江蘇省科技創(chuàng)新的倫理治理體系構(gòu)建研究”(2023SJZD114)。
隨著ChatGPT(Generative Pre-trained Transformer)等大模型社會應(yīng)用的日益廣泛,生成式人工智能(Generative Artificial Intelligence, GAI)的創(chuàng)新發(fā)展及社會影響越來越成為社會各界關(guān)注的熱點問題。2024年2月,OpenAI公司推出視頻生成模型Sora,該系統(tǒng)可以根據(jù)用戶的文本提示創(chuàng)建逼真視頻。①2025年1月,杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司推出DeepSeek系列大模型,更加引發(fā)全球?qū)ι墒饺斯ぶ悄艿膹V泛討論。“生成”意味著人工智能不僅可以做以往的判別式工作,還可形成新的生產(chǎn)力,其引發(fā)的科技革命和產(chǎn)業(yè)變革必將重塑世界經(jīng)濟、影響未來生活。②但是,生成式人工智能也可能帶來巨大的倫理風(fēng)險,需要我們進行必要的冷思考并探尋可能的風(fēng)險防范化解之策,以促進其向善發(fā)展、造福人類。
一、生成式人工智能的發(fā)展現(xiàn)狀與應(yīng)用特征
目前,人工智能主要分為判別式和生成式兩種模型,前者關(guān)注如何在給定輸入情況下預(yù)測輸出,通常更專注于類別邊界和決策面,使分類更精確,在特定任務(wù)上表現(xiàn)出色;而后者則關(guān)注如何模擬數(shù)據(jù)的生成過程,不僅可以進行分類或預(yù)測,而且能夠生成新的數(shù)據(jù)樣本,如文本、圖像、音頻和視頻等各種類型的數(shù)據(jù)①。也就是說,生成式人工智能能夠識別訓(xùn)練數(shù)據(jù)中的模式,學(xué)會預(yù)測、分類、提供個性化建議或幫助決策,它可以根據(jù)用戶的提示快速創(chuàng)建新內(nèi)容。②當(dāng)前,世界主要國家在生成式人工智能創(chuàng)新方面都取得了重要進展,中國將人工智能列為國家戰(zhàn)略并已經(jīng)成為全球人工智能創(chuàng)新的重要力量之一,在自然語言處理、計算機視覺、智能機器人等領(lǐng)域取得重要突破,不斷推動人工智能技術(shù)的創(chuàng)新發(fā)展,百度公司的“文心一言”和科大訊飛公司的“星火”等大語言模型產(chǎn)品快速迭代③,DeepSeek更是在全球范圍內(nèi)引發(fā)廣泛關(guān)注。總之,生成式人工智能被認(rèn)為是一種具有強大功能的創(chuàng)造力引擎,極大地鼓舞了人類對通用人工智能(Artificial General Intelligence,AGI)的憧憬,是人工智能創(chuàng)新領(lǐng)域的巨大躍遷,主要在以下方面展現(xiàn)出不同于傳統(tǒng)人工智能的獨特性。
第一,創(chuàng)造性。生成式模型是一種基于海量數(shù)據(jù)語料預(yù)訓(xùn)練的深度學(xué)習(xí)算法,可以通過學(xué)習(xí)大量數(shù)據(jù)來發(fā)現(xiàn)規(guī)律和模式,它不僅對已有數(shù)據(jù)進行分類或預(yù)測,而且具有更加強大的內(nèi)容生成能力,能夠適應(yīng)不同的數(shù)據(jù)分布和各種應(yīng)用場景,自主地產(chǎn)生文本、圖像、音樂、代碼、視頻以及其他創(chuàng)造性形式,其目標(biāo)是學(xué)習(xí)并模擬訓(xùn)練數(shù)據(jù)的分布,以便能夠生成類似但不完全相同的新穎性內(nèi)容,這使得它們更具靈活性,在創(chuàng)造性任務(wù)和內(nèi)容生成方面表現(xiàn)出色。例如,當(dāng)你向ChatGPT提出一個論點,它會生成一個起草得相當(dāng)好的段落,可以為你的研究奠定一定基礎(chǔ);如果你提出一個觀點,它可以提供相關(guān)的反駁觀點和論證內(nèi)容,這有助于人們擴展研究思路、提高科研效率④;當(dāng)用戶向Sora輸入一段文本,它可以據(jù)此在線迅速生成一段風(fēng)格獨特、最長為一分鐘的高清視頻。這種生成式模型可以與人類用戶協(xié)同創(chuàng)作,提供建議、補充內(nèi)容或與用戶共同生成文本、圖像和視頻等展現(xiàn)出較傳統(tǒng)人工智能更加強大的內(nèi)容生成能力和“創(chuàng)造性”。當(dāng)然,生成式人工智能雖然在創(chuàng)造性方面取得了進展,但它與人類創(chuàng)造力存在明顯差異,后者涉及復(fù)雜的情感、價值觀和理解等因素,可以脫離訓(xùn)練數(shù)據(jù)進行更自由和廣泛的創(chuàng)造,而前者則更多的是通過學(xué)習(xí)大量數(shù)據(jù)的統(tǒng)計規(guī)律來生成內(nèi)容,其創(chuàng)造性無疑會受到訓(xùn)練數(shù)據(jù)的限制。
第二,交互性。在自然語言處理領(lǐng)域,生成式人工智能被廣泛用于對話系統(tǒng),通過良好的用戶界面設(shè)計和用戶反饋機制來實現(xiàn)“交互性”,與用戶進行自然語言“交流”,回答問題、提供建議,或者生成連貫的對話,實現(xiàn)人與生成式模型之間的雙向互動過程,這種交互性可以在多個層面上體現(xiàn),具體取決于應(yīng)用場景和模型設(shè)計。例如,ChatGPT通過使用人類反饋強化學(xué)習(xí)方法將對話進行優(yōu)化,如果用戶提供風(fēng)格偏好或修改建議,模型會根據(jù)這些反饋調(diào)整生成的結(jié)果,改進模型的性能和效率。當(dāng)然,由于生成式人工智能并不具備人類那樣的自主意識和思維能力,必須是在外界的刺激后才能啟動類人智能模式,因而其“交互性”特征僅僅展現(xiàn)了對用戶的一種被動式回應(yīng),而且恰恰是人類輸入的內(nèi)容在很大程度上決定了生成式人工智能的產(chǎn)出,在人機交互過程中,生成式人工智能帶來的看似原創(chuàng)性的內(nèi)容,是在學(xué)習(xí)、分析和提煉無數(shù)個人類用戶創(chuàng)造的信息和數(shù)據(jù)的基礎(chǔ)上演繹而來,并不是與用戶進行互動時的一種即時性、主動性和創(chuàng)造性的結(jié)果。
第三,通用性。通用性是衡量一個模型對多樣化輸入的處理能力,以及在解決廣泛問題時的性能表現(xiàn)。生成式人工智能的通用性,一般指的是模型具有在多個任務(wù)、領(lǐng)域或數(shù)據(jù)分布上的適應(yīng)能力,可以覆蓋更廣泛的應(yīng)用場景。目前,以ChatGPT、DeepSeek等為代表的生成式人工智能不是局限于某個具體領(lǐng)域或?qū)W⒂谀骋环N數(shù)據(jù)類型,而是可以適應(yīng)不同領(lǐng)域的數(shù)據(jù)分布和任務(wù)要求,在跨模態(tài)任務(wù)上展現(xiàn)出更強的適應(yīng)性。這種適應(yīng)性和靈活性使得生成式人工智能模型展現(xiàn)出較強的遷移學(xué)習(xí)能力,這對于處理新問題或新領(lǐng)域非常重要。不過,雖然目前生成式人工智能在特定任務(wù)上取得了顯著進展,在處理語言、圖像和視頻時可以生成具有一定上下文和邏輯關(guān)系的內(nèi)容,但在全面理解和推理、跨領(lǐng)域適應(yīng)等方面還存在局限,尚不具備主動學(xué)習(xí)的能力和自我意識,較真正的通用人工智能還相差甚遠。盡管如此,生成式人工智能無疑已經(jīng)拉開了通用人工智能的序幕,引發(fā)人類對人工智能未來可能性的無限遐想。
總之,作為人工智能技術(shù)的最新發(fā)展階段,生成式人工智能“可重構(gòu)現(xiàn)有工作方式,在內(nèi)容創(chuàng)作、自動駕駛、零售、醫(yī)療等諸多領(lǐng)域改變著人們的生活和生產(chǎn)方式,同時帶來了更大的市場機會”①。正如《人工智能時代與人類未來》一書中所言,與以往技術(shù)截然不同的是,人工智能很可能會改變社會的軌跡和歷史的進程,不斷融入我們的生活,將帶來一個新世界。②可以說,生成式人工智能雖然以其特有的創(chuàng)造性、交互性和通用性正在引領(lǐng)我們進入一個嶄新的技術(shù)世界,深刻地改變著我們與現(xiàn)實的關(guān)系,但是尚處于發(fā)展初期,其功能發(fā)揮還不穩(wěn)定,給社會帶來的影響錯綜復(fù)雜,具有極高的不確定性,潛藏巨大的倫理風(fēng)險。
二、生成式人工智能具有潛在的倫理風(fēng)險
所謂風(fēng)險,一般是指可能出現(xiàn)的有害事件及其概率,風(fēng)險與不確定性密切相關(guān),通常包括結(jié)果的不確定性和發(fā)生概率的不確定性。③倫理風(fēng)險關(guān)涉的是倫理、道德層面的負面后果發(fā)生的概率,由于人工智能技術(shù)研發(fā)與應(yīng)用所帶來的不確定的倫理負效應(yīng)即為倫理風(fēng)險,諸如倫理關(guān)系失調(diào)、社會失序、行為失范等。④由此,生成式人工智能的倫理風(fēng)險,就是指在生成式人工智能開發(fā)應(yīng)用過程中具有潛在的關(guān)涉?zhèn)惱淼赖仑撁嫘?yīng)的不確定性和可能性,是人類對生成式人工智能創(chuàng)新應(yīng)用所不期望的結(jié)果出現(xiàn)的概率。總體而言,生成式人工智能的倫理風(fēng)險主要包括以下幾個方面:
第一,存在偏見和歧視內(nèi)容產(chǎn)生和傳播風(fēng)險。隨著數(shù)字技術(shù)、信息技術(shù)的創(chuàng)新應(yīng)用,借助于技術(shù)路徑,社會偏見、歧視的產(chǎn)生和傳播較傳統(tǒng)時代更便捷也更迅速,其消極影響也更為廣泛,尤其是計算機算法的出現(xiàn),使得算法歧視成為一個普遍關(guān)注的技術(shù)倫理問題。而生成式人工智能在賦能人們的生產(chǎn)生活、提升工作效率的同時,則可能大大加劇偏見和歧視內(nèi)容的產(chǎn)生和傳播風(fēng)險,并且較以往更為隱蔽。生成式人工智能的自然語言模型是建立在算法和海量數(shù)據(jù)基礎(chǔ)上的,如果模型開發(fā)者將個人的偏好或含有某種偏見的特定價值觀植入訓(xùn)練數(shù)據(jù),那么模型就可能學(xué)習(xí)和反映出訓(xùn)練數(shù)據(jù)中存在的偏見,導(dǎo)致生成的內(nèi)容或決策中存在社會不平等、偏見或歧視。也就是說,“如果用于開發(fā)人工智能算法和模型的訓(xùn)練數(shù)據(jù)有偏見,算法和模型也會有偏見,從而導(dǎo)致生成式人工智能的回應(yīng)和建議出現(xiàn)歧視性的結(jié)果”①。例如,如果在算法中嵌入種族歧視、性別歧視等內(nèi)容的隱藏代碼,便可能會使生成的內(nèi)容中帶有隱蔽的歧視傾向和觀點,或者在生成的文本、圖像等內(nèi)容中反映社會中對某些群體的刻板印象和偏見,有時這種歧視和偏見并不直接呈現(xiàn)在訓(xùn)練數(shù)據(jù)中,模型又難以察覺和修正這些潛在的問題,極易導(dǎo)致偏見和歧視隨著生成式人工智能的使用而得以廣泛傳播和擴散。例如,當(dāng)用戶要求生成高薪白領(lǐng)職業(yè)的圖像時,生成式人工智能輸出的圖片人物幾乎都是白人形象。②這種情況可能在文本、圖像、音頻和視頻等多個生成內(nèi)容領(lǐng)域出現(xiàn),對使用者群體的觀點帶來負面引導(dǎo)。
第二,存在隱私侵犯和數(shù)據(jù)泄露風(fēng)險。隨著數(shù)字技術(shù)應(yīng)用的日益普遍,如何獲取數(shù)據(jù)、處理數(shù)據(jù)、在數(shù)據(jù)使用中是否設(shè)置知情同意等,日益成為關(guān)涉隱私安全的重要問題,而生成式人工智能的廣泛使用,則使隱私安全問題更為突出,潛藏巨大的個人信息泄露的倫理風(fēng)險。生成式人工智能的開發(fā)需要對海量數(shù)據(jù)進行訓(xùn)練,借助對這些數(shù)據(jù)的學(xué)習(xí)形成模型的知識儲備和語料庫,并在此基礎(chǔ)上構(gòu)建能夠理解自然語言并生成目標(biāo)內(nèi)容的互動模式。在此過程中,生成式人工智能不僅通過數(shù)據(jù)爬蟲技術(shù)從網(wǎng)絡(luò)中迅速、高效地抓取數(shù)據(jù),而且還將用戶輸入的信息作為數(shù)據(jù)的來源,這些訓(xùn)練數(shù)據(jù)包括個人身份信息、圖像、語音等敏感數(shù)據(jù),在一系列數(shù)據(jù)抓取和使用中,個人信息獲取的正當(dāng)性尚未有明晰的邊界,模型在訓(xùn)練過程中往往會學(xué)習(xí)、保留這些信息,并在用戶互動過程中加以釋放,這就可能導(dǎo)致用戶隱私信息的泄露和擴散,帶來更加嚴(yán)峻的隱私侵犯和數(shù)據(jù)安全方面的風(fēng)險,甚至“可能發(fā)酵為人肉搜索、惡意攻擊、敲詐勒索等安全隱患”③,給人們的生活、財產(chǎn)安全甚至人身安全帶來威脅,而且,“由于非法爬取獲得的數(shù)據(jù)常常具有機密性、高密度性和保護性等特征,非法行為不僅侵害了個人的信息權(quán)益,而且也涉及國家的數(shù)據(jù)安全和數(shù)據(jù)主權(quán)問題”④。
第三,存在虛假信息傳播和認(rèn)知操縱風(fēng)險。生成式人工智能基于巨大的算力對海量數(shù)據(jù)進行學(xué)習(xí),能夠為用戶提供某種建議或答案。通常而言,人們對生成式人工智能這種側(cè)重數(shù)據(jù)挖掘、看似客觀中立的概率性歸納往往比較信任,但是模型生成的內(nèi)容并非由邏輯思考推理出來的結(jié)果,而是基于經(jīng)驗學(xué)習(xí)的一種篩選和提煉,其自身無法判斷生成的內(nèi)容是否準(zhǔn)確或真實,因而生成式人工智能的廣泛使用可能產(chǎn)生大量虛假或錯誤的信息,諸如訓(xùn)練數(shù)據(jù)中的錯誤信息會使模型生成相應(yīng)的錯誤內(nèi)容,模型會給出看似合理但不正確、無意義和虛構(gòu)的答案,這種現(xiàn)象被稱為人工智能幻覺(AI hallucination),即人工智能產(chǎn)生出聽起來合理實則錯誤或虛構(gòu)的內(nèi)容,這就帶來了錯誤信息傳播的風(fēng)險,很可能對社會產(chǎn)生誤導(dǎo),導(dǎo)致錯誤的判斷和決策①,而視頻生成模型Sora可能為深度偽造(Deepfake)技術(shù)推波助瀾,甚至帶來人身安全或財產(chǎn)安全方面的風(fēng)險。美國新聞可信度評估與研究機構(gòu)NewsGurd對ChatGPT進行測試發(fā)現(xiàn),ChatGPT能在幾秒鐘內(nèi)改變信息并產(chǎn)生大量令人信服卻無信源的內(nèi)容②,而當(dāng)生成式人工智能被故意利用生成錯誤內(nèi)容時,虛假信息傳播的風(fēng)險則會變得更加復(fù)雜,模型開發(fā)者出于某種特殊觀念、偏好和目的在訓(xùn)練數(shù)據(jù)中添加特定信息,在生成內(nèi)容中不恰當(dāng)?shù)貜娀承┯^點或某種價值觀,或者通過生成引人注目的內(nèi)容、評論或反饋,影響社交媒體上人們對特定議題的看法,操縱目標(biāo)人群的認(rèn)知,從而影響文化、價值的多樣性,導(dǎo)致認(rèn)知操縱,破壞信息可信度。
第四,存在科研倫理失范風(fēng)險。生成式人工智能的廣泛使用也可能帶來科研倫理失范的風(fēng)險,加大科研不端治理的難度。由于生成式人工智能會生成看似合理實則虛假的內(nèi)容,因而可能會被用于創(chuàng)造虛假的研究結(jié)果或數(shù)據(jù),這會導(dǎo)致研究結(jié)論不準(zhǔn)確和錯誤信息的產(chǎn)生和傳播,損害科研的客觀性和可信度。而且,模型生成的內(nèi)容有時涉及個人隱私信息,而研究人員在沒有獲得相關(guān)人員知情同意的情況下使用這些數(shù)據(jù),則會違反知情同意的學(xué)術(shù)倫理原則,使研究活動缺失倫理合法性。如果研究人員利用生成式人工智能的數(shù)據(jù)轉(zhuǎn)碼功能,將他人作品中的原創(chuàng)性文本轉(zhuǎn)換為不同于原文的結(jié)構(gòu)和文字,便可以生成新穎的內(nèi)容并將其作為自己的作品。“人們不僅可以利用生成式人工智能在更加龐大的數(shù)據(jù)庫中進行數(shù)據(jù)采集,還能在互動反饋中不斷‘完善’文本的表述和內(nèi)容,使用者甚至能‘教唆’生成式人工智能以特定風(fēng)格撰寫論文,使文章具有使用者本身的寫作風(fēng)格,達到以假亂真的地步。”③當(dāng)這些“深度贗品”公開出版或在網(wǎng)絡(luò)上發(fā)布,不僅會帶來著作權(quán)歸屬上的法律爭議問題,而且必然會對社會誠信帶來極大的負面效應(yīng),還可能使研究者產(chǎn)生工具依賴,進而造成思維能力淺薄、認(rèn)知能力退化、資本意識殖民等問題。④
三、生成式人工智能倫理風(fēng)險產(chǎn)生的根源
作為一種給社會帶來顛覆性影響的新技術(shù),生成式人工智能成為推動經(jīng)濟和社會發(fā)展的新動力,但也潛藏極為復(fù)雜的倫理風(fēng)險。只有準(zhǔn)確分析研判生成式人工智能倫理風(fēng)險產(chǎn)生的根源,才能更好地探尋風(fēng)險治理之策。風(fēng)險是技術(shù)的內(nèi)在屬性,任何技術(shù)都具有不確定性、風(fēng)險屬性,風(fēng)險是客觀實在性與主觀建構(gòu)性的統(tǒng)一。①縱觀現(xiàn)代技術(shù)發(fā)展史,一項新技術(shù)的社會應(yīng)用所帶來的倫理風(fēng)險具有高度不確定性,這既源于技術(shù)本身的客觀屬性,也與人類對技術(shù)的主觀認(rèn)知和社會建構(gòu)密切相關(guān),人類總是在不斷認(rèn)識新技術(shù)發(fā)展規(guī)律的基礎(chǔ)上,相應(yīng)地調(diào)整技術(shù)與社會的互動關(guān)系,進而尋求規(guī)避和應(yīng)對風(fēng)險的有效策略。生成式人工智能倫理風(fēng)險的產(chǎn)生,也是由該技術(shù)自身的特點以及人類的技術(shù)決策、治理措施以及主觀認(rèn)知等多種因素所決定。
第一,生成式人工智能技術(shù)的快速迭代和“黑箱”效應(yīng)帶來技術(shù)后果的不確定性和風(fēng)險的復(fù)雜性。生成式人工智能模型通常具有非常復(fù)雜的結(jié)構(gòu)和數(shù)量巨大的參數(shù),不僅其內(nèi)部操作和運作機制難以直觀理解,而且對其工作原理進行逆向工程或解釋也變得非常困難,這就不可避免地造成了生成式模型的“黑箱”效應(yīng),人們難以準(zhǔn)確理解模型參數(shù)是如何影響模型行為的,在評估生成模型的可靠性和穩(wěn)健性方面也困難重重,在這種不透明的交互作用下,模型在處理數(shù)據(jù)時便極易在不可控的狀態(tài)下泄露敏感信息或者產(chǎn)生虛假的或帶有社會偏見的信息。一般而言,“技術(shù)的可控程度與其風(fēng)險高低是成反比的,技術(shù)越難控制則風(fēng)險越高。大語言模型和思維鏈在賦予生成式人工智能邏輯推導(dǎo)能力的同時,也使得其輸出內(nèi)容越來越難以預(yù)測”②,而隨著生成式人工智能技術(shù)的迅速迭代更新,在人們還沒有完全了解原有技術(shù)相關(guān)風(fēng)險知識的情況下,又不斷涌現(xiàn)出新的問題和挑戰(zhàn),出現(xiàn)新的不確定性和風(fēng)險。例如,Sora文生視頻模型可能會在很大程度上顛覆現(xiàn)有的短視頻行業(yè)、廣告業(yè)和電影預(yù)告片等行業(yè),而由于模型的決策過程不透明,可能會導(dǎo)致責(zé)任歸屬問題,當(dāng)生成的視頻出現(xiàn)問題時,就難以確定責(zé)任方③,進而帶來復(fù)雜的倫理風(fēng)險。
第二,生成式人工智能倫理規(guī)制的相對滯后弱化了技術(shù)發(fā)展的可預(yù)見性和可控性。回顧人類技術(shù)發(fā)展史,一項新技術(shù)的出現(xiàn)也往往伴隨著不可預(yù)知的技術(shù)后果,正是這種“雙刃劍”效應(yīng)使得人類利用技術(shù)提升效率和便利的同時,也要不斷探尋技術(shù)發(fā)展的規(guī)律以規(guī)避技術(shù)風(fēng)險,從倫理道德視角考量技術(shù)的社會影響也成為技術(shù)創(chuàng)新的一個重要維度和選項,人類對技術(shù)發(fā)展的前瞻性了解和倫理預(yù)見越深入,就越能夠?qū)夹g(shù)發(fā)展趨勢和后果進行更大程度的控制。目前,一些國家和地區(qū)已經(jīng)制定了嚴(yán)格的隱私法規(guī),一些政府和非營利組織正在制定指南和標(biāo)準(zhǔn),力圖促進人工智能系統(tǒng)的公平性和公正性。例如,美國參議員提出《2023年人工智能研究、創(chuàng)新和責(zé)任法案》,歐盟27國代表于2024年2月2日投票一致通過《人工智能法案》文本,標(biāo)志歐盟向立法監(jiān)管人工智能邁出了重要一步④,中國則先后發(fā)布《關(guān)于加強科技倫理治理的意見》(2022)、《生成式人工智能服務(wù)管理暫行辦法》(2023)等政策文件,在促進技術(shù)向善方面發(fā)揮了重要作用。但是,由于生成式人工智能仍處于發(fā)展初期,迭代更新速度非常快,新問題不斷涌現(xiàn),倫理規(guī)制系統(tǒng)和責(zé)任追究機制仍需要進一步健全。“作為復(fù)雜的技術(shù)系統(tǒng)之一,人工智能技術(shù)背后的算法數(shù)據(jù)極為龐雜,當(dāng)前人類尚未能有效解決算法邏輯的不確定性”①,技術(shù)所帶來的社會收益與風(fēng)險權(quán)衡尚不明晰,因應(yīng)技術(shù)發(fā)展的倫理價值觀和法律適應(yīng)性等也有待構(gòu)建和完善,人類對于生成式人工智能社會應(yīng)用的后果尚缺乏明確和全面的認(rèn)識。而且,生成式人工智能的應(yīng)用和擴散具有全球性,倫理風(fēng)險治理需要各國協(xié)同推進,但是“不同國家對人工智能有不同的戰(zhàn)略利益解讀,目標(biāo)上的分歧正制造國際社會的分裂,破壞國際合作”②,這無疑會在一定程度上降低人類對生成式人工智能倫理風(fēng)險的應(yīng)對和控制能力,加劇風(fēng)險后果的不確定性。
第三,對生成式人工智能倫理風(fēng)險的主觀認(rèn)知強化了對風(fēng)險可能性的判斷。一般而言,風(fēng)險的存在既有客觀根源也有主觀因素,技術(shù)風(fēng)險的主觀性認(rèn)知受社會環(huán)境、大眾媒體等的影響,而風(fēng)險認(rèn)知主體的心理機制、認(rèn)知策略也可能影響技術(shù)主體對技術(shù)風(fēng)險的認(rèn)知。③就生成式人工智能倫理風(fēng)險問題而言,人們對生成式人工智能技術(shù)的了解程度可能會影響他們對其倫理風(fēng)險的感知,對技術(shù)的運行機理和發(fā)展趨勢比較了解的科技人員,可能更加清楚技術(shù)的潛在風(fēng)險,如隱私泄露、數(shù)據(jù)偏見和誤導(dǎo)性信息的產(chǎn)生等,而對該技術(shù)了解較少的人可能對其風(fēng)險認(rèn)識不足。不同的文化、宗教信仰、個人背景和教育經(jīng)歷等會使人們對倫理風(fēng)險的感知和判斷產(chǎn)生差異,對隱私權(quán)的重視程度、對公平和平等的理解以及對個體自主權(quán)的尊重程度等,都會影響人們對生成式人工智能倫理風(fēng)險的主觀認(rèn)知。而且,利益的關(guān)涉和風(fēng)險認(rèn)知偏差也可能影響對倫理風(fēng)險的判斷,社會公眾或政府機構(gòu)可能由于關(guān)注公眾福祉而對倫理風(fēng)險更加敏感和重視,而生成式人工智能創(chuàng)新公司則可能會因為受益于該技術(shù)而傾向于低估倫理風(fēng)險,科技企業(yè)甚至可能為了實現(xiàn)利潤最大化,將資本力量與算法相結(jié)合,大規(guī)模收集用戶數(shù)據(jù)與數(shù)字痕跡來形成算法模型,做出諸如精準(zhǔn)價格歧視、勞工剝削等行為,從而引發(fā)倫理風(fēng)險。④總之,人們對風(fēng)險的主觀認(rèn)知構(gòu)成了倫理風(fēng)險的建構(gòu)性原因,在很大程度上決定了風(fēng)險判斷和風(fēng)險治理決策。
四、生成式人工智能倫理風(fēng)險防范的可能對策
當(dāng)前,生成式人工智能正在加速向行業(yè)和社會生活領(lǐng)域滲透,新的發(fā)展機遇和潛在風(fēng)險構(gòu)成了生成式人工智能創(chuàng)新發(fā)展的雙面特征。“現(xiàn)代技術(shù)正在使人的境況發(fā)生一種世界性的歷史轉(zhuǎn)變,這種轉(zhuǎn)變超出了其使用者的特定意圖。……如果技術(shù)的影響超出了其使用者的意圖,就不能把它說成是一種中性的手段。”①由此,我們不能僅僅將生成式人工智能理解成增進生活和生產(chǎn)效率的工具和手段,而是要從技術(shù)與人的交互存在視角看待生成式人工智能給人類帶來的影響,為防范風(fēng)險尋找切實可行的應(yīng)對之策。
第一,強化增進人類福祉的倫理規(guī)范。2021年9月26日,中國新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,提出“增進人類福祉”“促進公平公正”等基本倫理規(guī)范,為人工智能活動提供了倫理指引和價值方向,體現(xiàn)了從公共治理層面對人工智能發(fā)展的倫理規(guī)制要求。技術(shù)創(chuàng)新的最前沿,往往也是商業(yè)利益追逐最為激烈的陣地,生成式人工智能創(chuàng)新可能為相關(guān)科技企業(yè)帶來巨大的商業(yè)效益前景,堅持增進人類福祉的倫理規(guī)范能夠為企業(yè)和政府平衡效益與風(fēng)險提供價值評判標(biāo)準(zhǔn)。不論是人工智能技術(shù)創(chuàng)新企業(yè)還是政府的科技決策部門,以及使用生成式人工智能的社會公眾,均應(yīng)以增進人類福祉為推動技術(shù)創(chuàng)新和技術(shù)社會應(yīng)用的核心價值旨趣。莫雷拉在《超人類密碼》中提出,我們是在宏偉技術(shù)的幫助下為人類建設(shè)更美好的未來,還是以犧牲人類為代價建設(shè)一個更好的技術(shù)的未來?②問題的關(guān)鍵是要確保我們分配給技術(shù)的優(yōu)先事項和我們賦予它的管理方法符合全人類的最佳利益。③因此,在生成式人工智能變革和風(fēng)險并存的發(fā)展態(tài)勢下,在其創(chuàng)新、部署和應(yīng)用過程中必須秉持“人工智能服務(wù)人類,服務(wù)社會”的主旨,堅持和強化“增進人類福祉”的基本倫理規(guī)范,并將其轉(zhuǎn)化為模型開發(fā)、政策響應(yīng)、社會教育和國際治理等全方位、全過程的倫理行動。
第二,提高生成式人工智能的可解釋性和透明度。在生成式人工智能應(yīng)用場景中,可解釋性至關(guān)重要,用戶將更加信任那些他們更了解的內(nèi)容,借助于技術(shù)手段來提高生成式人工智能的可解釋性和透明度,使其研究結(jié)果更易理解和驗證,有利于更好地防范算法歧視、社會偏見以及侵犯隱私等倫理風(fēng)險。歐洲《通用數(shù)據(jù)保護條例》(“General Data Protection Regulation”,GDPR)規(guī)定,用戶在使用算法過程中擁有獲得解釋的權(quán)利,以降低技術(shù)黑箱效應(yīng)所帶來的隱私泄露風(fēng)險。④中國發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》也強調(diào)應(yīng)提升生成式人工智能服務(wù)的透明度,提高生成內(nèi)容的準(zhǔn)確性和可靠性,為防范生成式人工智能倫理風(fēng)險帶來了規(guī)范指引。⑤因此,應(yīng)將增進人類福祉、滿足公眾利益等價值訴求以編碼形式嵌入生成式人工智能算法設(shè)計、模型構(gòu)建中,明確和規(guī)范生成式模型的設(shè)計標(biāo)準(zhǔn),通過持續(xù)的可解釋性評估對生成式模型進行過程優(yōu)化和動態(tài)調(diào)整,對于大模型訓(xùn)練的數(shù)據(jù)來源要有回溯性機制,提高生成內(nèi)容的可解釋性和可追溯性,以更好地理解和控制模型的行為,致力于構(gòu)建安全、保護隱私、透明、可解釋、公平和負責(zé)任的生成式人工智能系統(tǒng),以避免可能產(chǎn)生對個人、企業(yè)和社會的有害影響。①
第三,注重生成式人工智能的倫理規(guī)制。生成式人工智能的技術(shù)創(chuàng)新迭代周期正在持續(xù)縮短,亟需在政策層面加強治理措施。除了制定針對生成式人工智能的法律法規(guī),明確規(guī)定其開發(fā)、部署和使用的條件,以及對生成式人工智能系統(tǒng)透明度、公平性、責(zé)任追究和隱私保護等方面的規(guī)定,還應(yīng)注重加強倫理規(guī)制措施、規(guī)范倫理審查流程,平衡技術(shù)創(chuàng)新與社會責(zé)任之間的關(guān)系,促進生成式人工智能的發(fā)展符合倫理價值。一是設(shè)立專門的倫理審查機構(gòu)或委員會,負責(zé)審核生成式人工智能項目的倫理合規(guī)性。這些機構(gòu)審查生成式人工智能系統(tǒng)的設(shè)計、數(shù)據(jù)使用,規(guī)范生成式人工智能系統(tǒng)對個人數(shù)據(jù)的采集、存儲和處理,使數(shù)據(jù)使用符合倫理標(biāo)準(zhǔn)和要求。中國于2023年12月施行《科技倫理審查辦法(試行)》,為規(guī)范科學(xué)研究、技術(shù)開發(fā)等科技活動提供了指南,有助于強化科技倫理風(fēng)險防控,促進負責(zé)任創(chuàng)新。②二是建立持續(xù)倫理監(jiān)測和政策調(diào)整機制。由于生成式人工智能技術(shù)的發(fā)展日新月異,對其風(fēng)險防范的政策機制應(yīng)是一種適應(yīng)性的動態(tài)更新狀態(tài),應(yīng)建立持續(xù)的倫理監(jiān)測和倫理審查,及時更新和完善倫理規(guī)制政策。三是建立健全生成式人工智能倫理風(fēng)險的多元主體協(xié)同治理機制,促進倫理學(xué)者、科技工作者和政策制定者等主體的對話和溝通,綜合考慮技術(shù)、法規(guī)、倫理準(zhǔn)則以及社會參與,在生成式人工智能的設(shè)計、開發(fā)和應(yīng)用全過程采取相應(yīng)的防范治理措施。
第四,加強生成式人工智能科技企業(yè)的創(chuàng)新責(zé)任和行業(yè)自律。一是企業(yè)應(yīng)成立專門的倫理委員會或?qū)<覉F隊,負責(zé)審查和指導(dǎo)生成式人工智能項目。這些委員會或團隊?wèi)?yīng)該包括倫理學(xué)家、法律專家、技術(shù)專家等,促進企業(yè)合乎倫理地訓(xùn)練、開發(fā)和應(yīng)用生成式人工智能技術(shù),將倫理要素嵌入技術(shù)創(chuàng)新開發(fā)和使用全過程,將相應(yīng)倫理規(guī)范轉(zhuǎn)譯到技術(shù)路徑之中,使生成式人工智能成為一種實現(xiàn)道德目的的手段,“使得通過技術(shù)和設(shè)計保護個人隱私成為數(shù)據(jù)保護機制中不可或缺的組成部分,加密、匿名化、差分隱私等技術(shù)機制發(fā)揮著重要的作用”③。二是加強對企業(yè)技術(shù)人員的倫理培訓(xùn),提高其對生成式人工智能倫理風(fēng)險的認(rèn)識和敏感度,培訓(xùn)內(nèi)容可以包括倫理原則、案例分析、決策模型等,將具有實操性的倫理原則嵌入人工智能產(chǎn)品的設(shè)計之中,并做好流程監(jiān)管,使用公平的訓(xùn)練數(shù)據(jù),強調(diào)算法透明和隱私保護。三是促進相關(guān)行業(yè)組織或機構(gòu)制定生成式人工智能技術(shù)創(chuàng)新的倫理準(zhǔn)則和標(biāo)準(zhǔn),建立行業(yè)自律機制。倫理準(zhǔn)則應(yīng)涵蓋數(shù)據(jù)隱私、公平性、透明度、責(zé)任追究等方面,規(guī)范技術(shù)人員在生成式人工智能項目中的行為,提升社會責(zé)任意識;建立企業(yè)內(nèi)部審查機制,包括項目評估、風(fēng)險管理、投訴處理等環(huán)節(jié),發(fā)現(xiàn)和解決潛在的倫理風(fēng)險和問題。四是企業(yè)應(yīng)該保持透明度,公開生成式人工智能項目的設(shè)計原則、數(shù)據(jù)使用方式、算法邏輯等關(guān)鍵信息,與利益相關(guān)者(如政府、學(xué)術(shù)界、社會團體等)加強溝通和合作,共同探討生成式人工智能的倫理和社會責(zé)任問題,推動行業(yè)自律和創(chuàng)新責(zé)任的落實。
第五,推進生成式人工智能倫理風(fēng)險治理的社會宣傳和教育。一是借助傳統(tǒng)媒體和新媒體的力量,開展生成式人工智能倫理風(fēng)險知識的宣傳和報道,通過報紙、電視、網(wǎng)絡(luò)等渠道向公眾傳遞相關(guān)信息和警示,“提高公眾對AI生成內(nèi)容的辨識能力,培養(yǎng)批判性思維,以應(yīng)對假新聞和誤導(dǎo)性內(nèi)容的問題”①;二是充分發(fā)揮科技社團的作用,鼓勵社會組織、非營利機構(gòu)和非政府組織等開展相關(guān)教育和宣傳活動,組織研討會、工作坊等針對公眾的教育活動,向廣大民眾介紹生成式人工智能的基本原理、應(yīng)用領(lǐng)域和倫理風(fēng)險,吸引更多社會力量參與生成式人工智能倫理風(fēng)險知識的普及工作,形成多方共同努力的局面;三是加強生成式人工智能倫理風(fēng)險及其規(guī)制的社會討論,通過公開聽證會、研討會等形式,建立生成式人工智能倫理風(fēng)險咨詢熱線和在線服務(wù)平臺,為公眾提供咨詢和解答服務(wù),幫助他們解決相關(guān)問題和困惑,擴大公眾對生成式人工智能倫理規(guī)制制定和施行的參與度,提升政策制定過程的透明度和民主性;四是將生成式人工智能倫理風(fēng)險知識納入學(xué)校的課程體系和科研體系,培養(yǎng)學(xué)生的倫理思維和責(zé)任意識,注重將生成式人工智能倫理風(fēng)險研究與中國社會現(xiàn)實相結(jié)合,針對中國的實際情況進行合理的風(fēng)險預(yù)測評估、良性風(fēng)險溝通和風(fēng)險管理。
第六,構(gòu)建生成式人工智能倫理風(fēng)險治理的國際合作機制。當(dāng)前,生成式人工智能技術(shù)正在全球范圍內(nèi)擴散和應(yīng)用,其倫理風(fēng)險治理必然需要跨越國界開展國際合作。應(yīng)促進各國共同制定和執(zhí)行跨國范圍的倫理標(biāo)準(zhǔn)和規(guī)范,包括技術(shù)標(biāo)準(zhǔn)、倫理準(zhǔn)則、法律框架等,為各國制定政策提供參考和支持,并防止生成式人工智能技術(shù)被濫用或用于跨國犯罪活動。近年來,中國相繼發(fā)布《中國關(guān)于規(guī)范人工智能軍事應(yīng)用的立場文件》《中國關(guān)于加強人工智能倫理治理的立場文件》《全球人工智能治理倡議》等政策文件,向世界提出了人工智能治理的基本思路和建設(shè)性方案,為促進“智能向善”提供了重要指南。在推進生成式人工智能倫理風(fēng)險治理的國際合作過程中,應(yīng)建立健全國際合作機制,促進國際社會多方主體參與,“多元治理主體在人工智能社會技術(shù)系統(tǒng)中擁有不同的權(quán)威、資源、利益與限制,通過各種正式與非正式渠道進行廣泛互動,構(gòu)成治理機制復(fù)合體”②,共享生成式人工智能技術(shù)和倫理風(fēng)險的信息,開展合作研究和技術(shù)創(chuàng)新,加強跨國監(jiān)管合作,共同應(yīng)對生成式人工智能的風(fēng)險治理挑戰(zhàn),推動生成式人工智能的安全、可靠和可控發(fā)展。2021年11月,聯(lián)合國教科文組織通過了《人工智能倫理問題建議書》,這份人工智能倫理問題全球性協(xié)議在一定程度上促進了國際人工智能治理的多邊合作。2024年2月,第二屆全球人工智能(AI)倫理論壇的召開,促進了參與論壇的全球性科技機構(gòu)和公司達成“構(gòu)建促進公共利益的AI”的共同承諾。③此外,應(yīng)積極推進國際組織和機構(gòu)開展生成式人工智能領(lǐng)域的國際交流活動和人才培訓(xùn)項目,共同推動生成式人工智能技術(shù)的發(fā)展和應(yīng)用達成向善目標(biāo)。
五、結(jié)語
當(dāng)前,全球范圍新一輪科技革命和產(chǎn)業(yè)變革正蓬勃興起,生成式人工智能創(chuàng)新迭代迅速推進,在多個領(lǐng)域賦能人類社會,既成為數(shù)字化時代促進創(chuàng)新、提升效率的重要推動力,又以其高度不確定性、風(fēng)險性以及對社會影響的復(fù)雜性和顛覆性引發(fā)社會倫理關(guān)切。對生成式人工智能倫理風(fēng)險的研判和應(yīng)對,對于保護個人權(quán)利、維護公平正義、促進社會和諧發(fā)展極為重要,我們應(yīng)以審慎前瞻的倫理態(tài)度對待技術(shù)進步,促進生成式人工智能真正為人類造福。
①OpenAI推出AI系統(tǒng),將文本轉(zhuǎn)換為逼真的視頻[EB/OL].(2024-02-10)[2024-12-10]. https://baijiahao.baidu.com/s? id=1818006825475957257wfr=spiderfor=pc.
②任鵬,顏維琦.生成式人工智能“飛入尋常百姓家”[N].光明日報,2023-07-08(4).
①李白楊,白云,詹希旎,等.人工智能生成內(nèi)容(AIGC)的技術(shù)特征與形態(tài)演進[J].圖書情報知識,2023(1):66-74.
②RIOS-CAMPOS C,LUZURIAGA VITERI J D C,PALMA BATALLA E A,et al. Generative artificial intelligence[J]. South Florida journal of development,2023,4(6):2305-2320.
③秦天弘.全球論壇探討人工智能治理格局[N].經(jīng)濟參考報,2024-02-07(4).
④ZOHNY H,MCMILLAN J,KING M. Ethics of generative AI[J]. Journal of medical ethics,2023,49(2):79-80.
①孟凌霄.生成式人工智能引發(fā)算力產(chǎn)業(yè)“三變”[N].中國科學(xué)報,2023-12-13(3).
②亨利·基辛格,埃里克·施密特,丹尼爾·胡滕洛赫爾.人工智能時代與人類未來[M].胡利平,風(fēng)君,譯.北京:中信出版集團,2023:19-20.
③HANSSON S O. Risk and safety in technology[M]// MEIJERS A. Handbook of the philosophy of science,philosophy of technology and engineering sciences,Oxford:Elsevier,2009:1069-1102.
④趙志耘,徐峰,高芳,等.關(guān)于人工智能倫理風(fēng)險的若干認(rèn)識[J].中國軟科學(xué),2021(6):1-12.
①段偉文.準(zhǔn)確研判生成式人工智能的社會倫理風(fēng)險[J].中國黨政干部論壇,2023(4):76-77.
②陳永偉.超越ChatGPT:生成式AI的機遇、風(fēng)險與挑戰(zhàn)[J].山東大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2023(3):127-143.
③趙志耘,徐峰,高芳,等.關(guān)于人工智能倫理風(fēng)險的若干認(rèn)識[J].中國軟科學(xué),2021(6):1-12.
④鈄曉東.論生成式人工智能的數(shù)據(jù)安全風(fēng)險及回應(yīng)型治理[J].東方法學(xué),2023(5):106-116.
①FARINA M,YU X,LAVAZZA A. Ethical considerations and policy interventions concerning the impact of generative AI tools in the economy and in society[J]. AI and ethics,2025,5:737-745.
②鈄曉東.論生成式人工智能的數(shù)據(jù)安全風(fēng)險及回應(yīng)型治理[J].東方法學(xué),2023(5):106-116.
③王少.生成式人工智能對學(xué)術(shù)不端治理的妨礙及對策[J].科學(xué)學(xué)研究,2024(7):1361-1368.
④徐嵐,魏慶義,嚴(yán)弋.學(xué)術(shù)倫理視角下高校使用生成式人工智能的策略與原則[J].教育發(fā)展研究,2023(19):49-60.
①閆坤如.可解釋人工智能:本源、進路與實踐[J].探索與爭鳴,2022(8):102-109,178.
②程樂.生成式人工智能治理的態(tài)勢、挑戰(zhàn)與展望[J].人民論壇,2024(2):76-81.
③邢燦.文生視頻模型Sora問世變革與風(fēng)險并存[N].中國城市報,2024-02-26(4).
④歐盟27國代表一致支持《人工智能法案》文本[EB/OL].(2024-02-03)[2024-05-08]. https://baijiahao.baidu.com/s?id=1789848941640499406wfr=spiderfor=pc.
①張鋌.人工智能的倫理風(fēng)險治理探析[J].中州學(xué)刊,2022(1):114-118.
②羅會鈞,查云龍.人工智能時代的全球治理轉(zhuǎn)型與中國應(yīng)對[J].上海交通大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2023(12):13-24.
③閆坤如.技術(shù)風(fēng)險的研究嬗變及其研究趨勢探析[J].學(xué)術(shù)研究,2017(2):26-32.
④孟天廣,李珍珍.治理算法:算法風(fēng)險的倫理原則及其治理邏輯[J].學(xué)術(shù)論壇,2022(1):9-20.
①吳國盛.技術(shù)哲學(xué)經(jīng)典文本[M].北京:清華大學(xué)出版社,2022:6.
②卡洛斯·莫雷拉,戴維·弗格森.超人類密碼[M].張羿,譯.北京:中信出版集團,2021:4.
③卡洛斯·莫雷拉,戴維·弗格森.超人類密碼[M].張羿,譯.北京:中信出版集團,2021:10.
④GOODMAN B,F(xiàn)LAXMAN S. European Union regulations on algorithmic decision-making and a right to explanation[J]. AI magazine,2017,38(3):50-57.
⑤中華人民共和國工業(yè)和信息化部.生成式人工智能服務(wù)管理暫行辦法[EB/OL] .(2023-08-30)[2024-12-02].https:// www.miit.gov.cn/gyhxxhb/jgsj/cyzcyfgs/bmgz/xxtxl/art/2023/art_4248f433b62143d8a0222a7db8873822.html.
①KENTHAPADI K,LAKKARAJU H,RAJANI N. Generative AI meets responsible AI:practical challenges and opportunities[C]// Proceedings of the 29th ACM SIGKDD Conference on Knowledge Discovery and Data Mining,2023:5805-5806.
②關(guān)于印發(fā)《科技倫理審查辦法(試行)》的通知[EB/OL].(2023-09-07)[2024-12-02]. https://www.gov.cn/gongbao/2023/ issue_10826/202311/content_6915814.html.
③曹建峰.歐盟人工智能倫理與治理的路徑及啟示[J].人工智能,2019(4):39-47.
①邢燦.文生視頻模型Sora問世變革與風(fēng)險并存[N].中國城市報,2024-02-26(4).
②薛瀾.如何構(gòu)建一個平衡包容的人工智能治理體系[EB/OL].(2021-12-11)[2024-03-17]. https://mp.weixin.qq.com/s/ vAdOea-IX-3aBQOosKPXiQ.
③全球論壇探討人工智能治理格局[EB/OL].(2024-02-07)[2024-12-20]. https://tech. huanqiu. com/article/ 4GUG3d5zcFm.
(責(zé)任編輯古東)
Ethical Risks of Generative Artificial Intelligence and Preventive Strategies
XUE Guibo
(School of Marxism,Nanjing Forestry University)
Abstract:As the latest stage in the development of artificial intelligence(AI)technology,generative AI exhibits distinct characteristics compared to traditional AI in terms of creativity,interactivity,and generality. However,its innovative applications come with high uncertainty and pose significant ethical risks,such as spreading bias and discrimination,infringing on privacy,generating 1 information,manipulating cognition,and leading to ethical misconduct in scientific research. The author believes that preventive strategies for the ethical risks of generative AI should be explored based on an analysis of their roots in both technological logic and social construction. These strategies should include strengthening the value concept of“enhancing human well-being”,improving the explainability of technology,establishing sound ethical regulations,reinforcing corporate self-discipline,and building a global cooperation mechanism for risk governance.
Key words:generative AI;ethical risk;technology for good;ethical governance of technology