魏曉光 ,趙珂旋 ,呂 菲 ,樓俊濤
(河北金融學院,河北 保定 071000)
Chat GPT(Chat Generative Pre-trained Transformer)的產生和發展引發全球矚目,隨著其與各個行業交互的不斷擴展和延伸,生成式人工智能(AIGC)的時代即將到來,并將深刻影響社會的各個領域。生成式人工智能與判別式人工智能主要區別在于:生成式人工智能可以生成新的內容,而判別式人工智能主要是對歷史數據進行分析判斷。本研究將分析以ChatGPT為代表的生成式人工智能會帶來哪些風險,在面對這些風險時應如何去尋找破解之路。
以ChatGPT 為代表的生成式人工智能賦能社會發展益處頗多,同時面臨挑戰與風險。
ChatGPT 作為人工智能技術自然語言處理工具,可能引發捏造事實、抄襲內容等現象,進而引發社會虛假信息泛濫危機[1]。ChatGPT 不具備人的價值和倫理觀念,它所輸出的信息也不一定具有社會應用價值,甚至可能有違真實性。雖然大多數人都肯定生成式人工智能帶給人類的便利,但是完全利用人工智能來解決生活中的問題,或許會引起更加混亂的局面。利用ChatGPT 可能還會引發學術造假、行業競爭不公、虛假信息泛濫等危害社會秩序的現象。
雖然ChatGPT 可以為人類帶來更加智能化的體驗,但是它的智能化程度目前仍然有限,尤其是在知識理解和應用方面,ChatGPT 可以通過大量的訓練數據不斷提高自己的服務能力,卻無法達到人類的思考高度和對事物的理解程度[2]。因此,在某些高度復雜和專業化的領域,人類的經驗仍然無法被替代,當面對一些復雜的問題或者情境時,通過ChatGPT 獲得的解答僅僅是為了回應此問題,并不能真正理解問題的內在含義,某些時候它只能捏造出沒有任何事實依據的結果“應付”使用者,而這種現象很有可能給金融、醫療等相關領域帶來嚴重的損失。
個人信息隱私安全問題是以ChatGPT 為代表的生成式人工智能不得不面對的風險,公民的個人隱私和國家安全息息相關。在使用ChatGPT 等生成式人工智能時,保護用戶的數據安全與隱私問題同樣面臨著諸多挑戰。
首先,訓練模型需要通過大量的數據處理來學習人類語言模式,這些學習演練數據可能包含用戶的部分敏感信息。社會群體依靠以ChatGPT 為代表的生成式人工智能獲取大量數據信息,所需要的數據規模巨大且復雜,由此可能會引發知識產權歸屬問題[3]。模型的訓練數據大多來自互聯網,其中可能包含未經授權的個人信息,生成式人工智能主要通過計算機檢索功能獲取數據,數據的收集和生成過程存在“黑箱”問題,數據獲取的途徑無法判斷是否正當合理,獲取的數據也無法判斷是否涉及知識產權等問題。例如,社會群體用ChatGPT 時可能會涉及那些未被法律賦予使用權利的數據,那么使用該數據就違反了相關法律,侵犯了他人的權利和隱私。
其次,使用ChatGPT 生成的內容可能會包含算法訓練數據中的某些片段,從而導致信息泄露。生成式人工智能時代到來之后,社會群體利用以ChatGPT為代表的生成式人工智能極大地便捷了作品的創作,但用戶在使用ChatGPT 時就是在向其提供數據,在此過程中存在著個人數據泄露的風險。例如,社會群體在對ChatGPT 進行詢問的同時,ChatGPT 會收集大量與用戶相關的數據,此過程會涉及大量個人信息方面的數據,容易衍生一系列的個人隱私安全問題。
最后,黑客可能通過生成式人工智能更加快捷地獲取用戶數據,這對用戶隱私構成了極大的潛在威脅。黑客可以通過ChatGPT 等生成式人工智能編寫的代碼攻擊網絡用戶[4],這將降低網絡攻擊者的技術門檻,擴大惡意黑客的群體規模,最終使網絡環境愈加惡劣。
生成式人工智能的廣泛發展會降低人的創造性思維能力,沖擊人的主導地位。機器是人類創造出來的,它所具備的思維能力也是對于人類行為的學習與模仿,每次技術革新都離不開人類的創造,這是機器所不能完成的。以ChatGPT 為代表的新技術的產生在一定程度上可以簡化人類的思考過程,但如果過度依賴此類技術,就會掉進“省力原則”的陷阱。例如在教育領域,學生完成作業時可能會使用ChatGPT作弊[5],將使得教育體系失去相對應的公正性和平衡性,導致教育不公平,而學生長期缺乏獨立思考能力,有可能造成學生群體產生技術依賴性。這種“技術依賴”的產生,會導致人的自主性、批判性、創造性思維退化。
在信息爆炸的時代,人類免不了利用工具篩選并處理大量的信息。生成式人工智能的優點便是強大的信息處理能力,它為人類提供了更加便捷和迅速的信息收集和處理方式,節約了人類在一些信息上所需要耗費的時間,但長此以往,人們便會不假思索地利用技術來解決一切問題,從而被技術手段所禁錮。
數字鴻溝就是信息鴻溝,隨著生成式人工智能大規模的迭代更新,以技術鴻溝、算法鴻溝為代表的新型數字鴻溝將提高新一輪的數字不平等現象發生的可能性,而ChatGPT的出現與發展在某種程度上加深了城鄉數字鴻溝[6]。一方面,部分地區經濟發展水平相對落后,沒有健全的數字基礎建設,使得其無法接觸到生成式模型等先進的人工智能技術,從而進一步拉大了城鄉間的差距。另一方面,生成式人工智能模型在訓練時需要巨大的數據庫和極強的算法能力,運行成本巨大,使得此類技術手段只被小部分人控制,而集中的控制能力使得此領域形成壟斷,從而擴大了城鄉數字鴻溝問題。城鄉本身經濟發展的不平衡,造成了存在于地區間經濟發展、教育水平、信息接受能力等的不同程度的不平衡。生成式人工智能有可能加大城市與城市、城市與鄉村、鄉村與鄉村之間的不公平性。
生成式人工智能助力社會發展時所產生風險的治理是一個開放性的、國際性的問題,必須通過廣泛的國際合作來達成共識,從而確定生成式人工智能賦能社會發展的基本原則,形成一個完備的治理體系。應從治理理念、數據合規、技術基礎、服務保障等多個方面來進行防范治理。
首先,遵循敏捷治理理念。簡而言之就是要在時代發展的進程中逐步針對以ChatGPT 為代表的生成式人工智能所存在的問題,進行及時、有效的調整,而不是根據所制定的長期計劃進行改變。這就要求該技術的監管部門時刻注意生成式人工智能發展和使用的過程,做到實時跟蹤、動態監測,推動企業可持續發展,將潛在的負面影響控制到最小狀態。具體應做好以下幾方面的工作:1)完善生成式人工智能平臺內部的組織機構,利用有效的排查手段調動全平臺、全方面進行監測。2)在用戶使用前統一簽訂用戶使用規范說明,對用戶的使用進行嚴格規范,對其中出現的一些不符合規定的內容進行強制性刪除,對于那些嚴重違反規定的用戶進行永久拉黑處理。3)監管部門可在正式運行前進行小規模內測,或者請第三方機構對于平臺的運行進行評價和漏洞審查。
其次,遵循終身學習理念。生成式人工智能技術的廣泛應用為社會帶來諸多便利的同時,也因部分用戶對其過分依賴逐漸喪失自主性[7],從而對社會發展造成負面影響。面對部分用戶對ChatGPT 技術的過分依賴問題,需要人們樹立終身學習的理念,理性使用作為新時代勞動工具的ChatGPT。為了跟上時代的發展步伐,人們需要積極參與數字教育和培訓,不斷構建和完善自身的數字化知識體系,培養數字思維,以適應數字化時代的發展需求。
政府及相關監管部門應從管理機制、技術手段以及責任規范三個方面不斷健全和完善數據合規建設,統籌治理虛假信息、個人隱私泄露和技術依賴問題,為生成式人工智能行業的健康發展保駕護航。
在管理機制上,政府及監管部門應建立完備的法律體系,堅持“倫理先行”原則,應明確落實落細《中華人民共和國個人信息保護法》《中華人民共和國網絡安全法》《互聯網信息服務管理辦法》等的相關規定。政府監管部門應密切追蹤生成式人工智能的發展態勢,加強對生成式人工智能相關設備和行為的監管能力,以確保個人隱私和數據得到法律保護[8],保障個人信息記錄及使用的合法性,監控數據的來源并審核其真實性,防止虛假、錯誤等不符合法律規范的信息進入生成式人工智能模型。
在技術手段上,要加強生成式人工智能技術的研發和管理,對個人隱私信息和虛假信息等數據進行監測。通過聚焦個人隱私和虛假信息等維度,提高治理手段的智能化水平,降低生成式人工智能造成的數據和隱私泄漏風險,并有效識別虛假信息,增強生成式人工智能技術的透明度,避免獲取數據時出現“黑箱”問題。
在責任規范上,政府及監管部門應明確ChatGPT等生成式人工智能各個主體的責任[9],并對各個主體提出數據規范要求,使技術開發方、提供方和使用方各司其職,各自承擔相應的義務與責任。具體而言,使用方在使用生成式人工智能過程中,要加強信息識別能力,時刻保持警惕,不輸入敏感的數據信息,如密碼、銀行賬戶信息、個人身份證件號碼等,并定期清除在ChatGPT 中的聊天記錄,以減少信息泄露的風險。構建多主體的數據監管體系,有助于監管部門在監管過程中提高監管效率,動態跟蹤數據并實時調整治理手段。
為從根本上治理以ChatGPT 為代表的生成式人工智能技術擴大城鄉數字鴻溝問題,避免生成式人工智能產生的個人隱私泄露風險和虛假信息,政府和相關企業應從數字基礎建設、數據算法規制等方面采取相應措施來提升生成式人工智能的技術基礎。
針對生成式人工智能擴大城鄉數字鴻溝問題,政府應加大對鄉村數字基礎建設的投入,加快5G 技術、生成式人工智能技術、云計算等數字化設施的布局,并提高數字技術的可訪問性和可用性。這有利于農民將ChatGPT 等生成式人工智能技術和農業生產結合,及時獲取有效的農業信息,同時對農業布局作出合理的生產調整,提高農業生產效率,進而推動鄉村經濟發展,縮小城鄉數字鴻溝。
針對生成式人工智能產生的個人隱私泄露和虛假信息問題,一方面,從數據算法設計出發,通過大量的模擬預訓練,加強算法技術中對數據的審核及過濾,使得數據的抓取和訓練過程更加合規有序[10],防止未授權的個人信息被錄入,以降低個人信息泄露風險。另一方面,在數據算法應用過程中,通過用戶的數據反饋,及時改進數據算法的設計,使生成式人工智能提高數據理解能力,不斷進行優化處理,糾正數據算法中違背道德倫理的信息。
生成式人工智能在發展和應用過程中,應當彌合數字鴻溝,強化對用戶個人隱私的保護,加強數據的真實可靠性。首先,針對城鄉數字鴻溝問題,政府應加快構建鄉村數字化人才教育保障體系,促使鄉村居民認識到數字化教育的重要性,同時實施人才激勵政策,吸引新青年返鄉創業,從而提高鄉村數字化教育程度,縮小城鄉差距。其次,為保障系統和信息安全,應根據生成式人工智能產業鏈的運作流程明確上下游企業的相關義務與責任,上游企業負責維護生成式人工智能的系統安全,下游企業負責保障數據內容的安全性和準確性,同時上下游企業應建立健全生成式人工智能中生成不符合倫理規范內容的阻斷機制。生成式人工智能的上下游企業分工合作,共同保障用戶的個人隱私安全和所產生數據的真實性。
以ChatGPT 為代表的生成式人工智能的大規模興起,將對人們的生活和社會的發展產生巨大的影響。生成式人工智能和社會發展之間存在密切的關系,在推動生成式人工智能發展的同時,需要充分考慮其對社會發展的負面影響。面對新技術帶來的風險,與其排斥,不如學會利用新技術,化危為機迎難而上,充分發揮人類的主觀能動性,將生成式人工智能掌握在自己手中。