張穎
生成式人工智能算法(以下簡稱“生成算法”)與判別式算法相比,具有廣泛的復雜性,其強大的算力一定程度上延伸了人的主體功能,促進了社會生產向數字化、智能化發展。但隨著人對技術的日益依賴,生成算法中的偏見問題逐漸凸顯,人的主體性在生成算法偏見中逐漸被削弱。康德“人是目的”理念,為防止生成算法發展中人的主體性消散提供了倫理原則。重構人的主體責任是規制生成式人工智能算法偏見的重要路徑。
生成算法的設計主體存在價值失語。生成算法的隱蔽性和數據的龐大誘導人類無法進行自我選擇,致使思維固化以及社會不公。生成算法一定程度上延伸了算法設計師的主體功能,幫助算法設計師從某些繁雜的工作中解脫出來。但是在這一過程中,算法設計師受困于已有算法模型的隱蔽性以及數據的歷史性和局限性中。人們“解放雙手”將某些工作托付給人工智能,但人類一旦放棄了自己的自由選擇,盲目信任人工智能生成的內容,不加以價值倫理的思考和判斷,人的主體性和技術的沖突就會越來越嚴重。
生成算法的設計主體應當進行價值重構。沒有感知的概念是空洞的,沒有概念的知覺是盲目的。首先,人工智能的更新換代依靠沒有感知能力的通用算法模型,但高層的感知過程在于人類的認知能力。生成算法的設計者要認識到自身的感知是生成算法無法取代的,對生成算法的倫理測試是至關重要的。其次,在概念層面上始終保持自上而下的影響給予感知指導。人類感知的靈活性源于與概念層面的不斷互動。生成算法在超越以往技術的同時,更要設計師超越以往算法模型的魯棒性問題,在設計算法時應依照“人是目的”的價值導向加強生成算法的感知能力與靈活性。
生成算法的管理主體探索價值定位。海德格爾認為,“技術尺度”成為人取用存在者的唯一尺度,而現代的主體性之自由完全消融于與主體性相對應的客體性之中了。生成算法正如海德格爾所說的“集置”一般,一方面拓寬了人們的認識,作為人的主體延伸;另一方面,削弱了人的主體性,遮蔽了認知的真理。商業管理者將生成算法作為追求資本的工具,失去了人工智能技術認知的真理。從哲學的角度來看,技術與道德的關系是辯證統一的。企業管理者作為企業決策的核心,需要準確定位技術價值,將倫理定位永久性融入企業文化之中。
生成算法的管理主體應當做到價值堅守。人類文明歷史上對道德的考量從未停止,現代社會對道德的引導更加重要。在企業管理和應用生成算法時,應該時刻貫徹“人是目的”的價值導向,保護人的主體地位。人是以存在方式和真理方式建立在具體事務之上的。作為主體的人將自己視為“存在者”的存在尺度,以各種方式規定、進而控制著“存在者”。管理者秉持“人是目的”以及技術向善的初心,將生成算法最大化地服務于大眾和社會。一方面,管理者的價值管理水平應作為重要的考核標準。另一方面,企業管理者要強化對員工的倫理價值培訓,自上而下加強倫理培養,定期進行宣傳、學習和考評。
生成算法的施用主體推動價值反思。“人是目的”是“道德三定律”的核心思想,當一個人完全在理性的指導下而不受任何嗜好的影響行動時,這種行為就是一種完全理性的行為。用戶是有自由意志和自由選擇的主體,其自由意志強化了用戶的自由自覺的主體性地位,用戶作為人就是現世上創造的最終目的。用戶作為責任主體對自己負責,經過理性評估和價值指正做出主體選擇,用戶作為主體其行為的目的是無條件的“善”。用戶面對生成算法時容易掉進軟件產品“周到服務”的陷阱,但這類服務并非是用戶的真正所需,有時只是一種干擾和廣告。用戶首先要切實維護自身隱私安全,失去隱私會使生成算法干涉用戶的自主權。
生成算法的施用主體必須堅定價值選擇。作為施用主體的用戶們在使用生成算法時要保持理性的認知,將生成算法作為主體功能延伸的工具而非目的。黑格爾所說:“所有的人都是有理性的,由于具有理性,所以就形式方面說,人是自由的,自由是人的本性。”所以用戶在選擇生成算法時,要維護自己的理性和自由。例如面對智能軟件時,提防各式隱私條款和權限,時刻保持對生成算法的辯證態度,將選擇建構在理性分析上,防止隱私泄露和依賴沉迷。
參考文獻:
[1][德]康德,楊云飛譯,鄧曉芒校,道德形而上學奠基[M].北京:人民出版社,2013.
[2][德]海德格爾,孫周興譯,海德格爾選集[M],上海:上海三聯書店,1996.
[3]段偉文.直面數字技術與自動化技術突變的哲思[J].自然辯證法通訊,2020,42(11).
項目基金:國家社科基金一般項目“人工智能驅動科學發現的認識論研究”(22BZX027)階段性成果。
(作者單位:華東理工大學馬克思主義學院)