李 娜,陳 君
(廣州中醫藥大學馬克思主義學院,廣東廣州 510006)
負責任創新(responsible innovation),又稱負責任的研究和創新(responsible research and innovation,RRI),是歐盟“地平線2020”科研規劃的重要內容,主要強調科學與社會之間的合作以及加強公眾對科學的信心,同時也是一種道德觀念、價值取向和實踐倫理經驗,更是一種帶有倫理意義的創新理念[1]?!柏撠熑蝿撔隆币辉~首次出現在歐盟2002年的“第六框架計劃”(The Sixth Framework)中,此后各種機構和活動之間的合作開始應用“科學和技術的負責任研究和應用”等相關詞語(條),促進了全球背景下的對話和科學技術倫理研究。“負責任的研究和創新”一詞于2013年首次應用于歐盟“第七框架計劃”(法規,EU No.1291/2013),近年來在學術出版物和歐洲層面的項目中進行了討論、研究和開發,逐步也在中國工程項目中得到應用。
目前,負責任創新理念的實際應用已經得到了社會的認可。美國在2008年調整納米技術科研基金的使用中就融入了負責任創新的歐文四維框架,由此美國學界將負責任創新稱為人類共同追求的理想;荷蘭在2008 年鹿特丹港建設的馬斯弗拉克特二期項目(MV2),從立項伊始就貫穿著負責任創新理念;英國在2010 年提出的平流層粒子注入氣候工程項目(SPICE項目),經協商和反思意識到此項目存在一定風險,故最終取消該項目。以上這些案例都為負責任創新的實際應用提供了重要啟示和有益經驗。
人工智能(artificial intelligence,AI)自1956年在達特茅斯會議上提出至今,實現了前所未有的突破和發展。隨著AI技術不斷推陳出新以及快速更迭,無人駕駛技術、指紋識別、人臉識別、智能機器人、遠程醫療等技術已逐步應用到現實生活之中,相關一系列技術倫理問題也隨之突顯,但因AI技術發展快速,傳統的倫理規范道德制約和現有的法律法規已明顯不足以應對當今復雜的社會發展局面,新興科技的創新治理和發展規范成為當代世界各國面臨的主要挑戰和困境,也是國家創新與發展戰略的重要組成部分。在中國,作為新興科技代表的人工智能,面臨著具有中國特色社會主義新時代特征的AI技術創新及倫理創新的重要挑戰,由此AI倫理問題亟需得到解決。
歐盟委員會強調RRI的6個關鍵點——公眾參與、道德、科學教育、性別平等、開放獲取和治理,同時負責任創新本身所堅持的科學、綠色、節能、環保等理念,正好符合中國新時代的發展理念和路線?;谪撠熑蝿撔卤旧淼睦砟詈蛯嵺`經驗,本文旨在運用負責任創新理念及其框架解決AI技術的倫理問題,以從科技研發源頭避免倫理問題的產生,并在科技創新實際應用中反思和及時改正出現的倫理問題,促使科學技術創新更好地造福全人類和全社會。
“負責任創新”的概念首先在歐洲被提出,主要是基于預期治理(anticipatory governance)和美國的ELSI兩種概念。預期治理主要指在一個受限制的研究領域,對情景進行預期的管理;美國的ELSI主要指新興科學和技術的倫理、法律和社會方面。
RRI的出現,根源于“預期治理”概念。預期治理的歷史可以追溯到2002年,當時Guston等[2]學者使用了這一術語,但沒有明確提及RRI。預期治理主要是指在一個受限制的研究領域,包括創建未來可能出現的不同方式的情景,對其進行預期的管理,這或許有助于對未來可能出現的威脅作出最小化的決策并提供可行的替代方案。
RRI的出現,還值得一提的概念是從美國出現的ELSA概念,它代表著新興科學和技術的倫理、法律和社會方面。Zwart等[3]認為ELSA研究與RRI有著驚人的相似之處,旨在為技術發展計劃提供社會和倫理補充,這些補充最早可追溯到1994年的第四屆歐盟框架計劃。同時,ELSA研究承認科學專業知識不能被視為開發和引進新技術的唯一基礎,相反,社會應該盡早參與。RRI定義最初的出現,并不是由專門的相關研究領域的學者提出,而是由科學政策制定者和歐洲委員會中大多的各種基金機構提出。因此,關于RRI的定義不僅包括學術定義,還包括行政定義。
目前,關于負責任創新的具體定義學界還尚未達成共識。根據Burget等[1]的觀點,將負責任創新的定義主要分為兩種:行政定義和學術定義,行政定義主要是基于負責任創新概念在政策、方針、機構等方面的定義,學術定義主要是學術界對其概念的定義。
2.2.1 行政定義
2011年在《關于負責任研究和創新的報告》中,Sutcliffe[4]認為RRI有主要以下特點:(1)刻意關注研究和創新產品,以實現社會或環境效益;(2)社會始終如一地參與創新過程的開始和結束,并且公眾和非政府組織也關注公共利益;(3)評估并有效地優先考慮現在和未來的社會、道德和環境影響、風險和機遇以及技術和商業;(4)監督機制能夠更好地預測和管理各種問題和機遇,并且能夠適應和快速響應不斷變化的知識和情況;(5)開放性和透明度是研究和創新過程中不可或缺的組成部分。除此之外,Sutcliffe[4]還提供了研究和創新的定義:研究是指一種系統調查方式,以便確定事實并得出新的結論;創新是指一種優越的過程或產品,也可指發明的有效商業結果。Schomberg[5]認為,負責任的研究和創新是指社會行動者和創新者彼此負責的一種透明和交互的過程,為了在我們的社會中適當地嵌入科學和技術進步,這個過程同時會考慮到創新過程及其可銷售產品的(道德)可接受性、可持續性和社會需求。Schomberg[6]還將RRI定義為設計策略,該策略推動創新并為實現社會期望目標提供一些引導。在Schomberg的第二個定義中,RRI不再僅僅是一個過程,而是一種設計策略,也就是說,RRI成為一種能夠塑造一個過程的策略。2013年,歐洲委員會[7]在其發布的政策文件《加強負責任研究和創新的選擇》中,將負責任研究和創新定義為:負責任的研究和創新是指在研究和創新過程中采用的綜合方法,在早期參與研究和創新過程的所有利益相關者(1)獲得關于他們的行動結果的后果以及對他們開放選擇范圍的相關知識;(2)在社會需求和道德價值方面有效地評估結果和選擇;(3)將(1)和(2)的因素作為設計的功能要求和新研究、產品和服務的發展。類似于Schomberg[5-6]的定義,RRI并不僅僅被定義為一個過程,而是指一種為研究和創新提供某種方向的方法。
行政定義的特點是包含各種要素,例如預期、預測問題和確定替代方案及反映價值觀等等,也有學者強調評估、社會期望和評估社會、道德及環境影響等等,并且確定其優先級,同時考慮技術影響、風險和機遇、預測和管理問題,快速響應不斷變化的環境和知識。本文采納的是Schomberg[5]的第一種RRI定義,即在面對和解決AI倫理問題的過程中,需要AI技術研發人員和社會行動者的共同參與,彼此透明溝通、相互協商,適當嵌入科學和技術進步理念和觀點,這個過程同時會考慮到AI創新過程及AI產品的(道德)可接受性、可持續性和社會需求。
2.2.2 學術定義
在學術界,大多數學者基本肯定了Schomberg[5-6]對RRI的定義,強調對潛在影響和社會期望的預期,并讓利益相關者和公眾參與研究和創新的過程。但部分學者也有不同見解,如Roco等[8]列出了負責任創新的以下4個特征:(1)跨部門和學科的變革,(2)考慮公平獲取、健康、安全和環境的問題,(3)政府機構和其他利益相關者的參與,(4)預測和適應的長期措施;Stilgoe等[9]進一步闡述了負責任創新的定義:負責任的創新意味著通過對當前科學和創新的集體管理來關注未來;Stahl[10]將RRI視為一種元責任,將RRI定義為是一個更高層次的責任或元責任,旨在塑造、維護、發展、協調與調整現有的、新穎的研究和創新相關的過程、參與者及責任,以確保理想和可接受的研究成果;劉戰雄[11]認為RRI是創新共同體以尊重和維護人權、增進社會福祉為價值歸旨,以積極承擔全責任為方法特征的創新認識和創新實踐;Spruit等[12]將RRI描述為通過評估創新過程結果的可取性,例如根據責任法評估法院的有害產品結果,評估創新過程的質量;晏萍等[13]認為RRI是繼可持續發展之后歐美國家提出的新的發展理念,其主要內容是將企業的社會責任與技術創新實踐密切結合,從倫理角度有效評估和影響技術創新的各個環節,以保證技術創新成果的可持續性和社會可接受性。
關于RRI的內涵問題一直是學術界熱烈討論的話題,但到目前為止,國內外對其具體概念、定義、內涵和外延還尚未達成統一共識。研究人員將RRI主要視為一個包括利益相關者、預測、反思、協商和反饋社會需求和價值的過程;除此之外重要的是,關于學術定義,研究結果以及作為RRI終點的創新過程的結果一直被強調,并且將個人責任作為審議過程的一部分也被考慮在內?!柏撠熑蝿撔隆边@一概念是在21世紀中后期被一些學者引介到中國,國內學者傾向于Schomberg[5-6]對RRI定義的比較多。
2013年,英國經濟學家Owen等[14]將負責任創新主要通過“四維框架”將倫理因素考量納入整體考量的理論和實踐來看,即預期(anticipation)、反 思(reflexivity)、 協 商(inclusion) 和 反 應(responsiveness)。“四維框架”以階段性方式參與作為整體的負責任創新過程,得到了學術界的普遍認可。2017 年,Burget等[1]在總結了 Owen 等[14]“四維框架”的觀點基礎上,增加了兩個新興的概念:“可持續性”和“關懷”。可持續性是指一種可以長久維持的過程或狀態,通常包括生態可持續、經濟可持續和社會可持續3個組成部分;關懷是屬于公共領域的維度,指公民自己負責代表他們執行的決策和行動。在此基礎上,本研究加入“無私利性”這一理論框架。無私利性主要是指科學研究人員不應該以科學活動或者科技創新的過程及結果來謀取私利。綜上,構成了RRI研究及應用的7種理論框架,即:預期、反思、協商、反應、可持續性、關懷和無私利性。
如今,AI已經從實驗領域走向實踐領域,逐漸發展成為當前全球最炙手可熱的技術之一。隨著2016年和2017年由谷歌公司研發的AI圍棋軟件“阿爾法狗”分別接連戰勝圍棋大師李世石和柯潔之后,AI的發展開始快速走向公眾的視野,促使公眾開始思考AI到底是什么及其所帶來的倫理問題。
人工智能,于1956年在美國達特茅斯人工智能夏季研討會的提案上首次被公開提出,該提案由McCarthy等[15]科學家共同發起,旨在創造一種機器,使其學會使用語言、模仿人類行為和形成抽象的概念,以此來解決人類專有的遇到的各種問題并進行自我完善。其后,人工智能逐漸發展成為一種理念、一類技術和一門學科,既是理論概念又是實踐方式。廣義上,AI是研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門技術科學,是計算機科學的一個分支,也是計算機科學技術的前沿領域。AI是對人的意識、思維的信息過程的模擬。AI不是人類智能,但能像人那樣思考、更有可能超過人類智能。狹義上,AI是計算機科學或智能科學中涉及研究、設計和應用智能機器的一個分支,同時也是一門涉及計算機科學、信息學、神經心理學、哲學、倫理學、語言學等學科,通過學科融合發展起來的交叉性學科。關于AI的定義,至今還沒有一個統一的表述,總體來看,對AI定義的不同見解都從一定程度上影射出AI的出現對于改善人類生活方式具有非凡的意義。
工業革命前后,科技都以一種正面的力量存在,它被哲學家高度贊譽,被稱之為一種美德、一種人類社會進步的標志,但是隨著兩次世界大戰的出現,科技開始呈現出負面的影響,催生了包括核武器在內的威脅人類命運的成果。即使在當前社會AI技術得到不斷創新和應用,人類和社會在享受技術創新所帶來的便利的同時,也不得不面對技術創新所帶來的倫理問題。主要概括為以下3個方面:
(1)安全問題。AI安全問題主要是指AI技術在應用過程中出現,危及到人類安全及環境破壞等造成不良后果的問題。隨著自動駕駛及智能機器人等AI技術的發展,出現了諸如自動駕駛成為武器,人類應該如何應對這一類問題。2018年3月20日,美國亞利桑那州坦佩市一輛處于自動駕駛模式的Uber自動駕駛汽車在進行路況測試時撞死一位過路的行人,這次交通事故成為全球首起自動駕駛致死案例,由此,AI技術的安全問題引起了社會廣泛的關注和討論。2019年3月10日,埃塞俄比亞航空公司一架型號為波音737MAX8的客機在起飛6分鐘后進入無人駕駛的階段,發生墜毀導致機上全部人員遇難,這也是繼獅航空難事件之后該型號客機第二次發生安全事故,因此,相關專家及公眾把此次有關安全問題的矛頭指向AI自動駕駛技術,其安全隱患無法使公眾放心。自動駕駛技術的研發本著方便出行,然而對創新的反思不足,給人類帶來便利的同時也帶來了災難。
(2)隱私問題。AI隱私問題主要是指AI技術在應用過程中出現的私人信息或者大數據泄露等問題。隨著大數據技術、人臉識別技術、指紋識別技術、聲控識別技術及云計算技術等技術的興起,出現了諸如公眾個人信息能否在應用中得到保障這一類問題。發展AI需大量數據的積累,利用大量數據訓練算法可提高AI解決問題的能力,但這也威脅到個人隱私,成為開發數據資源價值過程中最突出的倫理挑戰。2017年9月,美國三大個人信用評估機構之一的Equifax被爆出遭遇黑客攻擊,約有1.42億用戶的個人重要信息面臨泄漏。2018年11月,美國匯豐銀行通知客戶發生了數據泄露,攻擊者訪問了該金融機構的在線賬戶,泄露信息包括用戶的詳細個人信息、賬戶信息和交易記錄。由此可見,大數據算法的研發本是方便數據管理和儲存的,然而因缺乏預測可能會出現的后果,造成應用過程中的數據泄露。又如人臉識別技術的研發,本是為方便刷臉解鎖及刷臉支付等私密和快捷的體驗,但如果不充分考慮和保證隱私保護問題而被不法分子肆意濫用,將帶來一系列不可預期的后果。
(3)后果問題。AI后果問題主要是指AI在研發初期、應用過程以及應用之后可能會帶來的一些負面影響或者是具有爭議的復雜后果的問題。隨著智能機器人、AI金融及AI醫療等技術的不斷發展,技術創新既會對人類主體地位帶來威脅,又會出現技術倫理道德等問題,出現了諸如基因技術或生物工程技術是否會導致基因重組、對環境造成破壞之后誰來承擔責任等問題。2014年,由英國皇家學會舉行的“2014圖靈測試”大會上,一個名為尤金·古斯特曼(Eugene Goostman)的聊天程序上演了一場精彩的與人類對話,首次通過了圖靈測試,讓人誤以為尤金是個13歲的孩子,因此讓人不得不重新思考AI是否有一天會超越人類思維、是否應該制止AI的發展。醫療機器人在降低醫療成本的同時也帶來了責任問題,如手術機器人在提高手術成功率方面表現優異,但安全風險一樣存在,如果機器人在手術中發生系統故障,將直接危及患者的健康甚至生命安全,此類醫療事故存在責任認定的困難。因此,在技術研發初期就應該充分預測其可能帶來的后果問題,以免陷入倫理困境。
以上幾種倫理問題均指向AI技術創新給人類和社會所帶來的一系列影響,同時,也促使人們開始思考到底什么樣的AI才是可行、可應用的,AI技術創新的每個階段需要結合什么樣的責任才可以更安全,因此,把RRI框架的各個方面和AI技術研發、創新和成果的每個階段結合在一起,可以完善AI技術的理論和應用的實踐性。
基于已有的6種RRI框架,筆者通過學習科學的社會規范認為,無私利性是從科研人員利益角度出發進行分析,故新增無私利性框架。無私利性作為RRI框架,可以大大減少因科研人員和科研機構追逐利益為目標而產生的AI倫理問題??蒲腥藛T是科技創新的直接利益相關者,如果在科技研發之初就忽視利益問題而重視科技產品的價值和品質,那么將大大有益于科技創新的發展。
預期旨在展望研究和創新的未來,通過對當前狀態的分析展望未來。預期促使研究人員和組織機構關心“如果……會怎樣?”的問題[16],還要考慮偶然事件、已知事物、可能性、合理性和可行性。預期涉及提高復原力的系統思考,同時揭示創新的新機會和為社會穩健風險研究制定議程。負責任創新把關注的重點從風險轉移到創新本身,從對下游環節( 后果) 的關注轉移到對上游環節( 創新) 的關注,可以避免基于風險的危害評估不能提供關于未來后果的早期預警的弊端[17]。因此,預期維度主要指負責任創新主體基于現有條件,對未來可能出現的科技創新和科技研究對自然社會、人類社會以及其他宇宙空間等帶來的后果給予一定的描述、分析和預測。預期維度高度關注研究和創新的初始階段,而非創新成果所帶來的影響。
AI技術創新所帶來的是一種不確定的后果,或有益或有害。如果將負責任創新的預期維度嵌入到AI技術的創新和發展起始之時,那么,以個體或者小集體為單位的責任主體以及以利益為目標的科研人員和生產商就顯得不足以應對可能會出現后果。負責任創新的主體不僅僅是關乎決策機構、研究機構、高等院校、社會組織等主體間關系,也牽涉利益綜合、權力沖突和話語選擇間的博弈,還與技術可行性、經濟效益和倫理考量密切相關,還可包括創新者之外的決策者、生產者、銷售者、消費者、服務者及個體之外的集體等等。對于技術創新可能潛在的風險,我們可以通過預測進行系統化的考察和評估,從而更好地做到未來發展規劃和風險規避,使AI技術創新更具有價值性和有益性。正如Rose[18]所強調的,對技術潛在影響的預期有助于(1)反思研究項目的動機和影響,(2)更清楚地了解不確定性和困境,(3)向更廣泛的公眾開放愿景和(4)利用成果塑造研究和創新軌跡。因此,預測在研發開始時起著重要作用。
負責任意味著行動者和組織機構需要對自身進行反思。Stilgoe等[9]學者認為,在RRI的背景下將反思定義為堅持某個活動的承諾和假設,了解知識的局限性并注意某個問題的特定框架可能不會普遍存在,并且意識到社會科學家和哲學家已經開始努力參與到實驗室過程中。Wynne[19]認為,責任將反思性轉化為公共事務,需要一種制度性的反思,由此,反思這一概念開始得到了重視。在當前階段,概念維度的反思性旨在反映技術研究和開發過程中的價值觀和信念。一些學者認為對反思的理解和應用離不開公眾對話、公眾參與、科學和公共合作,強調了將預期與反思性聯系起來的重要性,這些都是了解反思的關鍵。一些學者認為反思旨在對科技創新的研究和開發過程中的價值和信念進行思考,反思的過程離不開公眾的參與,注重預期與反思性相結合。因此,主動反思將成為讓公眾參與討論科技倫理問題的有效工具。
將反思維度貫穿于AI技術的研發和發展使用過程中顯得很有必要。公眾參與、公眾對話以及科學和公眾合作等,讓公眾直接參與到科技研發過程之中,讓科技不僅僅是科技發明者和創新者的專屬,這樣可以更加高效地提升AI技術的價值性和創造性,同時也有效避免因單一方面參與者的技術研發所帶來的社會問題和倫理問題。我們可以建立一套AI技術研發的科研人員行為規范準則,使反思成為科研人員和科研機構必須遵守的一種理念;公眾和機構的參與不僅能夠促使研發者反思自己的價值體系,而且還有助于在科學和創新實踐中建立反思能力。反思性要求科學家們在公共場合模糊他們的角色責任與更廣泛的道德責任之間的界限,因此它要求科學和創新文化中的開放與領導。
協商旨在讓不同的利益相關者參與到研究和創新的早期階段。Schomberg[5]認為,每個人的肩上都承擔著特定的道德責任,然后這些人形成集體參與,通過集體辯論作出決策。為了履行這一道德責任,Schomberg[5]和 Owen 等[14]學者將這一責任與確定社會期望的結果聯系起來,認為通過公眾參與可以實現社會期望的結果。對于技術問題的解決,公眾參與和公眾協商同樣是必不可少的,同時,經濟和人文環境也有其存在意義。有學者認為,讓公眾參與到研究和開發的早期階段,將會對技術發展產生積極的影響?;诖?,將RRI的理念作為行為準則,指引各個行為者遵循安全、道德和有效的框架原則。在實踐中,通常被采用的方法和技術有公民陪審團和公民小組、專門小組、共識會議、科學商店等等,但不包括構建特定種類的公眾,權力不平衡將繼續存在。
協商是最能表征RRI的概念維度。在大多數情況下,RRI與研究和開發中的社會包容性相關聯,并且概念維度的實際實施已經開始出現。作為RRI的主要特征,協商需要更多反思性和批判性的學術討論,因此,AI技術的研發和創新也需要加入協商維度的討論。協商主體不僅應該包含科技創新的直接利益相關者,也應該包含科技創新的間接利益相關者。負責任創新本著以公共利益為導向,以公眾參與、信息透明、民主化治理為手段,推動公眾集體應對技術倫理挑戰,通過協商,可以大大降低技術創新的不安全后果、倫理道德責任的缺失以及對生態環境的破壞,還可以更好地解決科研人員和人民群眾之間存在的不理解和不信任,無論是科研人員還是技術的使用者、受用者,都可以通過共同探討的方式重新評估和解決AI技術多帶來的諸多倫理問題。
反應能力是反饋能力和響應能力的總稱。負責任創新需要具有根據利益相關者的反應和變化情況對框架和方向進行調整。在實踐中反應能力主要集中在主要集中在同化、反應或排他性的態度,而不是回應或包容。反應能力包含風險識別、透明度和無障礙性。新技術涉及的風險或是中期、或是長期,或者與經濟有關、或者是與環境有關、抑或是與社會相關聯。歐盟通過無障礙獲取意味著開放獲取科學成果,也就是說公共資助研究的結果必須向公眾開放,具有一定的透明度。在一些分析性的文獻中,涉及反應能力的討論主要與道德、風險、透明度和可訪問性等相關。
AI技術研發過程所需要的時間是不確定的,技術觸及的風險類別也是不確定的,所以應該將風險類別、障礙程度等因素融入反應能力中,以便在技術研發過程中不斷得到反饋,作出正確的響應,提前識別和預防技術導致的風險以及帶來得危害或損失;同時,AI技術的正負作用應該具有一定的透明性,至少是對技術操作人員來說是透明的,避免像波音737MAX客機事件的發生。此外,公眾也可以參與進來,及時有效地提出意見,便于對創新過程中的方法進行調整;同時,國家或者政府等權威機構也可以無障礙獲取AI技術成果,以達到及時的監管和監督效果。
可持續性通常指的是新產品的資源效率。雖然可持續性的概念可以在大多數文獻中找到,但其還沒有明確地被稱為概念維度?!皻W盟2020戰略”強調了科學與技術之間的合作是保證可持續和包容性經濟增長的關鍵因素,Galdon-Clavell[20]支持這種想法并提出了“智慧城市”這一觀點,認為當社會資本和基礎設施投資通過預期治理來合理管理人力資源,以此支持可持續經濟增長時,那么這個城市是“智慧”的。Owen 等[14]認為,在討論社會需求和價值觀等問題時也應考慮可持續性。Flipse等[21]也支持“歐盟2020戰略”中的觀點,認為研究和創新與社會責任密切相關,因為它們可以幫助提高可持續性產品。也有觀點認為,資源使用不足是資源節約型和科技創新需要解決的主要問題。
AI技術產品如果嵌入可持續性這一觀點,可以提升資源的有效利用和長期發展,同時大大降低“科技垃圾”的生產,也可以提高社會經濟的可持續增長。正如智慧城市想法的提出,以創造“智慧科技”,節能、環保、可持續的AI技術產品。AI技術的研發和創新應與社會責任息息相關,社會責任在提高資源可持續和技術產品可持續上發揮著獨特的影響力,因此,科技創新需要遵循可持續發展理念,以建設環境友好型社會。
關懷指的是以一種獨特的方式將道德心理學和發展與道德考慮的范圍聯系起來,面向未來的倫理學的主要問題是如何處理來自技術創新等社會實踐的不確定性。Owen等[14]描述了預期、反思、協商和反應等4個概念維度,但并不專注于作為判斷環境的內在決定者的人,因此,公民自己負責代表他們執行的決策和行動。引入關懷的概念,人們積極采取的責任理念開始變得重要。關懷同時被解釋為人們共同發展感知、行動和判斷能力的過程。關懷作為RRI的一個單獨的概念維度是重要的,以便不將包容性視為滿足重大挑戰的手段,而是將人們的高目標和日常實踐結合起來的一種方式,但并不專指將人們共同的發展感知、行動和判斷能力作為判斷環境的內在決定者的人。因此,通過引入關懷的概念,作為主體的我們開始重視采取積極的責任理念。
在AI技術研發和創新過程中,如果嵌入RRI理念中的關懷,就要求科技研發人員以及參與到技術創新中的人應該關懷AI技術給人類所帶來的影響。這一理念應該貫穿于科技創新的整個過程,從構思到實際應用的方方面面,以此有效避免在科技創新為人類服務及工作的同時對人類的生活質量和社會環境可能造成的影響,也可以是AI技術與人類更好地和平共處。
無私利性要求科研人員在科技研發過程中,不應該把科技成果視為追求名譽、地位、聲望的“敲門磚”,或者是運用不正當的手段在競爭中提高自己,更不應該以追求科技產品所帶來的利益為價值指標。無私利性規范要求科學家不以科學活動謀取私利。Groves[22]認為,面向未來倫理學的主要問題是如何處理來自技術創新等社會實踐的不確定性,尤其是科技創新工作者或者科技創新機構的不確定性。良好的研發開端才可能會產生有價值的科技創新成果。
因此,AI技術的研發人員或科研機構應該在創新之初持有無私利性的理念,并且將此理念貫穿于科技研發的整個過程以及科技成果的使用,不應該以單純追求經濟利益和社會利益等為目的,而應該首先忽略可能會帶來的利益,忽略可能因為這一科技創新成果所帶來的名譽、地位等超過科技成果本身所帶來的價值,秉持無私利性的科學態度,為科技創新塑造良好的價值理念。
RRI自被提出以來雖然只有20年的時間,在定義和概念維度仍然缺乏明確性,但其理念已經在納米科技、環境治理等多項新興技術中得以應用,是歐美前沿的科技創新與研究理念;并且,RRI的概念已經開始出現在不同的機構文件和研究出版物中。盡管負責任創新的發展存在一定的局限性,但是,負責任創新的責任范疇已愈加廣泛。從橫向來看(空間),負責任創新的應用范圍非常廣泛,涉及人類社會、自然社會和宇宙空間等因素;從縱向來看(時間),負責任創新的責任范疇始終貫穿在創新準備、創新過程和創新結果之中。根據對RRI定義、概念維度和框架的討論,可以認為RRI本質上是一種管理研究和創新的嘗試,以便在研究和開發的早期階段納入所有利益相關者和公眾;反過來,把不同的參與者和公眾都考慮在內,意味著增加預測和辨別研究創新如何能夠或可能使社會受益,以及防止任何負面后果發生的可能性。
AI技術產品越來越成為人們日常工作及生活不可缺少的一份子,因此,嵌入RRI框架來解決AI倫理問題成為可能,值得我們深入研究。通過預期、反思、協商、反應、可持續性、關懷、無私利性等框架理念,可以有效減緩AI倫理問題的產生。但是從長遠的發展狀況來看,RRI框架不足以應對倫理問題的解決,還需要倫理道德規范和倫理法律的實施、多元學科與多元領域的協作、創新制度和法律法規的完善。不僅如此,AI技術的發展也是任重而道遠的。