唐振
摘 要:科學技術之精進與便利廣受贊譽,最明顯之處在于改善了人類的生活條件。然而,在享受科學技術之利的同時,也必須正視它能否使人類普遍受益、有何局限等問題。史蒂芬·霍金曾警告說,人工智能的發展可能意味著人類的滅亡。對一些新的科學技術能否應用、如何善用的疑慮,以及科學技術內在的不確定性,迫使人類不得不再次回到“無知之幕”下,重新審視科學技術能否處理好正義問題,或者至少不造成更復雜的倫理風險。
關鍵詞:科學技術;倫理風險;無知之幕
科學技術的進步,一方面使人越來越認識到人類理性的有限性,另一方面,也在開發和利用科學技術增加人類的能力,尤其是那些超越其作為人類這個物種正常范圍之內的增強技術的應用,現都已成為人類延伸能力的重要途徑。但是,科學技術的發展可能會打翻正義的天平,技術如何善用,需要慎之又慎。
一、 科學技術下的人類社會
21世紀是智能時代,在這個技術日新月異的時代,技術是人類不斷創造和應用的目的性活動序列、方式或機制,人類能力的極限在一次次刷新和突破,人類文明演進與技術進步同行。人類可以根據需要采用相應的技術彌補自身的欠缺、改善生活狀況,如:患有多動癥的兒童會因為多動兒分散記憶力,通過服用一種屬于利他林的藥物,既可以改正多動癥,又可以增強兒童的注意力;患有殘疾的人,可借助義肢像正常人甚至比正常人更快的行動;在人本不能生存的太空中創造與地球類似的生活環境;有什么樣的進攻性武器,就會有什么樣的防御性武器與之抗衡;科學技術的推進甚至重構著行業結構和行業形態。圍繞“如何有效地實現目的”,技術以滿足人的目的與人類相伴而生,拓展了人的新屬性。人的屬性“已經不是由23對染色體組成的身體,可以由非構成人體的碳氫氧有機分子構成,也可以是用電子元件構成,或擁有人腦結構和功能的動物人等”。
然而,新興的人工智能、基因工程、神經科學技術等研發出能夠使人類的能力超越人類這一物種的極限后,這類技術可能會成為部分人的特權而造成一系列不正義問題。
二、 科學技術及其倫理風險
21世紀,風險社會問題日益加劇,科學技術潛在的風險和它享有的威望一樣不可小覷。人類在多大程度上依賴科技,就必須在多大程度上警惕科學技術引起的負效應——隨著時空場合的轉移、環境的變遷、作用強度或對象的變化等,技術的運行往往會產生一系列間接的、衍生的、長遠的消極影響,損害人類的其他利益。科學技術帶來的倫理風險主要有兩方面:
第一,科學技術對人類自由的剝奪。科學技術本初是人類發明的服務人類一系列手段,而在具體應用過程中發生了偏離。人類創造了種種新的、更好的方法改造世界,以期如愿的生活,但卻又陷入在這些技術的枷鎖中,也最終模糊了自己存在的意義。人創造了技術和機器,卻成了自己作品的奴隸。人類越是依賴科學技術,科學技術的負效應就越顯著,人類所面臨的不自由就越嚴重。正如海德格爾所言:“恰恰在座架中——此座架咄咄逼人地把人拉扯到被認為是唯一的解蔽方式的訂造之中,并且因而是把人推入犧牲其自由本質的危險之中。”
第二,特定技術的受益群體有限。科學技術發明者和受益者總是對技術報以百分的樂觀,因為技術可帶來可觀收益和好處,但并非每個人都能受益于其中。在社會技術體系的建構與運行過程中,下層或弱勢群體總是處于被壓迫的劣勢地位。當然,在社會技術設計、建構與運作等環節強調正義原則,是維護人類普遍利益的正當要求。但是,技術也可以明碼標價,將有需求而無力購買者拒之門外。在一些人應得的權利還匱乏的時候,利用科學技術用于擴展極少數人的能力是否合乎正義?此時,科學技術的正效應與負效應同時出現了,倫理價值出現失衡的風險。
三、 科學技術與倫理的協同發展
一個社會中,對弱者的態度,體現了一個社會的文明。早在2002年,世界跨人文主義協會修改并采納了《跨人文主義宣言》,強調其宗旨是合乎倫理地使用擴展人類能力的技術。在我們所處的時代,已不再是宣揚弱肉強食或者叢林法則的時代,科學技術與社會的關系已從“社會中的科學”向“科學伴隨社會”的新范式轉變。既然如此,應該重返到無知之幕下,在這樣的情況下做出的決定,才不會危及少數人的“正當利益”,在科學技術進步與社會倫理秩序之間尋找一個平衡點。
第一,兼顧科學技術的社會影響。科學技術的正負效應要求人類在發明和應用技術時,必須明確技術是延伸人類能力的定位,而限定其應用范圍可能是使這種定位得以貫徹的根本途徑之一。即使一些技術能增強人的功能、改善人的生活,在決定是否增強時,公平正義以及個體自主性是必須重視的。技術的存在是為了解決問題,而當其本身成為問題時,這樣的技術是不值得提倡的。且科技產生的問題通常不能僅僅依靠科技本身得到圓滿解決。在人類不能解決某一問題時,不制造新的問題也是理性的表現。
第二,強調科學技術研究者的自律性。在面對經濟利益的誘導、政治聯盟的強勢、制度化科學資本的施壓,研究者的自律性可能被擠壓和破壞,使科學技術淪為少數人牟利的工具。加之科學只需研究事實的問題,在轉化為具體應用和實踐的過程中,容易輕視技術的倫理向度,使得工具理性成為主導人們價值判斷和選擇等實踐活動的主要因素,進而使研發者極易受制于自身擁有的純科學資本,以及個人價值的實現,不會去思考其研究可能帶來的社會責任與倫理問題。強調和增強科學的自律性,就是要積極引導外部因素的介入,注重科學技術經濟功能以外的其他功能,使科技更好地服務于人類社會。只有在技術進步與人性完善與社會發展協同的歷史進程中,社會倫理秩序才能得到維護。
此外,強化倫理規范建設、完善法律政策體系。堅持人本原則、可容忍原則、民主原則、審慎原則這四項原則,基于人類命運共同體理念,切實增加科學技術所帶來的倫理風險的現實考量。如此,即使去除無知之幕,科學技術也能實現與倫理的協同發展。
參考文獻:
[1]邱仁宗,李念.“跨人文”“后人文”是對人文主義的豐富嗎?——訪邱仁宗院士[J].哲學分析,2016(4).
[2]王伯魯.技術奴役問題新解[J].河南社會科學,2016(3).
[3]孫周興.海德格爾選集(下卷)[M].上海:上海三聯書店,1996:950.
[4]梅亮,陳勁,吳欣桐.責任式創新范式下的新興技術創新治理解析:以人工智能為例[J].技術經濟,2018(1).
[5]羅爾斯.作為公平的正義:正義新論[M].姚大志,譯.上海:上海三聯書店,2002:18-19.