999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能法律問題探析
——基于技術哲學的理解

2018-02-24 18:50:16毛高杰
西昌學院學報(社會科學版) 2018年4期
關鍵詞:人工智能人類法律

毛高杰

(河南牧業經濟學院學報編輯部,河南 鄭州 450044)

隨著人工智能在近幾年重新得到人們的關注,人工智能法律問題在法學界、實務界、技術界、商界等各個領域都受到了廣泛的關注。2017年法理學年會將主題定為“信息時代的法律與法治”,兩百多名學者對法律與技術的有關問題進行了討論,有一批高校也相繼成立相關研究中心。已有研究大致存在以下幾種觀點:(1)認為人工智能對法律問題產生嚴重沖擊,這些觀念包括對美國開始大量投入法律人工智能所帶來的影響進行論述,認為人工智能會在很大程度上替代傳統法律工作者的部分職能;持有這一觀念的主要是新型法律服務企業;(2)認為人工智能在一定程度上可以更好地增加法律從業人員的工作效率,進而實現法律上的公平和正義。這一部分以國家有關部門和司法工作人員為主,認為可以通過人工智能的使用,在一定程度上解決現在所面臨的案多人少問題,并且通過大數據和人工智能以實現司法的統一和精準。(3)還有一類研究者并不簡單將人工智能對法律的影響做單一的歸類,而是盡可能地對人工智能可能帶來的影響進行分析。這些研究在很大程度上反映了中國法律研究和實踐對人工智能的敏銳反應,但受制于人工智能和法律之間的專業隔閡,偏重于法律的研究者更多關注人工智能對人類影響的價值問題,采用應然的規范性研究較多,而偏重于技術和商業行為的研究者更多關注人工智能的資本回報,但較少關注可能帶來的價值問題。雖然已有研究很多,但分屬于不同的領域,基于不同的邏輯前提,各種觀念之間無法形成有效的溝通。

造成這種局面的重要原因在于面對人工智能時未能深入分析人工智能多個維度面臨的不同法律問題,而是將人工智能當作一個無須分析的單一問題進行討論。從縱向上來說,人工智能具有理念層、物理層和應用層三個層面,理念層對應的是哲學層面的問題,由此產生的是需要在法哲學層面深入探討的主體、法律原則等基底問題;物理層對應的是一個產權歸屬和可能的代理問題,需要具體的產權規則加以調整就可以;最復雜又最為切近社會實踐的是應用層的人工智能,即人工智能在特定的目的之下以特定的功能在原有的社會互動關系中展開,無論采用強人工智能還是弱人工智能,都是在考慮人工智能介入原有人類社會之后的社會行動所面臨的法律問題,因此這一層面的人工智能帶來的問題最為復雜,既關系到人工智能主體性問題,也關系到一個混合了人工智能的社會秩序問題。這三個層面的人工智能法律問題又可以在另一個角度上加以區別,即在柔性的人類智能和剛性的人工智能之下,將三個層面的人工智能問題予以更加細化的區分。這些層面的人工智能法律問題,首先要在最基本的理念層面予以準確理解,才能為后面兩個層面的人工智能法律問題提供邏輯基礎。

一、理念層的人工智能

在法律邊界的討論中,更多關注法律與道德的問題,但歸根到底是關于人的行為問題。因此,在法律與道德的框架之下無法容納在法律的角度如何分析人工智能的問題,盡管在語言的意義上我們可以純粹符號性的指稱人工智能法律問題,但如何定義人工智能首先是一個認知問題,然后才是法律問題。

首先,認知是一個自然進化行為,無論是采用稍微抽象一些的先驗理論,即康德關于人的先驗事實,抑或采取笛卡爾關于個體認知與世界的關系,都是一個哲學前提下的探討,無法在任何經驗意義上予以規范化。即便采用更加實證的腦科學和認知行為學的理論,關于人的認知的事實也無法給予精確的描述,更無法在某一個相對統一的共同體范圍內獲得統一的規則化,這導致事實上無法納入任何人類自身建構或者演化的規則范疇。從這一層面來說,作為認知現象而出現的智能本身無法作為任何法律規則的調整對象,即不存在可法律性的基礎。

其次,如果采取稍微寬泛一點的定義,將智能看作可以通過一定的規則予以調整的人類互動關系,從而在最弱的意義上允許對智能加以分類,可以將其納入某一規則系統。一個可能的邏輯衍生就會推演下來。第一步,將智能看作可以調整的人類互動關系意味著智能必須在價值上可以評價,一些智能在價值上必然優于另一些價值,因此在面對時間、空間以及資源限制的時候,某些價值必然要受到約束甚至被消除。對于人類社會來說,盡管在歷史上形成過某些種群的存在價值低于另外一些種群的歷史[1]。第二步,一旦將智能看作可以和一般行為一樣進行價值賦予的情況,認知本身就成為可操作的對象,操作知識的知識也將被看作可以進行明確予以規則調整的領域。這似乎可以看作是人們在法律實踐的歷史中一直在遵循的邏輯,通過把主體、權利義務、法律關系、法律事實等進行價值化的轉換,人和世界都可以歸結為某種合理性依據的規則系統。第三步,建立一個具有立法權力和執行權力的制度體系。在現實社會中,立法權力和執行權力具有馬克思意義上的絕對壟斷性,在解決霍布斯叢林狀態的情況下,也能夠解決盧梭的自然狀態,在一個由多元文化所組成的世界上以現代民族國家的形態調整不同國家和地區的社會秩序。對于智能來說,如果要建立一個可以對智能進行調整的體系,需要在更加底層的智能產生和運行狀態下進行。

第三,在這一可操作的層面,需要對智能的形成和變化具有充分的控制。在粗略的傳統法律體系之下,隱藏著可以通過規則對人的行為進行引導的前提。但這一前提并不能夠將人類社會發展的所有結果單一推到法律規則的調整效果上,或者在更進一步的反思下,一個文化之所以形成某種法律規則體系,可能并不是某種人類社會共同遵循的結果,相反更可能是某一人類社會共同體受到相同的文化和社會框架的約束,從而做出具有相似選擇行為的結果。因此,將建立在粗糙經驗前提下的法律規則適用在對智能調整上,在缺乏足夠的了解和可以控制的機制的前提下,很大程度上可能只是一個文化上的想象而非真實的結果。

第四,一個文化想象并不意味著對理念層的人工智能加以法律化后不存在后果。只是這一后果可能與預期相違背。這里有兩個問題:(1)一旦人們采用了可以操作智能的思路,就必然將人工智能與人類智能進行比較,從中尋找到可能的一致性,將所有的智能納入法律規則的調整之下,使得人類智能本身也在人工智能的陰影之下潛在地轉化為可以加以分類的對象。(2)人類智能與人類本體的一體性意味著調整智能需要調整人力本體,一些人類相比其他人類更加具有優越性。也許不會采取在歷史上被反思過的明確種族主義的方式,但通過將某些個體置于更加不利的話語地位上進而弱化其社會和政治地位,則是文化體系中更加容易實現的操作。在人類智能和人工智能越來越具有技術上的一致性的情況下,技術優勢疊加文化優勢和政治優勢,人類智能事實上被更加嚴重地加以歧視,就被系統化的折疊進試圖對人工智能進行分類規制的邏輯前提之內。

最后,認知的可法律性在虛幻與歧視中,人工智能的可法律性也處在晦暗不明狀態。從前面分析來看,智能本身缺少足夠的可法律性,但因為人工智能受到資本、傳媒和政治的青睞,導致關于人工智能法律問題的討論成立一個足夠熱鬧的問題。這種人工智能法律問題缺乏對智能本體的考慮,也缺乏對人工智能在現實社會中呈現形式的考慮,因此在某種程度上是一個沒有人工智能的人工智能法律問題,具有極強的虛幻色彩。但這種虛幻的人工智能法律問題帶來的是非常實在的歧視性問題,在最弱的層面上是對不同的人工智能層級予以不同的對待,因為人工智能主體性的缺失,因此在面對技術迭代和資本逐利的貪婪下,基本無法確定哪一個人工智能才能獲得穩定的法律上的主體性,由此而導致的人類智能本身的主體性也在逐漸模糊,借助于技術和資本的能力的不同,一個逐漸加大的技術和資本的歧視結構的法律價值基礎正在逐漸顯現。

二、人工智能法律問題的間接效應

第一部分從智能本身分析認為人工智能不具有可法律性,但人工智能在人類社會中的應用一定會出現間接的可傳遞的法律效應,本部分對此進行簡要論述。

首先,人工智能的去主體性會帶來價值屬性的消解,導致人類社會法律的根基坍塌。對于人類社會的法律來說,無論是原始的習慣或者現代文明社會中的法律規范,都指向人類本體,即便在現代法律傳統以前,法律對人類加以明確的法律上的區分,將有些群體當作不完整的法律意義上的不完整人類主體,但在加以保護的人類主體上,都在最低限度上將人類當作一個具有不可替代價值的主體,因此在抽象的人格到具體的財產權的保護,都得到完備的法律系統的調整。所以,法律的前提建立在一個不言自明的邏輯前提之下,即法律是為了保護法律意義上的人類主體,無論被納入該類群體的人類具有何種智能和形體,只需要落入法律所規定的主體范疇之內就可以獲得當然的主體權利。但人工智能并沒有明確的可確定歸類的群體,無法在人工智能認知的意義上對人工智能進行主體的界定,也就無法產生人工智能本土的法律問題。這一消解侵蝕人類主體的方式會經由人工智能對人類智能的介入而產生。雖然沒有能夠完全替代人類智能的人工智能,但在信息技術、基因編輯技術、人機交互技術、腦科學、認知科學等多領域的共同作用下,人類現在已經處在一個被技術包圍的境地,沒有物理意義上的人工智能對人類智能的替代機制,人類智能浸泡在技術空間的社會結構已是事實,一些主體因為技術和資本的優勢擁有構建世界的可能力量,而更多的人類主體則在消極地接受技術的澆灌,因為技術在主體性上價值的消解,由此必然帶來技術和資本優勢不同的人類主體原來價值屬性的消解。相對于傳統社會中對某些群體的歧視性對待,人工智能間接影響的人類主體消解在最終意義上并沒有得到統一確認的前提,因為技術本身處在一個迭代沖動之下,只有迭代才有價值,而迭代意味著快速的新生和死亡,穩定的主體則意味著衰落和遺棄。

其次,這種屬性進一步擴大了人類社會的基本結構的差距,羅爾斯式的正義結構將受到嚴重沖擊。總體上來說,羅爾斯式的正義結構是西方工業社會具有的特定產物,建立在自由主義基礎之上。自由主義對社會基本結構的假定是一個成熟的理想市場、理性的市民社會以及民主制度相互協調,在一個穩定的互動結構下才能維持基本的正義結構。對于理想的市場來說,需要市場參與者具有足夠的競爭能力,并且滿足市場一直能夠保持自生自發秩序的演進。但人工智能在結構上依賴一個高度中心化的體系,通過數據計算中心對所有接入人工智能的要素進行支配。這種支配結構并不存在競爭性而是簡單的命令與服從問題。技術哲學家芒福德將技術分為兩類,一類是“集權的單一技術”,指的是那些“基于科學之力和大量生產,以復雜的,高度權力化的機器為中心,目的在于經濟擴張,物質豐盈和軍事優勢,簡言之,就是為了權力。”[4]

這就改變了理想市場的存在基礎,形成愈加明顯的技術官僚體系,在技術和資本的疊加下甚至具有明顯的軍事色彩。對于理性的市民社會來說,一個基本的以個體為基礎的前提必須滿足,即任一個體都具備通過自由的社會互動獲得關于社會的知識,并且能夠得到充分的政治上的實現。人工智能介入人類社會之后,隨著個體接近和利用人工智能能力的不同,個體獲得有關社會知識的能力也不相同,彼此之間進行溝通和表達的能力也不相同。這種異質性與布勞所說的個體因為稟賦和運氣等因素導致的差異不同,因為稟賦和運氣等因素導致的差異并不能被有意識地控制,并通過技術方式在群體之間進行目的性配制。而人工智能介入之后所形成的差異是后天技術和資本所帶來的結果,在中心化的支配下,個體被動地分配在技術等級鏈條的不同位置,獲取信息和表達對世界的看法,都被技術等級鏈條所型塑,一旦個體獲得信息的行為可以被算法精確預測,個體在認知意義上的主體性也將被算法消解,公民社會的基礎也將在人工智能基礎之上受到徹底的摧毀。

最后,人工智能介入人類社會,帶來人類社會基本價值觀念的轉變,改變公平正義的基本含義。對于現代法律來說,其存在正當性的基礎是能夠滿足當代倫理所假定的一系列基本價值,為每一個公民提供基本的存在性基礎。在文化、宗教、政治、主權等現實障礙之下,人工智能會因為人類社會現有的社會結構本身的限制而呈現為更強的差異,形成基于人工智能的人類支配關系,并且出現極化的社會結構,最終在一個日漸陡峭的高維中心化基礎上,形成嚴峻的不平等結構、更加被控制的自由和更加被設定的正義。人工智能所具有的高維中心化特征不再具備原有假設基礎,即每一個個體不再被看作完全獨立的個體,而是處在人工智能網絡不同位置的節點,該節點處在技術等級鏈條的特定位置,并與現實社會中的政治、經濟和文化資本相互糾纏強化。當個體的先天價值不再看作來自天賦人權,而是一個可以借助于現代技術改變的對象,先天價值的神圣性和不可剝奪、不可修改就隨之消解,取而代之的是在人工智能介入后的計算引導。

在該問題上更多觀念認為人類主體性不會變化,但無法解釋的是社會中不同個體借助于人工智能所獲得的權力和巨大的支配能力如何改變人類所具有的基礎要素,從而形成通用計算滲透、影響甚至決定的人類社會基礎。第一,對于自由來說,具體體現在意志自由上,即個體具有根據自己的意愿獲得信息、表達意愿、做出行動的選擇空間,該選擇空間不受任何明確的目的性支配。如果個體的選擇空間被強制在人為的空間內,即意味著個體缺乏自由。這里又可以區分為主觀的和客觀的自由兩方面,在主觀意義上,任何選擇空間都可看做個體的自由。但在現代法治價值中,自由更多指的是客觀意義上的選擇空間。當個體獲得信息的選擇空間被人工智能進行計算之后予以分配,個體得到的是更加符合歷史上的個體需求意向的信息,將個體封閉在更加狹窄而人為的信息空間之中,從而形成更加隱蔽的信息選擇約束;在意愿表達上,人工智能通過去語境化的方式營造純空間,個體的意愿表達在純空間內可以得到自由的表達,但是無法逾越人工智能所設定的語言邊界,一些詞匯被修辭為不能出現的對象,而人工智能所允許的詞匯被更加明顯地強化。其中更加強化的是人工智能通過情緒計算,可以全面而隱蔽地允許個體表達出自己的意愿,而該意愿是人工智能或者借助于人工智能的技術、資本和政治力量獲取自身更大利益所需要的形式自由。第二,公平價值從抽象的人格向具體的數字化人格轉化,形成可計算的公平價值,但計算的終極權威由抽象的道德權威轉化為具體的人工智能算法。從亞里士多德開始,對公平價值的認識都交由道德判斷加以衡量。在道德領域中,公平價值無法以量化的方式給出標準,而只能采取思辨方式認為有關人格的核心價值不可以量化的標準衡量,更不能以具體的量化標準對不同的個體進行公平價值上的區別對待。對于資本主義社會中愈來愈多以功利標準衡量公平正義等價值的現象,羅爾斯以“應得”應對天賦在道德上的挑戰,同樣桑德爾也區別了個體在功利層面上的能力和道德上的應得之間的區別。正是道德領域中堅守這些基本價值的不可計算屬性,才能保持整個西方社會價值的基礎。隨著人工智能介入程度的深化,個體可計算的屬性更加明顯。從市場角度來說,個體的可計算屬性一直與個人財富密切相關,但這一計算僅僅是個體眾多屬性的一種,在道德理論的強制下,個人人格的其他要素都不容許可計算屬性的侵入。與資本主義功利價值屬性不同,人工智能的基礎是通用計算,并不區別構成個人形象的屬性中哪些是歸屬于不可計算的人格領域,還是歸屬于可計算的資本主義功利領域。因此,在人工智能領域,構成個人形象的所有要素都能夠以可計算的標準加以衡量,無論是個體表面行動的數字化特征,還是個體認知層面的數字化特征,抑或是個體情感層面的數字化特征,人工智能都能通過通用計算以最接近的方式再現出來,形成個體在人工智能黑箱中的數字化人格存在。如果說最低級的人工智能與資本主義社會的功利觀念相銜接,高級的人工智能則可以接管個體的完整人格。人工智能在決策過程中產生的無意識的歧視會導致特定人群受到不公正的待遇[5]。在前述人工智能、資本、權力三者的相互強化下,被通用計算建構起來的個體成為完整的可計算對象,根據可計算的數字化需要,個體被直接或者間接支配到相應的社會位置,一個顛覆公平正義的基本結構就全部出現。當然這一理想型并不一定完全出現,但人工智能愈來愈強大的計算能力對個體形象的入侵,人工智能、資本與權力三者的相互合作,重建人工智能時代的公平正義社會結構以及技術結構,成為必須要面對和解決的問題。

三、理念層人工智能法律問題的應對方案

人工智能法律問題的根源在理念層,沒有對理念層的正確認識,只是對人工智能應用中的問題進行對策性的解決,無法從根本上解決本文所提出的問題。人工智能在理念層所面臨的主體消解、社會結構顛覆、公平正義觀念改變等問題,需要法律理論對其做出回應。

首先,主體消解的間接法律調整。在人工智能廣泛發展之前,個體與技術的關系有異化的傾向,但個體并不會在生活的各個領域被計算,更不會被精確地數字化描寫。技術的這種模糊傾向使得我們面對人工智能的時候無法找到一個準確的描述方式,尤其是在人文社科領域中缺乏對人工智能的道德化描述語言。對技術入侵人類社會最為敏銳的當屬埃呂爾,他認為:“如果我們把人放在這個社會中來考察,那么他只能被當作一個陷在由對象、機器以及無數物質構成的世界中的存在物。技術世界不是把人,而是把物質的東西放到首位,所以它不是,也不可能是一個真正的人本主義社會”[6]。馬爾庫塞也說:“科學—技術的合理性和操縱一起被溶解成一種新型的社會控制形式。”“技術已經變成物化——處于最成熟和最優形式的物化——的重要工具,個人的社會地位及其同他人的關系,看來不僅要受到客觀性質和規律的支配,而且這些性質和規律似乎也會喪失其神秘性和無法駕馭的特征;它們是作為科學合理性的可靠證明而出現的。這個世界勢必變成甚至把管理者也包括在內的全面管理的材料,統治的羅網已經變成理性自身的羅網,這個社會最終也會被困在該羅網之中。理性的超越性方式看來會超越理性自身。”[7]在純粹認知和哲學層面無法通過對人類認知而加以控制,因此在這一層面沒有法律適用的空間,也即前文所解釋的不可法律性。從人類整體來說,人工智能或者其他技術都可以看作人類在廣義互動中所產生的文化結果。在人工智能技術之前,所有的技術發展可以看作整個人類社會多個要素共同作用的結果[8]。這一共同作用并沒有一個明確的設計者和指引者,更加類似于達爾文的進化模式。對于人工智能來說,即便是弱人工智能,已經可以借助廣泛的信息收集和數字化描述能力形成關于人類形象的簡單描述,這一描述準確而有效,在與資本、權力結合之后,人工智能已經具有明顯的壟斷能力。建立一個有著明確目的主體性干預機制就變得極為迫切:第一,必須建立一個既保持技術演化的開放性和競爭性,又保持對人類主體性嚴格保護的觀念。這意味著不能采取封閉的目標系統,技術不能侵害最低限度的人類主體性尊嚴,當技術或者思想在涉及這一禁地的時候必須加以改變。第二,這一思想需要一個更強的知識競爭結構,不允許任何名義的知識占據唯一的權威位置,更不允許人工智能技術所獲得的知識占據唯一的權威位置。當一種知識具有借助人工智能獲得實質上的唯一權威位置的時候,通過法律的手段對其進行強制約束,以保持最低限度的強知識競爭結構,保證人類知識上的多樣性不受損害。第三,通過立法方式約定人工智能絕對低于人類人格的法律資格,并在原初代碼中強制設定無條件不可傷害人類的倫理代碼。人工智能在信息的獲取和功利性的計算能力上高于人類智能的某些方面,只有從基礎上切斷能夠演化人工智能獨立人格的前提,才可以避免在人工智能越過技術奇點之后帶來不可逆轉的局面。第四,在人工智能技術領域設置明確的法律機制,其效力和地位應當不低于人類憲法。建立由科學、社科、人文、藝術等領域專家組成的人類倫理審查組織,通過組織化的干預最大程度避免人工智能在科學這一單一領域中的過度發展,通過社科、人文、藝術等領域多樣化價值的賦予,在保有人類自身價值的獨特性基礎上,保證人工智能與人類自身屬性的一致性,最低限度上能夠和人類智能共同和平互動。

其次,通過強制性補貼措施,糾正人工智能帶來的中心化弊端。上海交通大學江曉原教授從宏觀上探討了人工智能特殊的技術與社會發展的關系,將人工智能的威脅分為三個層次:近期威脅是大批失業、軍事化;中期的威脅是人工智能的反叛和失控;遠期的威脅是消解人類生存的根本意義,他認為應該以技術自治為主體結合政府管制對人工智能進行引導和規范[5]。相對于其他技術形態,人工智能的泛在性具有更強的中心化特征。在人工智能廣泛應用的社會中,與人工智能結合程度的不同會導致占據資源的冪律分布更加陡峭,出現整體的社會差距。這種差距不僅僅是經濟上的,更體現在社會的全方位差距。因為人工智能通過計算可以描述人類共同和社會的各個要素,因此也意味著人工智能技術與個體的接近不限于經濟領域,而是形成全方位的描述,形成一個倒T型的社會結構,少數技術精英、政治精英和資本精英借助人工智能塑造一個更加符合精英需求的社會,形成事實上更加陡峭的社會差距。解決這一問題有兩個方案,一種是直接削減人工智能的應用,這會導致一個國家的技術處于絕對劣勢,是一個過于消極而不可取的方案。另一種是建立強制性的補償機制,將少數精英借助于人工智能而獲得整體壟斷性資源以一定的方式進行再分配。可以認為是一種人工智能稅收,在避免過大差距導致社會嚴重不公和社會基礎脆弱的同時,為社會流動提供充分的制度保障,近似于目前為止最為穩定的橄欖型社會結構或者金字塔形社會結構,激勵個體為獲得人工智能資源的獎勵而努力競爭。與人工智能之前的再分配體系不同的是,人工智能資源的再分配涉及少數精英借助于人工智能所獲得的整體性資源的再分配,包括資本、信息、數據、機會、知識等一系列人工智能強化壟斷的資源。通過這種強制性再分配機制,為整個人類社會在人工智能時代保持基本的社會結構的一致性,避免人工智能的高維中心化帶來過度汲取導致的社會脆弱,以維護人類整體的社會價值。

具體包括:第一,將人工智能所帶來的各種資源集聚以法律方式予以公共化。在人工智能介入人類社會之后,技術、資本和權力精英能夠通過人工智能全面壟斷各種資源,這種壟斷形成對一般個體的全方位黑箱式覆蓋,只有將這種資源集聚以一定的方式加以公共化,轉變成具有更強公共目標的資源,才能夠在根源上避免人工智能所帶來的社會結構分化差距過大的問題。第二,限制人工智能所帶來的各種資源集聚所具有的一般交換能力。在市場觀念中,資源的交換是最符合效率和正義的一種機制,但這種觀念強調所有市場主體能夠均等地獲取和利用各項資源。在人工智能高度介入人類社會之后,市場主體呈現為高度分化的個體,少數精英可以整體性地利用優勢構建隱性不平等社會結構。如果不對交換加以限制,少數精英就可以利用人工智能的高維中心化優勢獲取任何領域的交換優勢,進而形成對社會各領域的全面剝奪。這種危機意識一般體現在對貨幣的一般交換能力的擔憂上,桑德爾認為“由市場驅動的社會的缺陷之一,就是它會使利他心、慷慨、團結和公民精神這些美德失去活力。”[5]通過創制一定的社會形式限制交換的非道德因素,強化社會交換的一般道德屬性,更好地發揮人工智能介入人類社會之后所帶來的高維中心化優勢,同時通過間接的方式將人工智能帶來的資源集聚反饋整個社會,以更好地維護社會基本結構的穩定和公平。第三,通過法律強制在人工智能中嵌入社會公平倫理代碼。人工智能發展到一定程度之后,機器智能存在著異于人類智能的可能,由此必將產生人工智能的倫理與人類倫理之間的潛在風險。盡管這一擔心并沒有明顯的現實依據,但作為一種理念,從人類倫理所面臨的潛在風險著手防范,具有一定的倫理價值。當機器智能具有完全獨立于人類倫理的狀況出現時,再想對人工智能進行倫理上的干涉就很難從底層代碼層面展開,所面臨的狀況就有失控的風險[9]。這種法律強制要求所有的人工智能在底層算法中必須加入社會公平倫理代碼,最低限度上不能出現以人本體的物化為對象,無論何種狀況都需要無條件地將人作為目的。這包括不能以任何具體的形式將人本體拆解為碎片化的物化價值,禁止將人本體的要素拆解之后以算法再造人本體的各種價值,尤其不能以經濟價值為唯一的衡量標準。還包括不能在宏觀層面上將人本體作為算法可操作的對象,尤其要避免在腦科學、神經行為學理論之下將個體或者群體的生物學、心理學特征當作可控制的對象,以限制介入人工智能之后少數精英借助技術的力量大規模控制人本體,并獲取絕對的壟斷利益。

最后,在人工智能時代重塑公平正義觀念。在人類歷史上,公平正義觀念并沒有絕對的形象,也無法找到一個被歷史上各種社會形態均接受的單一標準。隨著資本的不斷擴張,資本家對技術的要求也越來越高,這也進一步刺激了技術的發展。“正是由于資本主義生產方式的發展,科學技術的進步與革新才會以前所未有的規模和速度向前發展,而資本又把技術統治作為實現自身增殖邏輯的工具和手段。”關于正義的討論中,大多關注正義的政治內容,即認為“在同每一個人的幸福有關的事情上,公平地對待他,衡量這種對待的唯一標準是考慮受者的感受和施者的能力”[11]。

對于正義觀念來說,核心是人的行為。這一傳統含義并沒有來自人工智能介入人類社會之后的內容,只是針對具有相同理性能力的人類個體展開正義觀念的建構。自近代以來,正義觀念越來越多地被用來評價一種社會制度是否符合某一倫理準則。羅爾斯認為正義的對象是社會的基本結構,后來羅爾斯又認識到需要解決基本社會結構能否滿足重新論述的兩個正義原則[12]。這種正義所包含的自由平等前提受到阻礙的主要原因并不是技術,而是來自社會資源分配和政治制度的不平等。在人工智能介入人類社會之后,技術因素急劇擴大其影響,必須將技術因素納入公平正義內部,內部加以重塑以建構人工智能法律問題中的公平正義。傳統的公平正義觀念都是倫理屬性的,無論是個體之間公平相待,或者一種社會結構能夠更好地分配機會和資源,都是基于倫理屬性的評價。人工智能則具有更強的技術色彩,如何在二者之間建立一種新的協調關系就影響到人工智能法律問題下的公平正義。(1)擴展公平正義的倫理范式,將人工智能的實質性影響納入公平正義的固有屬性中。人工智能技術本身具有高維中心化的趨勢,占據技術核心的精英群體具有更多的選擇自由,所占據的各項資源也更具有優勢,極容易形成社會位置的陡峭差距。只有設置最大限度最大差別原則,才能容納人工智能介入人類社會之后所帶來的法律問題,從而建立起一種能夠滿足人工智能社會結構的法律原則。因此,不能將來自于人類社會自身的差異性作為認定最不利社會成員的唯一標準,應當將能否獲得人工智能技術協助個體獲得綜合社會位置作為衡量標準,以應對人工智能介入人類社會所導致的社會位置差距極端擴大。(2)構建綜合倫理正義、制度正義、技術正義的人工智能的正義觀念綜合體。“正義是倫理學意義上的概念,無論東方,還是西方,正義概念首先是人們的一種道德觀念”[13]。倫理正義并不考慮具體的人的條件,只是沿襲柏拉圖的理念,將人與人、人與群體、群體與群體的理想關系描述出來,作為社會和政治中人的社會的理想狀態。這一理想狀態無法解釋人工智能介入人類社會之后主體能力的差距陡然增大的事實,必須將人工智能所帶來的個體能力在技術上的壟斷優勢考慮進來,從有應然的正義形態轉向人的能力的現實差距,對當前利用人工智能能力不同的主體之間的關系作出新的分配框架。法律能夠成為現代社會的重要行動指南,在區別于其他治理方式的優勢上被認為具有當然的正義基因。富勒將倫理正義的價值劃分為義務的道德和愿望的道德兩部分[15]。法律通過權威性的制度體系體現道德的內在要求,將人的行為從任意和神秘的領域轉化為可以把握和預期的理性王國。這一正義要素與技術理性具有內在的一致性,但人工智能對主體的滲透和影響不能僅僅在技術內部得到解決,更不能解決人類目的性和人工智能的非意向性之間的矛盾。真正的問題是人工智能所具有的技術邏輯與基于理念的正義邏輯之間的不協調。當少數精英借助人工智能獲得絕對的壟斷優勢的時候,技術邏輯在簡化、效率和目的等力量的推動下更加忽視理念邏輯下的正義是否實現,而僅僅關注技術的應用能否實現預期的目的。以倫理正義為最終的理念歸屬,設置一個技術和理性絕對不能入侵的領域,并通過法律正義為人類社會關系提供底線保障,使得人類社會借助人工智能的技術正義普遍提高個體動用資源的能力,形成一個自身充分發展的高級社會形態,或者形成一個借助技術整體同步協調提升的社會進步形態,才可能是人工智能法律在法律哲學層面真正要逐步解決的問題。

猜你喜歡
人工智能人類法律
人類能否一覺到未來?
法律解釋與自然法
法律方法(2021年3期)2021-03-16 05:57:02
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
讓人死亡的法律
山東青年(2016年1期)2016-02-28 14:25:30
“互助獻血”質疑聲背后的法律困惑
中國衛生(2015年1期)2015-11-16 01:05:56
主站蜘蛛池模板: 538精品在线观看| 亚洲美女一区二区三区| av在线手机播放| 无码啪啪精品天堂浪潮av| 午夜国产不卡在线观看视频| 亚洲一级毛片在线播放| 四虎在线观看视频高清无码| YW尤物AV无码国产在线观看| 亚洲性网站| 久久精品丝袜高跟鞋| 高清色本在线www| 97视频免费看| 又猛又黄又爽无遮挡的视频网站 | 国产一级二级在线观看| 秋霞一区二区三区| 欧美亚洲国产精品第一页| 中文字幕免费播放| 国产小视频网站| 亚洲品质国产精品无码| 亚洲伊人久久精品影院| 婷婷色丁香综合激情| 99热这里只有成人精品国产| a级毛片在线免费观看| 欧美亚洲欧美区| 久久视精品| 成人午夜久久| 免费a级毛片18以上观看精品| 国产成人精品视频一区二区电影 | 欧美在线精品一区二区三区| 片在线无码观看| 日韩在线中文| 天天综合网色| 久久久久88色偷偷| 国产综合网站| 中文字幕欧美日韩| 伊人久久久大香线蕉综合直播| 波多野结衣一区二区三区四区| 99一级毛片| 蝌蚪国产精品视频第一页| 久久精品国产国语对白| 91亚瑟视频| 久久精品亚洲热综合一区二区| 欧美高清视频一区二区三区| 国产女人18毛片水真多1| 日本精品影院| 青青青视频91在线 | 国产91在线|日本| 亚洲综合经典在线一区二区| 青青极品在线| 欧美天堂久久| 欧美日韩国产综合视频在线观看| A级毛片高清免费视频就| 一区二区三区四区在线| 国产尹人香蕉综合在线电影| 亚洲天堂视频在线免费观看| 无码免费视频| 成人综合在线观看| 国产真实二区一区在线亚洲 | 欧美一级视频免费| 国产福利一区视频| 99无码中文字幕视频| 日韩无码黄色| 国产农村妇女精品一二区| 久久精品人妻中文系列| 国产99视频精品免费视频7| 麻豆国产精品一二三在线观看| 在线视频97| а∨天堂一区中文字幕| 在线免费亚洲无码视频| 99精品热视频这里只有精品7| 国产精品99一区不卡| 丝袜亚洲综合| 免费在线一区| 精品一区二区三区视频免费观看| 在线观看无码av五月花| 亚洲一级无毛片无码在线免费视频| 大香网伊人久久综合网2020| 久久香蕉国产线看观| 99成人在线观看| 最新日本中文字幕| 91系列在线观看| 片在线无码观看|