999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

構建以接受性為核心的人工智能倫理

2019-01-26 19:00:35張正清北京航空航天大學馬克思主義學院講師博士
中國科技論壇 2019年9期
關鍵詞:規范人工智能

張正清 北京航空航天大學馬克思主義學院講師、博士

1 人工智能政策與規范之間的差異性

2019年中國政府工作報告指出: “打造工業互聯網平臺,拓展‘智能+’,為制造業轉型升級賦能”,并提出 “深化大數據、人工智能等研發應用,培育新一代信息技術、高端裝備、生物醫藥、新能源汽車、新材料等新興產業集群,壯大數字經濟。”這是我國政府連續三年在政府工作報告中提及人工智能的發展政策,2017年提出 “把智能制造業作為主攻方向”,2018年又提出 “發展智能產業,拓展智能生活”。人工智能的戰略意義還體現在對于社會問題的治理上,每年消耗在社會問題的定性與分析上的成本是驚人的,而人工智能基于對社會信息的高效處理,可以給出更為經濟、準確的方案,從而優化政策制定過程[1]。可見,人工智能的生產化、社會化是并行展開的,如何發展實用、適用的人工智能,是我們的著力點。

不同于人工智能產業的蓬勃發展,人工智能本身的規范問題沒有得到與之相匹配的重視程度。在政策制定層面,倫理規范往往只是錦上添花的部分或者實現目的的手段。法國政府呼吁考慮世界范圍內已有的人工智能政治、倫理規則,為的是能在產業發展中表達自己的規則,確立領先地位[2]。善的人工智能社會 (Good AI Society)計劃也表明[3],在美國、英國、歐盟的人工智能政策制定中,政府、企業與研究者的角色與責任是目前最關注的內容。人工智能規制架構所指導的框架、監管、流程與部門規定,往往側重于行業標準和產品設計[4]。

不同于政策的偏重,倫理學的研究對于人與機器的互動更關注。從計算機、人工智能的倫理研究過程看,在20世紀80年代中期,人們就開始爭論計算機是否產生出控制人類行為的技術路徑,從而引發人們對于計算機倫理問題的關注;在20世紀90年代,政策制定者們提出了關于計算機犯罪、數據安全、數字專利和電子商務的第一批規定。2000年以后,一系列道德困境出現了,在機器人產業和機器學習中,人們提出了新的應用倫理學領域,例如 “機器人倫理學”和 “機器倫理學”[5]。從2016年開始,人工智能形成了較為完整的倫理規約框架,規范人工智能的四個治理方向已初步形成,關注于人工智能的社會意涵、人工智能的技術影響、人工智能的法律與規范、人工智能的倫理[6]。即便存在這樣一些規范框架,產業政策與倫理規范之間依然存在側重、發展與規制上的巨大差異。

2 發展錯位與內外差異是產生分歧的主要原因

發展錯位與內外差異性使得學界與產業界在一些核心議題上存在爭論。例如,目前學界認為,未來社會存在人工智能取代智力型工作的遞進階段[7],當經歷過這幾個階段之后,處于工作崗位上的人會被人工智能完全替代。同樣,還有一種說法,認為有些職業存在被替代的風險,甚至有人預測出了各職業被人工智能取代的概率[4]。然而這些研究與論述很少體現在政策規范文本與產業發展規劃之中,導致這種理論關注與現實規范不對等的原因有以下兩個:

(1)行業與學界的發展錯位。技術先行、倫理配套是一系列新興技術發展的事實過程。每一代新技術的產生都是在其應用到一定階段時,人們才能真正認識到倫理問題的重要性。歷史地看,倫理實現規范功能的滯后性是普遍現象,對于現在的人工智能產業也依舊如此。但是新興技術又呈現另一種特殊性,例如人體增強技術、納米技術、人工智能技術,在尚未在產業界應用之前,就已經引起了廣泛的倫理討論。這種現象導致了一種行業與倫理討論的分離,目前在人工智能的倫理討論中就出現了這種分離。在人工智能的倫理研究中,存在一種未來主義的觀點,其倫理思考與規范建立在當下尚未出現的技術條件之上。例如在親密關系機器人的倫理反思中,很多學者指出可以順暢交流、進行肢體動作互動的機器會替代目前的家庭成員;而社會機器人的從業者指出,目前的商用機器人在外觀上依然無法實現被人完全接受的水平,更談不上替代人類家庭成員,因此主張的機器道德能力、道德價值是有問題的[8]。這種沖突還體現在強-弱人工智能的分歧、長期-短期人工智能發展的分歧之中。強人工智能或許可能擁有類人的思維能力,或者與人不同的思維能力,但是已經成為很多學者討論的起點;而弱人工智能強調智能機器只是服務人性,而不是創造一種新的人性,智能機器有一些輔助人智力的能力即可[9],這是政策制定的認識基礎。這些分歧導致規范性研究與產業研究之間溝通的障礙,也造成了政策、戰略與行業規范之間的錯位。

(2)內在與外在兩種進路的分歧。人工智能的倫理研究與哲學研究側重對心智、語言、意向性等內在性問題的討論,而規范、政策與戰略規劃關注于人工智能的社會表現與互動,這導致了倫理規范與技術現實之間的內外分歧。對于人工智能這種特殊技術來說,其對人類社會深度、自動 (自主)的參與,使人看到了自身行使道德行為的影子。雖然對于每個技術物,都有合倫理設計的要求,但是對于人工智能來說,符合倫理不只是從一個被動的參與者角度來討論,更是一種主動的、游走在受控與非受控之間的模糊對象。正是這種模糊性,使得人工智能很早就被人發現存在倫理問題,因為我們無法像對待一般的電器那樣處理智能機器。現在的技術確實制造了一些可以自我決策的自動機器,但是其自主性還非常有限,除非機器有一種類人的道德能力[10]。而問題在于,半個多世紀的人工智能討論,在起伏間從未拋棄道德問題的關懷,卻至今沒有產生一個系統的、公認的規范方式,更多的理論仍然糾纏在意識問題、主體問題之上。

3 以接受性、共識性為核心的整合框架

從戰略、框架走向具體規范的中間環節,要求考慮具體的行動方案。這種行動方案的重點在于消除技術現實與倫理規范之間的分歧,讓技術設計者與政策制定者之間達成共識,并讓這種共識可以被社會一般成員所接受。基于這個目的,我們提出一些規范性的取舍方式,為人工智能政策制定提供建議。

(1)在把道德能力作為評價道德機器的基礎標準之外,進一步關注人工智能的道德接受性。首先,一項技術的社會接受程度和道德可接受性之間存在關聯[11],對于制定人工智能的倫理規范來說,對于接受性的考察遠比對于智能能力的評估重要。人工智能會有何種程度的道德表現,不是一個具體實行的道德規范需要考慮的問題。因為對于目前階段的人工智能來說,我們規范的對象應該以智能能力最低限位為標準。一味假設人工智能在將來的超前發展狀況、預測人工智能在未來可能產生的影響,會影響那些使用情景更普遍化的社會機器。人工智能目前行為的合理性尚在建構之中,我們無法通過現行的人類自身的倫理規范來很好地規定人工智能。此時人機互動的社會接受度就是制定人工智能道德規范的標準,因為只有被社會廣泛接受的行為才有可能是道德的行為,這是一條自下而上的決策路線。其次,人工智能倫理規范應該是全社會都接受的規范,而不是專業團體內部的規范。目前,各個與人工智能產業相關的共同體都在試圖制定規范人工智能的行業標準,這是有益的嘗試,但是這些行業規范不能直接轉化成人工智能的全社會道德規范,因為行業規范主要站在設計者的角度來思考人工智能的倫理問題,這種產品、服務層面的規范無法直接使用在人機交往的現實活動中。更為深層的原因是,人工智能的設計者、生產者目前是以人類的智能定義為目標來行動的,因此會產生類人的道德規范或者混雜著與人相關的道德規范。對于更廣大的社會成員來說,他們并沒有智能模擬和實現層面的策略性考慮,所以專業團體內部規范會潛移默化地塑造社會成員,這有失倫理規范的公平性。因此,人工智能從業者應該謹慎地推廣本領域內部共識標準,應該嘗試轉譯和還原內部標準,以形成更普遍的標準,從而獲得更廣泛的社會接受程度。

(2)在現行道德規則的框架下,把共識性知識作為另一個重要的影響因素。對常識性道德知識進行技術層面的規范化,要優先于對傳統倫理學規則的模擬。在機器行為與機器學習的研究中,一直存在兩種截然不同的路徑,如暴力法與訓練法、事理圖譜與知識圖譜等。雖然孰優孰劣存在爭議,但都體現了人工智能內在的邏輯方式。對于道德行為來說,目前很多學者仍然使用規則優先的道德推理方式,強調從一般的倫理原則到具體行為的推論模式。實際上,倫理學內部對于基本規則的討論尚未定論,各個規則之間也充斥著矛盾。如果以某種倫理原則為基礎,如功利主義,不但會在解釋行為的一致性上產生問題,更會使得持有其他倫理原則的互動者無法接受。設計道德機器與倫理教育有內在的一致性,問題不是在于學習了多少倫理理論與原則、規范,關鍵在對于社會普遍接受的行為如何理解與執行。道德溝通與互動不是基于雙方行為的倫理學來源,而是基于行為本身。這不是在主張一種后果主義的評價標準,而是要在道德動機、道德判斷、道德說明、道德行動的全過程中,把共識性道德知識放在首要地位。因此,人工智能的倫理邏輯應該是模仿與學習,這與目前的倫理教育的內核是一致的,更容易被社會成員所接受。在這種理念下,內在進路所帶來的設計與評價的矛盾就可以被解決。內在進路對倫理規則的內在化,是建立于相信由規則推導出的行為的正確性,以及出于接受規則而接受行為的推論。而人對機器的接受是極為苛刻的,人與人之間在倫理規則上的讓步與妥協,很難出現在人與機器之間的關系上。因此,外在進路所主張的行為評價與道德期望就變得更加合理。

(3)除了對于利益相關者的道德規范外,還要關注對 “人機互動”中的一般參與者的規范。智能機器的倫理規范不僅僅應該是對于機器、設計者、生產者的規范,還應該是對于使用者等更廣泛意義上的參與者的規范。目前人工智能的倫理討論更像是行業規范,只針對人工智能產業內部相關人士進行規定。對于人工智能人工物的行為規范性討論較少,而得到討論的主要問題是對人工智能的責任問題,很少討論整體上的規范性。而大眾使用人工智能的規范就少之又少,鮮有人提及。基于與非人實體的道德關系而進行規范,目前在動物保護、環境生態領域比較常見,人對于非人存在的對待方式,在很大程度上反映了人自身的道德品質。人對自動化機器的非道德行為,會塑造人的道德自我,從而影響人對其他互動對象的道德意向性。在社會機器人的研究中,道德心理學研究者極其關注與機器互動所培養出來的行為習慣,這種習慣本身就是倫理規范的表現。因此,對于使用者進行規范,還可能反向推動規范設計行為,設計與倫理的時間錯位也會得到解決。并且,由于不是讓大眾被動接受專業團體的道德知識,大眾可以更多地發揮常識知識的作用,更容易形成社會共識;而專業團體因此受到更普遍的道德規則約束,更容易形成與一般社會成員在行為規范上的相互建構。

猜你喜歡
規范人工智能
我校新增“人工智能”本科專業
來稿規范
來稿規范
來稿規范
PDCA法在除顫儀規范操作中的應用
來稿規范
來稿規范
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
主站蜘蛛池模板: 99精品视频九九精品| 亚洲一区二区三区国产精品| 欧美色综合网站| 在线a网站| 国产经典在线观看一区| 亚洲天堂在线免费| 日本一区二区三区精品国产| 人妻丝袜无码视频| 亚洲国产成人精品无码区性色| 国产18在线播放| 人禽伦免费交视频网页播放| 无码中文字幕乱码免费2| 国产丰满大乳无码免费播放| 热这里只有精品国产热门精品| a毛片免费看| 久久国产香蕉| 国产亚洲精久久久久久久91| 欧美国产精品不卡在线观看| 国产精品久久久久久久久kt| 欧美一级高清视频在线播放| 黄色网址免费在线| 成人综合久久综合| 91麻豆国产精品91久久久| 国产亚洲高清视频| 中文无码日韩精品| 无码电影在线观看| 91精品国产综合久久香蕉922| 精品国产91爱| 免费a在线观看播放| 97青草最新免费精品视频| 无码有码中文字幕| 人妖无码第一页| 日韩AV手机在线观看蜜芽| 亚洲精品国产综合99| 无码aⅴ精品一区二区三区| 91小视频在线观看免费版高清| 无码中文字幕加勒比高清| 婷婷激情亚洲| 一级成人a做片免费| 国产成人精品男人的天堂| 亚洲性日韩精品一区二区| 欧美无专区| 国产JIZzJIzz视频全部免费| 91青草视频| 久久99国产综合精品1| 亚洲 欧美 偷自乱 图片| 亚洲天堂网站在线| 一本一道波多野结衣一区二区 | 黄色免费在线网址| 91无码人妻精品一区| 午夜福利无码一区二区| 国产在线观看第二页| 欧美午夜在线观看| 91丝袜乱伦| 久久精品国产999大香线焦| 色国产视频| 女人一级毛片| 少妇精品在线| 欧美a√在线| 精品久久久无码专区中文字幕| 色噜噜在线观看| 精品欧美视频| 在线a网站| 国产精品欧美在线观看| 国产一二三区在线| 免费观看亚洲人成网站| 久久亚洲国产最新网站| 成人精品免费视频| 成人另类稀缺在线观看| 久久青草视频| 中国特黄美女一级视频| 99精品欧美一区| 欧美性色综合网| 久久特级毛片| 久久99精品久久久久久不卡| 成人一级黄色毛片| 国产免费人成视频网| 91精品啪在线观看国产91九色| 精品国产三级在线观看| 日韩专区欧美| 91精品久久久久久无码人妻| 久久国产V一级毛多内射|