999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

信任:個體、團體、人工智能體

2025-05-23 00:00:00甘紹平
關鍵詞:人工智能

應用倫理學直面道德沖突、倫理悖論,運用融貫主義的方法在對不同的利益相關方和各異的道德立場或價值理據的協調權衡中,找尋有操作意義的解答方案。這種方案在最理想的狀態下體現為一種道德共識,退而求其次則體現為一種道德妥協。而妥協的出現則有可能使結論的可信度大打折扣。從總體上說,應用倫理學中許多有關社會具體難題的解答方案都不得不承受信任度上的某種損失與克減。這自然就能夠引發人們對信任問題的探討。另外,人工智能技術的廣譜運用,一方面大大提升了社會的生產效率以及人們日常生活的便利程度,但另一方面采用深度神經網絡作為基本結構的大模型所具有的黑箱現象,又使得即便是開發者也失去了對其運行邏輯和結論理據的理解與掌控。人工智能體輸出的結論的“迷蹤性”,導致其在社會運用時所產生的風險大大提升。針對人工智能系統的質疑催生了人工智能倫理學中最重要的一個范疇—“可解釋性”的形成。人工智能的生命力不僅在于其實用性,而且也在于其可信度。于是,信任問題不可避免地成為人工智能倫理研究熱潮中不得不占有顯著地位的一個現象。

信任作為人類存在和人際交往的基本條件,實際上早已構成不同經驗科學的研究對象。發展心理學探討親子之間的原始信任,社會心理學研究人際交往的心理預期,政治學探尋政治家的可信度與社會機制的可靠性,經濟學分析信任對于商業合作的重要影響,傳媒理論闡釋可信性對于媒體服務不可或缺的價值,科技哲學、科技倫理則把技術體系的可靠性從而規避風險視為重要的議題??梢哉f,對信任問題的探究滲透到幾乎所有的社會核心領域以及相關的人文社會科學。

與對他人是否可以撒謊的問題的分析相比,對信任的研究在哲學中從來就沒有處于一種突出的地位,因為嚴格說來,它并不是一個獨立的道德范疇。信任作為一個非常復雜的概念,包含著認知、信仰、情感等要素。信任最先發生在最為親近的人際關系,親子之間呈現最為原始的信任。嬰幼兒即便在視線中看不到母親也不會擔憂,對母親會出現的預期構成其最為內在的心理確定性。這樣一種原始的信任成為他(她)長大成人之后全部信任心理機制的根基,并對其整體的人生經歷產生深刻的影響。親子信任可以逐漸發展為親友之間親密關系的普遍信任。這種性質的信任一般不會含有任何風險,它體現為一種心靈上的依賴,一種深沉的期待,即自己的希望不可能在被信任者那里落空,更不會遭到意外的不利的利用。

然而,有關信任的哲學、倫理學意義的探討所涉及的則是陌生人之間的信任。魯濱遜與星期五沒有血緣關系。他們生活在荒島上,既無法律規范亦無道德約束。能夠維持他們最為簡單穩定的交往關系并滿足其最為迫切的人身安全之需求者,就是信任。彼此信任成為這一最單純的人際行為與交往秩序的制約性力量。我們知道,在人際交往中發揮作用的倫理規范,首先是不互加傷害,其次是公平對待,再有就是可能的關愛。但這些往往都是在深交之后發生的。人際交往一開始時并非道德規范在起作用,而是信任與否,它決定了交往能否深人下去。要信任就不會去監控,這樣可以省去許多資源。一旦發現對方不夠透明和可靠,則信任馬上停止,聯系立即中斷。可見,交往的前提在于是否存在信任關系。從這個意義上講,信任可以排在道德、法律之前并與道德和法律并列?!靶湃巍⒎珊蛡惱碜鳛榻煌到y的規范維度而起作用?!雹?/p>

從信任先于道德與法律并與它們并列的角度來看,信任便不屬于道德范疇,但其本身與可信賴這一道德品質相關,“信任”是行為主體的一種主動行為,相對而言“可信賴”則是其被動的特征。可信賴作為一種值得贊賞的品質如同同情、友善等一樣具有普遍性的價值維度。說此人可信,這便構成一種道德判斷。“理由在于,一位道德的人不會出于自私的動機利用信任者的脆弱性?!雹趶娜诵缘慕嵌葋砜?,行為主體(不論個體還是團體)都期望向外界展示出一種正面的形象,其中起重要作用的就是可靠性與可信度。被信任的體驗對當事人的正向激勵是巨大的,因為外部所呈現的可信性甚至可以構成該當事人自我認同的一部分?!八械娜硕紦碛幸环N人類學上深植的受到他人認可或贊賞的需求。這便導致他們會對信任行為積極予以回應。他們只是樂于一般地贏得一種積極的形象。…每個人都擁有對其所獲得的信任積極予以回應的動機,因為他樂于從他人那里獲得贊賞?!雹劭尚判詷嫵烧{節與維護人際關系并使人際交往贏得成功的重要因素。個體間的可信任性可以消除相互的猜忌并極大降低交易成本;私人或機構具備可信性,則國家就可以放棄對其行為是否合法的持續監控。當然,可信賴這一品德與勇敢、負責、節儉、友善等一樣也僅僅屬于二線倫理。即便犯罪集團成員之間也可以存在可信的密切聯系,而這種可信賴的關系對于國家的法律秩序與社會的公共利益卻造成了嚴重的損害。在法治國家面前,這些犯罪集團個體并不存在任何可信性。

如上,信任并非一種普遍有效的客觀要求,故不屬于道德的范疇。作為人際交往過程中的建構物,信任不僅僅與得到論證的認知權衡相關,而且也受到與情境相系的情感、動機、無意識的反應以及道德考量等復雜因素的影響。作為與其他學科處于交叉關系的應用倫理學,對于信任這一哲學邊緣性的但日顯重大意義的概念的細致研究是非常必要的。

一、信任:結構與利弊

信任作為一個關系概念,構成人際交往的一種工具。從信任的結構來看,行為主體甲要求或期待乙針對甲認為重要的事情去做或者不做,甲確信乙不會通過自己的行為損害甲?!靶湃伪蛔鳛橐环N規范性現象來對待,即關系到一種期待;對方不可以使希望落空?!雹?/p>

信任雖然是一種關系概念,但在這一關系中信任者甲是主導方,他根據之前獲取的與乙相關的經歷、經驗、認知和感受,主動地、單方面地做出一項預先付出。這就體現為一種對乙方不會拒絕合作并且不會對甲方的付出予以利用的積極性的預期。這種主觀預期也是一種確定性,它使監控成為多余。“信任關涉到人們對另一人的承諾的信賴,而用不著能夠證明在承諾的后面出現行動。信任克服了人際關系中存在著的不確定性。”①“人們將信任描繪為一種人類立場,這一立場特有一種確定性,即對某些他人、社會機構或外在的情境給自身生活狀態所期待的是保障與推進,而不是意外的干擾或損害?!雹诨谧鳛榇_定性預期的信任,行為主體就可以有效減少復雜性,確保未來行為的能力。因此,信任引導了主體的行為,它使得信任者做出一種在沒有信任的情況下不會去做或者以別的方式來做的事情。“由于我們信任,我們能夠追尋在沒有信任的情況下不會追尋的計劃或者追尋其他計劃?!雹?/p>

但請注意,信任者積極性的期待態度實際上所代表的是一種對確定性的虛構,以便通過克服不確定性來拓展自身的行為空間。但信任中對不確定性克服的嘗試是充滿風險的,因為信任者無法排除自己的信任被被信任者利用而遭受損失,因而信任者實際上根本就無法真正克服不確定性。只不過他是主動進入期望落空的風險、寧愿遭受難以彌補的損失而采取信任對方的態度的。故“這種信任至少理論上會是令人失望的,盡管信任者恰恰不是如此期待。他具有可傷害性并且并不確定,他的信任受到贊賞,卻相信會得賞。恰恰是這種積極性的期待,盡管有可傷害性和不確定性,才能稱為信任”④。

因此信任體現出了一種復雜的結構:行為主體帶著某種確定性以便克服對方的不確定性從而使行動得以實施,但同時他又無法真正克服這種不確定性從而陷入遭受傷害與損失的風險?!靶湃卧趯Υ到y性的不確定性的情境中提供了安全性,卻無法為此安全性提供足夠的理由?!雹垡环矫?,信任者對被信任者是有知的,若對對方沒有一點了解就不可能去信任,也就不可能做出行為決斷。但另一方面,這種知是不充分的一若是全知,則無需信任,也就不會存在任何風險。故信息不充分導致行為主體無法排除未來受到傷害。就此而言,正如西美爾(Georg Simmel)所言,信任持續的是“一種介于知與未知的中間狀態”③。由于有知,信任把當事人約束在一種自我決斷上,故信任是理性的;但就理性權衡而言,這種知并不充分,而當事人又甘冒期待落空的風險并承受損失而先期投入,故從這個角度來看,信任又是非理性的。

包含著認知、信仰、情感等復雜要素的信任在社會所有領域與層面均得到普及與滲透,它涉及對人、對團體或機構的信任,對對方與效率及風險相涉的解決問題技術能力的信任、對與對方合作的理性選擇意義上的信任,對對方與情感相涉的品德素質的信任。

信任作為陌生人之間互動交往的一種工具,有其存在前提與存在價值。從存在前提來看,信任作為一種復雜的決策行為,以行為主體自主能力的具備為基礎條件。從發展史來看,人類社會歷經從熟人社會向陌生人社會的演進過程。熟人社會里人們的行為受制于傳統規范、等級權威的約束,大家所處的環境是熟悉而又透明的。每個人的選擇活動也無法超脫社會規制確定的范圍與軌跡。而到了現代性的陌生人社會,個體自主性的極大的增強展示了人類文明的進步與提升,同時也使得社會結構高度復雜了起來,他人的行為充滿了不確定性,同時其行為后果也難以預期。由于社會失去了透明性,他人信息的獲得變得十分困難,而建立在缺失的信息之基上的行為能力也就大大受限,更不用講行為風險的急速加大。為了使行為成為可能,就需要用信任來補償信息確定性的喪失,盡管信任本身也含有新的風險。總之,在現代社會里信任的需求以行為主體自主性的提升為前提?!爸挥性谶@樣一種程度上,即公民歷史性具備了行為自主性,并且其生活不再是由一種上帝的神圣之規劃來確定,而是感受到由個體來形塑,信任才能變成一種在社會政治方面重大的范疇?!雹?/p>

從信任的存在價值來看,信任構成社會生活的潤滑劑,它使得人際聯系與交往合作、經濟和社會系統的平順運作成為可能。叔本華講過,健康不是一切,但沒有健康則一切歸零。同樣,“信任不是一切,但沒有信任則所有(社會性存在)均歸零”②。信任最大的價值在于減少復雜性。在陌生世界里,未來以不確定性的信息與行為的充斥為本質特征。數據與知識的缺失,導致行為主體根本就無法料想和應對未來發展所有的可能性。而信任則使得當事人自愿將某些可能的選項從預期視域中排除出去,通過將客觀的不確定性轉變成主觀的確定性,通過降低復雜性而使得自己的未來行為成為可能,同時也讓一種積極性的未來預期以及和諧的人際關系得以穩定。信任在人們的互動中營造出輕松寬厚的氣氛。個體講話時無需通過字斟句酌來提防他人找茬挑刺,每個人都可以展示自己的弱項而用不著擔心被對方利用。信任不僅可以提高勞動者的積極性、滿意度、凝聚力,而且贏得信任也可以直接使企業確立正面形象、減少預期的不確定性、降低交易成本、消除投機行為的危機,在激烈的市場競爭力中贏得主動與優勢。

當然,信任并非總是一種正確的態度與行為,也并非總能給當事人帶來益處。迷信會產生損害,盲從則導致巨大的風險。極度信任的社會無法免遭普遍的剝削與肆意的壓迫,合理的質疑恰恰是人類健康的理性判斷力的一種體現。中世紀的人們被對上帝的秩序的信仰所支配,虔誠與篤信構成幾乎所有社會成員共同的心理樣態。而隨著現代化的進程,社會出現領域功能分化以及個體化的崛起,盲從開始被普遍的質疑所取代。特別是由宗教信仰所確定的對世界圖景的堅定信念,被對能夠顯著改善人的生活質量的科學知識(如醫學)的認可所瓦解。伴隨著啟蒙運動和社會工業化的進程,這種認可也導致對自然科學與技術的普遍的信任。當然,這種信任與之前對宗教的盲目信仰完全不同,它是一種需要得到辯護的合宜的理性態度。這一點也為之后的從對科學的信任到對其懷疑的轉變所證實:伴隨著科技發展大量消極性副作用的涌現,如核技術在戰爭中的使用、基因技術對物種的不可逆的改變、環境與氣候的人為破壞等等,人們對科技發展的意義陷人了普遍而又深刻的質疑??萍忌罨c文明進步必然畫等號以及科學一定值得信賴的觀念,逐漸喪失了存在的合理性。由此可見,從歷史的角度來看,正是對于科學技術價值與風險的兩面性的認知,導致信任與質疑在人們思想中的雙重變奏。在社會政治生活中,信任也并非唯一起決定性的作用。根據英格爾哈特(Ronald In-glehart)的調查,經濟與文化因素對于穩定和良好運行的民主的價值要大于信任③。一種普遍的對政治系統與決策過程的信任,要高于對單個政治決策的信任。在國際政治中,有時一個具備高度價值的戰略目標需要以隱蔽手段來達到,若關切到自身的整體利益,則民眾會普遍接受對對方陣營的欺騙。例如,民眾一般會無法容忍國家對自己人民的隱瞞,但可接受本國間諜在敵方陣地的活動。總之,信任只是一種工具,并不代表著唯一正確的行為選項。“對于行為者在單個事例中投入多少信任是最為理想的,取決于對風險的準備、具體的情境、經濟合作的持續以及強度。決定性的認知在于,一種高度的信任并非毫無例外地表征著有利的行為尺度??偸强梢韵胂笥羞@種情形,其中較少的信任或者甚至是懷疑才體現了更好的行為選項?!雹苄湃尾⒉粌H意味著和睦友善,因為它也包含有風險以及可能的傷害。而且一位信任者遭受欺騙,其獲得的傷害遠勝于一開始就不信任者。恰恰是信任者的脆弱性,賦予了質疑以其特殊的必要性。質疑甚至是監控構成信任之風險與損害的一種對沖性的手段。質疑給當事人提供了一種保護,這一功能從自我的角度來看遠比失去對方的認可所造成的損失重要。在監控的狀態里,所有的人都感受到監控作用下的公平對待。質疑與監控通過對缺陷和造假的揭露與警示,為信任的存在提供了根據,也為健康的互動塑造了前提。“因而質疑是對信任的補充,沒有質疑就沒有信任?!雹倏傊湃渭确鞘且幏缎缘纳疲喾且幏缎缘膼?。信任未必總是善好,而質疑與監控則永遠不可或缺。“從我的視角來看,基于之前的信息防范損失這一論據,高于對商人認可上的威脅性的損害。在生活世界的情境中似乎并非合宜的是,要求有對信任的道德指令?!雹?/p>

二、信任:個體與團體

現代性的進程就是人們從熟人社會向陌生人社會的轉變進程。在熟人社會里,過往的經驗支配了我們對現在與未來的認知,經驗的不斷重復使我們產生熟悉與信任感,也密切了我們與近親、朋友、鄰里之間的交往關系。然而奠立在經驗與熟悉之基的信任,到了時空無限外延的陌生人社會就成為問題。以往長期保持并形成的理所當然的習慣,無法支撐我們對世人認知的可靠性。當然,這并不意味著我們就已經無法出門了。我們有幸生活在一個現代性的法治社會,盡管人際關系有多么復雜與不確定,但所有人的行為均受制于一種規則框架的背景。正是統一的法律約束極大降低了人們行為的不確定性。我們在交通中靠右(或左)行駛,一般不會擔心對面的車輛會與自己迎頭相撞,我們在馬路上行走,通常也不會擔心突然受到路人的進攻,因為任何違法違規之舉都逃脫不了嚴厲的懲處。法律的存在不僅規范了人們的行為,而且也激發并穩定了人際對依法行事的信任與預期。

在陌生人社會,人們最重要的信任關系發生于作為行為主體的我與作為他的另一位行為主體之間。由日常生活經驗所支撐的對對方行為通常會合法守規的淺層信賴與期待,只是構成信任感產生的基礎。兩個人之間能否生發出真正的信任,則取決于具體情境下的互動。勢均力敵的兩個行為主體之間的信任,是一種奠基于利益權衡的理性信任。根據成本與效用的分析,行為主體需要以合宜的方式處理并簡化復雜眾多的信息以便生發出行為的可能性。信任便是化簡復雜性的機制,它是行為者基于針對合作伙伴的有限的、正面的卻未能充分論證的信息與體驗,形成一種關于對方未來的積極性的預期。這種比陌生人之間合法依規維度上的淺層信任更深刻的單個主體間直接的信任,是行為主體在客觀不確定的環境中找尋一種相對的安全感并依之以達到所期待的交往目的的重要手段。盡管當事人對對方的意圖、動機、能力等信息有所估計與預判,盡管信任降低了行為復雜性并為前行開辟了道路,但這并沒有改變行為主體對對方信息缺乏確定性以及對對方的舉動沒有把握與掌控能力的根本局面?!罢l要是信任,便因此而有意地提升了其自身的脆弱性,因為他信賴他人或系統的行為的某種期待,這些人或系統并非處于他個人的掌控之下?!雹塾捎谛湃侮P涉到對不確定信息的加工,故信任投放者是有意將自身置于風險之下的。假若沒有任何風險,則意味著一切都在掌控之中,如果出現問題馬上可以解決,但這就不存在什么信任的問題了。故信任是有風險的先期投入。所謂風險,就在于這種先期投入有可能得不到相應的等值回報,對方失信并對你的善意加以利用。然而,即便是有風險信任者仍然信任且放棄對對方的監控。這是因為信任者所追求的是利益最大化,如果信任的結果被證明為得到預期的獎賞,則信任就完全值得。如果信任落空則承受損失,但這種損失通常不會大于監控上的花費?!靶袨轱L險被有意得以承受。人們并非試圖通過監控降低風險,而是接受此風險,以便在收益層面有所斬獲。這種收益是借由監控措施無法獲得的?!雹?/p>

對于信任者的先期投人,接受者既可以做出善意的信任回報,亦可以借機對信任者的好意予以利用。這個問題早在霍布斯描繪的自然狀態里就已經出現了。那種狀態下,惡意與猜忌成為生活常態,誰信任他人,誰就愚不可及。因為出于自身最大利益的滿足而采取不合作并利用對方的態度最為理性。這也是囚徒悖論中單次博弈可能出現的情況,結果當然是悲哀的,不信任、不合作成為合乎邏輯且最有利的選項。經典的解決問題的方式是,博弈不能局限于單次,而必須多次進行甚至不斷重復下去。這樣,雙方信息不完善與不確定的缺陷就可以在持續穩定的交往中逐漸得以克服。信任的先期投放者對對方的回報擁有一種確定的預期,而對方即便是出于利已考量往往也會相向而行,對先行者同樣展示信任意愿以回報其善意,反之則會在下一輪博弈中受到先行者的制裁。于是相互性的信任便在多次博弈過程中建立了起來。同時,各自的信息發送與接收也就贏得了穩定的數量增長。理性行為者的初始信任完全出于自利的動機以及利弊權衡,而建立在重復性博弈基礎上的信任則與所有當事人的利益實際上最終也就實現了一致?!斑@樣一來,信任與自利便不再必然處于對立狀態,因為‘再見之法則'使得博弈者處于一種與單次博弈完全不同的激勵結構?!谑艜r兩位行為者均面臨制裁的可能性,恰恰是由于對此可能性的預感而穩定了互動?!雹?/p>

有學者將建構在理性博弈基礎上的陌生人的信任關系區分為三個層次。第一是可預期性(Vorhersagbarkeit),這是雙方信任關系的初步確立形態,根源于行為主體理性的動機,出于自利的滿足和對制裁威脅的恐懼。書面契約是理性信任關系的外在象征,它從形式層面通過法律擔保使得信任贏得高度的安全性,依據契約,主體間的信任義務甚至可以維護到其中一方當事人不再在世而仍然有效。第二是可靠性(Zuverlaessigkeit),信任已從對利益的權衡轉向對以友誼為表現形式的對對方品質的肯定,雙方將對對方存在的接受視為自己生活的可能性的條件,這也就為作為人類幸存之前提的現實健康的人際關系奠定了穩定的基礎。第三是忠誠性(Treue),雙方的合作已經進入深度的情感安全的階段了②。

隨著作為一種理性化表達的社會組織化進程的明顯加劇,團體和機構在日常生活中發揮的作用日趨增大,并且因其內在嚴密的組織結構、嚴格的制度規章以及穩定的決策程序而贏得了一個具有意向性功能的行為主體的地位。這樣,它們作為理性行為者便與人類個體一樣,也成為信任的主體與對象。從信任主體的角度來看,團體、機構作為行為主體可以對他人和團體表達信任,這種信任可以是團體成員秉持共同信念團結一致做出的,亦可以是通過投票決斷。這種信任決斷反映了團體作為一個整體的集體意志,已經無法回溯為任何一個成員,也是任何一位單獨成員,包括團體領導者自身所無法獨自掌控與負責的。從信任對象的角度來看,在現代化的市場經濟中,由于行為結構的復雜與行為鏈條的延長,人際交往關系在時空維度上形成了脫節,信任往往不再歸于對某一行為主體的信任,而是針對具有組織結構與運行功能的團體整體的信任。這種信任是由團體內在參與度和外在透明度構成的自我形象所支撐起來的?!袄缫粋€企業可以將一種有缺陷的產品從市場召回(或者不召回),盡管參與這一決斷者們作為個體恰恰會是相反的意見。換言之,一個團體行為者完全可以獲得一種與為此行為者工作但并非完全劃歸于該行為者的個體不同程度的可信性或信賴度?!雹?/p>

在現代社會人們的一般意識中,團體與機構能夠贏得比個體更大的信任,這主要歸功于其自身內部具有倫理性質的規章制度的有效運行,這種結構穩定且作用完善的規章提供了行為的可靠性,并且其實現依靠監管與控制得到保障?!跋到y信任奠立基于對某些原則的信賴,這些原則在系統中起作用并在抽象的層面建構期待的確定性。”④

擁有嚴密的組織、穩定的目標、明確的任務、專業的知識的團體與機構,可以獲得比一般團體更大的信任。根據對四十七個國家的調查,軍隊、警察、法院、教育系統、消費者權益保障組織等,其享有的信任度位居社會的前列①。它們遠離選舉議題的爭執,代表著廣泛的社會公益并追求長遠的目標,因而具備較高的道德形象。相反,由政客組成的議會為了選舉不僅受制于短期的目標,而且還無法擺脫虛幻的承諾——為了某項議案的達成不得不對不同利益訴求進行權衡、實施妥協,結果自然會引發部分公眾的不滿,故議會難以建立高度的信任。具有統一標識、制式的品牌企業,能夠塑造規范員工行為及產品質量的標準化,這種企業被稱為“社會的麥當勞化”。標準化的產品可以借由公眾對質量的可預見性而激發顧客對其高度的信任,這種信任度也會因為相關企業奉行的價值原則及員工由于組織的親和力及團結意識所建構的認同性而得到強化。團體與機構的擔保很好地解決了陌生人社會中信任缺失的問題,并且對團體的信任還可以傳導到對該團體中成員的信任,即團體信任導致了角色信任。我在緊急情況下求助于一位警察,往往并非相信他個人,而是相信他承擔的警察角色,相信他的職責所代表的任務、規范、義務與責任?!斑@樣一來,角色信任以功能承載者為指向,因而是實際中變成的系統信任?!雹谶@是一種機制信任?!坝捎诮M織的目標獨立于個體的特征以及個體功能承載者的可靠性,故在‘組織行為'中,人們大多期待更大的約束力、可預期性和持久力。它得到了有別于個體的理性和責任行為上的期待。”③

三、人工智能體的可信性

如上,信任作為一種關系概念構成人際交往的工具。信任發生在擁有自我意識以及擔責能力的行為主體之間。這一行為主體不僅是指人類個體,而且也是指由個體組成的團體、機構,它們具備功能意義上的自主決斷能力,故也可以為其行為承擔責任。人工智能體是物體,盡管它們擁有技術意義上“自主決斷”的能力,甚至“犯錯誤”而危害人類,但它們并非行為主體,無法為自己的行為擔責,其責任則應由相關當事人來承擔。這就如同飛機失事時,若是由于人為操作不當,則相關飛行員為此承擔責任;若是由于機械故障,則也歸因于人的設計或制造的問題,可通過檢查分析找到原因以及相關責任者。在這個意義上,人工智能體也就無所謂信任的問題。信任僅涉及人類交往行為,不涉及物體,或有限涉及動物。機器不具有可信性(因為它沒有動機與反應,也不會給信任予以回報),而是可靠性??煽啃砸馕吨撤N狀態的確定性:如一座石墩橋堅固穩當,你走過去絕對不會發生問題;再如根據經驗,我的電腦在最近幾分鐘內絕對不會出事故。可靠性取決于環境因素,對其判斷一方面依靠統計上的信息,另一方面則基于理性可證的事實,與所謂真誠性的品質沒有任何關系。信任作為對對方行為的一種穩定的預期,可以使當事人自己的行為獲得某種確定的導向,但若用在人工智能體上則僅具有某種擬人化的意義。我們講人工智能體不可欺騙人,不過是說它應有透明性,它所包含著的黑箱應得到揭示,它提供的決策結論應得到合理的解釋。如果它真的“欺騙”了我,我也不會像對待人的欺騙那樣生氣和失望,這觸動不了我的情感生活。故所謂人工智能的可信性與人的可信性完全不是一回事。

如前所述,作為追求客觀知識的科學和作為解決問題、滿足社會需求的技術的發展進程一直都伴隨著人們對其的信任與質疑。所謂科學真理,僅是對現實本真狀態的有條件的接近,但科學依靠嚴謹邏輯結構的公式推演得出的法則,經由可重復實驗的驗證,不僅使自身贏得可靠性的資質,而且也激發了人們對其正確性與有效性的信任。然而,信任危機很快就到來,這不僅源自科學本身,而且也來自其社會后果,如原子能、基因、干細胞領域的研究。盡管科技上或許可行,但無法通過倫理與社會影響的關卡,從而造成人們對科學在社會中本身合法性與功能的懷疑。早在十八世紀就出現了對技術的文化批判。保守主義本著對自然與社會和諧關系的浪漫信仰,從人性的不可更變性出發,表達了對人的理性的深度懷疑。二十世紀七十年代開始了新的技術論爭。本著技術的壞處大于好處的立場,反技術者的矛頭不僅是指向技術后果,而且也針對技術專家本身。對技術的質疑分成反思性懷疑(如針對核能)和缺乏多少理性依據的習慣性懷疑。習慣性懷疑表現在,德國大部分民眾拒吃轉基因食品,盡管并無實質性的科學理由;但當技術的益處明顯無法拒絕,則懷疑便被置于積極性的期待之后,例如對手機及醫療中核磁技術的使用就是如此,盡管科學并沒有提供磁場對身體危害的直接證據。

人工智能是當代科技發展最為成功的成果之一。它作為史上出現的最為強勁的工具,可以以人類難以企及的方式解決難題。但人工智能并非真正意義上的智能突破,其基本原理在于它擁有巨量數據,可以將遇到的具體數據與之進行對比,庫里數據從空間廣度、時間深度和分布密度來看質量越高,則對比的結果就越精確。可見它不過是對已知知識的高度模擬,對過去信息基于概率統計進行組合判斷或預測,而非真正意義上的基于深層邏輯的推理與想象,談不上針對全新或未知領域并基于抽象概念理論建構性或無中生有式的創造活動,更遑論通過所謂知識涌現超越人類認知與預期。

但人工智能體與傳統的自動化系統不同。后者擁有清晰的結構與功能,依靠因果邏輯運行,其結果以及輸出路徑都是可明白查驗的。例如一臺監控藥品發放的儀器,若不得一同服用的藥品被混在一起,則警報立刻發聲。而人工智能體則具有技術意義上強大的“自主”行為能力,在數據收集和計算分析的潛質上呈現無邊界性?;谏窠浘W絡的復雜架構,它可以適應新的環境,自主學習并做出自身的決策。

基于神經網絡的深度學習模型包含著層次疊加、深度嵌套的非線性結構,成千上萬甚至上億的參數在多層網絡中相互作用,某種數據輸入模型后猶如進了黑箱。由于模型多層次、非線性的處理、加上海量參數的復雜交織,其內部的工作機制和原理與決策邏輯依據完全不透明,輸出的結果難以找到究竟是哪些因素在決策中起了關鍵性的作用?!霸诰邆湓S多層級的深度學習模型中,人們無法理解,哪些決斷路徑是在神經網絡無數分叉里的哪個分叉上得到選擇的?!雹偃藗儗敵鼋Y果失去了控制與邏輯可解釋性,這自然就會導致決策結果受到質疑并失去用戶的應有信任。在自動駕駛中,曾發生過系統將“行人\"錯誤地識別為“汽車”,之后又將人歸為“其他”,再后又在“汽車”與“其他”之間搖擺不定,最后未能及時剎車而發生事故。由于無法解釋將行人識別為汽車的錯誤原因,因此就會導致事故在未來無法預防的嚴重后果。

在影響輸出結果的可解釋性方面,噪聲干擾也是一種不容忽視的重要因素。人工智能系統的可預測性本來是基于其過去、現在、未來行為之間的一致性得到評估的,但輸入的大量數據中既有準確的,亦有偏離的甚至是干擾性的(即噪聲數據),有時還可能出現偏離與噪聲疊加。假如模型的所謂魯棒性(即面臨異常的、噪聲的、非預期輸入時仍保持穩定與正確輸出的能力)不強,則其輸出的便可能是偶然的、非預期的甚至難以理解的結果。

盡管據統計百分之九十的交通事故歸因于人為的失誤,自動駕駛的安全性有一定的保障,但當模型從特定輸人到生成特定輸出的邏輯關聯得不到解釋,人工智能體的決策得不到證實與證偽,結果的可靠性只能從統計學角度來估計時,自動駕駛的應用就會受到重大的影響。這就導致我們在關涉人的生命安全(如醫療診斷)與重大經濟利益(金融活動)等高風險的決策時,必須基于用戶對信任的高度敏感需求,考慮對智能機器的人為掌控的問題。這一點在涉及自動武器的制造與應用風險方面,其態勢的嚴峻性更為明顯。自動武器裝備著攝像頭、軟件,依程序設置捕捉、追蹤并襲擊目標,其速度問題構成一種新的挑戰。由于在反應能力與行為速度方面遠超于人類,因而當模型不透明、不可解釋時,當干擾數據輸入模型且無法識別時,當現實遇到的數據無法與學習過程中的數據相匹配時,就意味著其反應與決策結果完全失去人類的掌控?!霸谶@樣一種情況下,一次電腦失誤便會導致意外的戰爭。它可在幾秒鐘內使雙方發生重大的局勢升級,假如自動的戰略以及作戰系統就如股票交易所高頻的交易那樣,在瞬間針對對方行為做出反應?!雹侔褯Q定人生死的權力轉移到機器上,這不僅使人類陷入機器失控的巨大風險,而且也回避了人類在決定生死的重大問題上所應擔負的主體責任,這與人才是倫理道德責任之承擔者的原則與要求正相沖突,因而也完全挑戰了人的尊嚴的神圣立場。由此,任何失去人類遠程操控的進攻性、致命性的自動武器系統,都要受到嚴格禁止?!俺苏闻c法律框架條件之外,即便是出于軍事考量對未來可以想見的致命性自動武器的投入也并非所期待和欲求的。”②

綜上所述,人工智能體決策過程的可解釋性以及與此相關的可信性問題,構成人工智能研究領域重大的倫理議題,這方面國內國際相關法律供給非常充分。我國《新一代人工智能倫理規范》(2021)第十二條明確規定,要在算法設計、實現、應用等環節,提高透明性、可解釋性、可理解性。歐盟發布《可信賴的人工智能倫理準則》(Ethics Guidelines for Trustworthy AI),確定了人工智能的可解釋性是以其可信賴的倫理要求為直接目標。歐盟《通用數據保護條例》(GDPR)則直接賦予與人工智能決斷相涉的當事人對決斷的邏輯路徑擁有索要解釋的權利 ③ ,從而強調了人機互動時透明性的意義并限制了醫療與金融領域里無法解釋的人工智能的使用。

確保人工智能系統之可信性的前提在于實現模型的可解釋性,“可解釋的人工智能”(XAI:Ex-plainableAI)概念孕育而生。它強調在開發、制造、應用人工智能時,要求其模型的透明性、解釋性、無歧視性、穩定性與可檢驗性—這里包括人們可以要求了解使用了哪些數據、決斷是基于怎樣的因果鏈條和運算過程推理做出的。出于知識產權保護的目的,這種透明性可以在有限的層級上為有限的人員所獲?。ㄈ缯{查機構)?!翱山忉尩娜斯ぶ悄堋备拍钜馕吨枰蚱坪谙?。盡管不可能實現完全的透明(白箱),但至少應達到灰箱的效果,即突出被解釋的模型在決策時需要重點關注的數據部分,至少讓某個決斷的主要影響因素獲得清晰的揭示。例如,“局部可解釋模型-不可知解釋”(LIME)就是一種針對復雜的不可解釋的模型所設計出來的局部的、近似的、簡化的可解釋模型。其原理在于,將被解釋模型的多重因素依據需理解的結果的接近距離進行權重,突出被解釋模型中決策時重點關注的數據部分,從而實現對結果的簡單線性分析。例如,復雜模型中輸入“打噴嚏”“體重”“頭痛”“不勞累”“年齡”等信息,得出“流感”的結果。簡單模型(LIME)則確定“打噴嚏”與“頭痛”對于預測“流感”有貢獻,而“不勞累”則沒有貢獻。于是使用簡單的線性模型,把本來復雜的多層次的模型中的某一片段予以簡化,就可以起到接近原先復雜模型的結果以及說明原先模型的作用,使具體結果得以解析。

以可信性為價值目標的“可解釋性”,構成人工智能倫理中最為核心的一個概念。然而,可解釋性這一要求也遇到與人工智能系統的功能效率以及解釋費用這兩個因素之間的沖突。模型越是復雜,結論越是精確,則可解釋性便越差?!巴该餍耘c可解釋性的代價在所有的程序中均為機器加工的速度與質量?!雹軍W地利人工智能專家霍赫萊特(Sepp Hochreiter)對這種矛盾是這樣調侃的:“要么人們擁有一種不好的系統并且能夠理解所發生的一切,要么人工智能比人更好但我對其決斷不再有可理解性。但這最終卻也意味著,可理解的決斷會導致更多的交通死亡?!雹墼谠噲D對模型運作方式予以揭示所需花費的巨大的精力與費用,也是工程師們畏懼的一個重要原因。因此人們需要根據相關項目的重要性,在可解釋性原則與效率及費用之間作出必要周密的權衡,堅守在事關人的生命以及重大經濟利益、包括戰爭行為的選項時,人工智能決斷僅起到參考和輔助性作用這一原則。畢竟人工智能體的可解釋性的缺憾,不僅會損害人們對其的信賴,而且相關研發與生產企業的形象與市場競爭力也會遭到負面的影響,更不用說所導致的人工智能系統發生事故之后歸責上的困難。眾所周知,法律與道德責任一般是與一種損害的可預見性和可避免性為前提的。如果模型本身對數據加工處理的機制并不透明,它在何種情境下作出何種決策的可預見性以及作出決斷的依據無法確定,則針對出現失誤并對他人造成損害的智能體的制造商進行追責量責也就有其困難。當然,無論如何人類都不可能將本應承擔的責任推給人工智能體,畢竟機器缺乏自我意識、意向性、意志自由和自己的思想等擔責的前提。故德國服務行業工會(Verdi)2020年3月3日確定的《開發與應用人工智能倫理指南》中就明確規定:“開發者、設計者、決策者以及企業中人工智能系統的設計、規劃、開發、采購和應用活動的參與者因此應承擔責任。”①

四、結束語

信任問題僅與像個體與團體這樣擁有自主選擇功能的行為主體相關,即它是在人類活動的范圍內起作用。同理,所謂人工智能倫理也并非指人工智能有什么倫理問題、它應遵循怎樣的道德規范,而是指與人工智能相涉的人類活動應關照的倫理,是人類在對人工智能體的開發、設計、制造、銷售、使用的過程中應遵循的行為規范。人工智能倫理涉及廣泛的內容,例如為防止深度惡意造假,要求對人工智能產品必須做出標識,并借由傳統圖像取證、圖像篡改痕跡的甄別,對圖像偽造進行識別與鑒定。由于人工智能體決策路徑的不透明性,模型有可能出現無根據地生成偏離事實的信息;盲目信從黑箱決斷的結果,還會造成對人的自主性及個體價值認同性的損害。人工智能系統可以幫助選擇確定工作崗位或貸款的申請者,但它是依據統計上的關聯,借由評估函數進行候選篩分。如果訓練數據充滿偏見與錯誤,則選擇的結果就會出現對部分人群的歧視。例如,某一公司出現女性求職者總是失敗的現象,公司稱其模型是一個擁有上千權重因素的神經網絡,故無法找到相關的緣由。后發現數據儲備里有一千份工作人員的資料,其中女性僅有兩位,而且這兩位女性被置于公司中較低的價值階位,因為她們僅是臨時工。這便使得模型讓女性遭受到了一種較低的價值權重。這就是因訓練數據的扭曲而導致系統的結論不公正的典型事例②。因而基于倫理道德的考量,我們要求人工智能系統不得對不同人的生命之間的選擇進行標準化設定或編程,以防止依據年齡、性別、種族、身份屬性產生歧視。為了杜絕異化現象并保障人類根本利益,那種總體上超越人類智能并擁有綜合性自我意識的超強的人工智能體必須絕對禁止。

有關人工智能倫理最重要也就是其專屬的一個道德范疇便是“可解釋性”。這就意味著要確保大模型建構過程的可重復性和可追溯性,盡力打開黑箱,澄清模型的決策機制與邏輯路徑,通過保障結果的可解釋性而建立人們對人工智能產品的信任度。盡管打開黑箱意味著高昂的費用和技術上可行性的難題,但一種失控的人工智能絕不符合人類的長遠和根本利益,因而在事關人的生命及重大經濟利益的決策方面,不具備模型可解釋性的人工智能僅是一種提供參考價值的輔助工具。人的大腦也意味著一個黑箱,我們的大腦得到使用的時候,他人憑借經驗與概率大致可以推測其決策走向,卻并不知曉其內部的工作原理。然而,對人工智能的可解釋性要求不能直接應用到人類大腦上,打開人類大腦之黑箱為人類尊嚴的原則所禁止。因為這里觸及人的隱私。這一點恰恰說明人類與人工智能體的本質性區別:只有人類才能夠建立人際交往,擁有道德意識,進行規范性倫理權衡,做出道德判斷,塑造穩定的政治經濟秩序以及和諧的共同生活,確立有價值的奮斗目標;只有人類實踐與體驗,而非人工智能才可以對道德進行檢驗。人工智能不會超出模擬的范疇,無論它多么智能,也不會產生道德意識?!皺C器的信號可以從功能上解釋為與‘道德’相類似,但這并不是歸責的結果,亦不是機器事實上的特征。”③人工智能體無論能夠發展到怎樣的地步,也絕不可能占據與人類同等的道德地位。

(責任編輯 萬旭)

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 成年人国产视频| 美女国产在线| 成人综合网址| 国产在线专区| 尤物精品国产福利网站| 日韩a级片视频| 国产精品久久自在自线观看| 91欧美在线| 美臀人妻中出中文字幕在线| 97视频免费在线观看| 极品国产在线| 99在线视频精品| 成人国产精品网站在线看| 国产在线98福利播放视频免费| 日韩午夜伦| 91免费观看视频| 欧美国产中文| 国产免费久久精品99re丫丫一 | 97超碰精品成人国产| 国产成人综合在线观看| 国产成a人片在线播放| 欧美高清国产| 国产乱人伦AV在线A| 91国内在线观看| 国产精品亚洲一区二区三区在线观看| 国产精品欧美在线观看| 国产成人精品第一区二区| 99一级毛片| 亚洲精品少妇熟女| 国产激情在线视频| 农村乱人伦一区二区| 成人另类稀缺在线观看| 精品成人免费自拍视频| 亚洲男人的天堂视频| 精品国产成人三级在线观看| 99这里只有精品在线| 婷婷色一区二区三区| 九九久久精品免费观看| 精品国产成人三级在线观看| 欧美激情综合一区二区| 97国产精品视频人人做人人爱| 色婷婷成人| 真实国产乱子伦高清| 亚洲无码高清一区| 国内老司机精品视频在线播出| 无码网站免费观看| 色综合中文| 国产精彩视频在线观看| 国内嫩模私拍精品视频| 亚洲一级毛片在线播放| 亚洲精品视频免费观看| 精品国产成人av免费| 国产色婷婷| 日韩经典精品无码一区二区| 伊人久久大香线蕉综合影视| 国产精品观看视频免费完整版| 午夜国产精品视频| 在线观看国产精品日本不卡网| 日日拍夜夜操| 啦啦啦网站在线观看a毛片| 国产清纯在线一区二区WWW| 欧美国产日韩另类| 久久久久久久97| 久久夜夜视频| 无码中文字幕精品推荐| 精品日韩亚洲欧美高清a| 免费Aⅴ片在线观看蜜芽Tⅴ| 亚洲综合色婷婷中文字幕| 91人妻日韩人妻无码专区精品| 亚洲成aⅴ人片在线影院八| 国产精品视频系列专区| 中文字幕亚洲无线码一区女同| 国产精品久久久久婷婷五月| 亚洲成a人片77777在线播放| 国产屁屁影院| 久久福利网| 国产精品第页| 国产性精品| 天天干天天色综合网| 欧美国产菊爆免费观看| 日韩毛片在线视频| 日韩毛片免费|