999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

厭惡算法還是欣賞算法?
——人工智能時代的算法認知差異與算法信任建構

2022-10-31 15:38:46杜嚴勇
哲學分析 2022年3期
關鍵詞:人類用戶

杜嚴勇

在信息時代與人工智能時代中,算法主要指計算機中采用的解決某個具體問題的計算規則與有限的操作步驟,或者說是計算機的編程方法與技巧。將算法使用編程語言進行描述,就成為一個程序,軟件是程序的有機集合體,因此可以把算法看作程序和軟件的基礎。一般認為,計算機科學是研究算法的學問,算法、算力與數據是人工智能的三大要素,可見算法之重要性。

眾所周知,算法在速度與某些精確度方面,已經遠遠超越了人類。那么,當我們同時面對算法與人類專家的操控、推薦、預測時,如果可以自由選擇,我們是決定選擇算法還是人類專家?哪種方式是更合理的呢?人們可能憑直覺認為,我們應該相信并選擇算法,但事實并非如此。比如,美國每年因為車禍死亡人數約35000人,大多數是人為的錯誤導致;盡管自動駕駛比人類駕駛更安全,但調查表明,有78% 的美國人表示害怕乘坐自動駕駛汽車,其中女性(85%)比男性(69%)的比例更高。2020 年進行的對1200 名美國成年人的調研表明,有48% 的人表示他們永遠都不會乘坐無人駕駛的出租車或共享汽車;60% 的人表示如果他們對無人駕駛技術的工作機制更為了解的話,他們會對其更加信任一些。調研同時發現,殘疾人對自動駕駛技術的態度比正常人更加積極。

從人們對無人駕駛汽車的態度可見,影響智能產品被公眾接受的障礙可能主要并非技術上的原因,而是人們的心理因素。本文試圖綜合比較關于算法認知的各類實證研究結果,分析人們對算法的不同態度及其影響因素或原因,進而探討建構算法信任的有效途徑,為智能時代的技術認知與技術接受研究提供一個富有啟發意義的案例。

一、厭惡算法現象及其解釋進路

(一)厭惡算法的表現與定義

20 世紀50 年代,有一些學者認識到,雖然恰當的數學模型作出的預測往往比人類更優越,但人們還是傾向于拒絕讓算法為他們作出抉擇。即使是在以算法為基礎的各種輔助決策工具得到廣泛應用的21 世紀,人們還是存在類似的表現。比如,雇主在選擇求職人員的時候,雖然有各種標準化的程序可以采用,但他們仍然更樂于相信自己的個人判斷。有學者詳細比較了人們對不同抉擇模式的態度,結果發現人們普遍喜歡有人類參與的決策過程,不太喜歡僅僅由算法作出的決策。

隨著人工智能科技及相關產業的快速發展,上述現象得到越來越多的學者的關注。美國學者狄伏斯特(Berkeley Dietvorst)等人在2015 年發表的論文中認為,基于證據的算法可以作出比人類更準確的未來預測,但是當要決定采用人類預測還是統計算法的預測時,人們經常選擇人類的預測。他們的研究表明,在發現算法犯了與人類同樣的錯誤之后,相對人類預測者而言,人們更容易對算法失去信心。于是,即使看到算法在某些方面勝過人類預測者,人們仍然會厭惡算法,狄伏斯特等人把這種現象稱為 “厭惡算法” (algorithm aversion)。在2018 年發表的論文中,他們直接將 “厭惡算法” 定義為:雖然基于證據的算法始終比人類預測者表現出色,但人們在發現算法的瑕疵之后往往不去使用它們。

需要注意的是,狄伏斯特等人的研究強調的是人們在看到算法出現錯誤或不足之后,才會對其產生厭惡現象。事實上,人們在沒有看到算法出錯的情況下,仍然可能會出現排斥算法的情況。通過對近百名在校大學生的調研表明,相對于精算系統而言,大學生對于有人類參與的決策表現出更積極的態度。更為有趣的是,相對于使用算法輔助手段的醫生來說,大學生對不使用算法輔助工具的醫生有著非常顯著的積極評價,但對于向同行專家尋求建議的醫生卻沒有這種現象。類似的現象在教育、經濟等不少領域亦有發現。

因此,我們傾向于對 “厭惡算法” 采用一種更一般性的定義:相對于人類而言,人們對算法(及其相應的程序與軟件)存在一定程度的片面評價,表現為對算法的消極行為與態度。之前的相關研究主要是心理學與管理學等領域的學者較為關注,但狄伏斯特等人的研究引起了更為廣泛的注意,特別是得到很多關注人工智能科技發展與社會影響的科學家與人文學者的普遍引用。大多數學者傾向于認為,我們不能僅僅將重點聚焦于提高算法的精確性與穩健性,還必須重視公眾對算法的認知態度及其影響因素,后者會在很大程度上影響公眾對智能產品的接受與使用情況。

(二)厭惡算法現象的若干解釋進路

:這是研究者最為關注的一種解釋模式。人類對于一種沒有使用過的新技術會產生本能的排斥與不信任,這是一種正常現象。在算法認知方面具體表現為以下幾個特點:其一,對人類本身的錯誤較為寬容,而對算法錯誤的敏感性較高,寬容度較低。人們通常認為人是不完美的,犯錯誤是正常現象,但機器應該是完美的,不應該犯錯。前文已經提及狄伏斯特等人的研究表明,人類對算法出現錯誤很敏感,因此導致厭惡算法的現象,還有更多的調研亦驗證了這一點。比如,雖然專業人員普遍認為無人駕駛汽車更為安全,但它在現實中無法完全避免不出現事故。但是,不管事故的嚴重程度與具體原因,人們總是傾向于認為涉及無人駕駛的交通事故比人類駕駛車輛的交通事故更為嚴重。也就是說,人們不僅對無人駕駛汽車的接受度不高,而且對無人駕駛引發的事故持有某種程度的偏見。還有學者發現,雖然來自人類的建議并不比來自計算機的建議更受歡迎,但是,如果人們收到糟糕的建議之后,來自計算機的建議的利用率比人類建議的利用率下降更加明顯。

其二,人類認知中的過度自信(overconfidence)現象。過度自信是人類在判斷與抉擇過程中非常普遍的認知特點,具體而言有三種表現形式,即對自己的實際表現過高估計、對自己的表現相對于他人過高定位、對自身信念的理解過分精確。過度自信可能產生認知偏差,這種情況在人們面對算法決策建議時也經常發生。目前不少實證研究表明,人們經常在與算法建議的比較中,過高估計自己的能力,認為自己與其他人的決策比算法決策更公平、更可靠。另一方面,人類認知在很大程度上依賴于直覺,而不是對信息的全面分析,這與算法決策依賴于數據和信息有著本質性區別。特別是在高度專業化領域,直覺的有效性通常被夸大,這使得專業人員比社會公眾更相信自己的直覺判斷,導致他們對算法決策的不信任。

其三,人們通常認為人類處理問題的模式更為靈活、更人性化,而算法處理模式更為機械化、無情感性。在很多人看來,算法只是一種工具,在分析、處理數據信息方面可以發揮輔助性作用,但不能處理個別化的特殊情況。有學者通過對228名成年人關于管理決策方面的網絡調研表明,當面對像工作分配、時間安排等機械性的工作時,人們認為算法決策和人類決策是同樣公平和可信的,但當面對招聘員工、工作評價等更人性化的工作時,算法決策被認為比人類決策更不公平、更不可靠,而且容易引發更多的負面情緒。這是由于人們通常認為算法缺乏直覺和主觀判斷能力,使其判斷的公平性和可度信降低。

人是情感動物,情感在人類決策中扮演著重要角色。人們通常認為算法是無情感的,缺乏人類擁有的靈活應變等能力,但它對偏向于客觀事務方面的預測與推薦更為可靠。通過大量的網絡調研表明,當涉及某些主觀性事務(比如約會建議)時,人們更愿意聽取人類的建議,但涉及客觀性事務(如經濟方面的建議)時,人們更傾向于接受算法的建議。即使認識到算法表現得比人類更加優越——這也確實會影響人們采用算法的意愿,人們在主觀性事務方面仍然傾向于采納人類的建議。但是,當人們認為算法擁有與人類類似的高級情感時,這種看法會強烈地影響其對算法的接受度。

:自主性是一個內涵復雜的概念,從個人的角度看,自主性一般指個體的行動與抉擇都是由自己所發起和控制的。雖然外界的幫助與個人自主性并不必然矛盾,但外界的涉入越少,個人的自我控制感通常就越強。即使在擁有自動化輔助工具的條件下,人類仍然具有明顯的自我控制與自力更生的意愿,甚至不少人覺得自力更生是一種道德義務。心理學實驗研究表明,即使人們在自力更生的情況下會減少利益的獲取,即使自動化的輔助工具更少出錯,不少人仍然會堅持自己的選擇,表現出明顯的保持個人控制的意愿。

如果人們對算法的工作機制不太了解,也不能與其有某些形式的友好互動,而必須直接接受算法的建議,這顯然會降低人們的控制感,從而產生厭惡算法現象。但是,如果人們對算法的運行有一定程度的操控感,厭惡算法的現象會明顯減少。狄伏斯特等人的研究表明,如果可以修改那些被認為是不完美的算法的預測結果,即使修改程度受到嚴格限制,人們對預測過程會感到更加滿意,也更愿意相信算法是優越的。類似的研究亦表明,只要能夠提供用戶與算法的互動機會,使其能夠調整算法的決策過程與信息表述形式等方面的內容,即使對算法本身的運作與信息處理模式不作任何變化,也會使人們更加信任算法。

:人類總是帶著某種預期與算法進行互動,這種預期可能和之前與算法互動的經驗有關,也可能來自朋友甚至媒體。這種預期起著范式的作用,它引導人們認知并回應算法給出的建議,并對人們使用算法的方式產生影響。違背預期解釋在人機互動的負面效應解釋中較為常見,比如不少學者亦從這個角度解釋所謂的 “恐怖谷效應” 。

與違背預期解釋進路類似的是任務不匹配解釋。羅文斯(Ethan Lowens)認為,在很多情況下算法比人類精確,但人們仍然會出現厭惡算法的現象,這并不是因為算法偶爾出現的不精確現象(不精確解釋),也不是因為人們無法理解算法(困惑解釋),而是由于人類預期完成的任務與算法實際進行的任務之間不匹配導致的。比如,某人A 需要選擇人類或算法去完成任務X,任務X 通常是由人類完成的,預測Y 是任務X 的必要條件,A 知道算法在預測Y 方面確實是比人類更精確,而且也能夠理解算法的運作機制,但任務X 的內容比預測Y 要豐富得多,因為A 選擇人類來完成任務A 是理性的。也就是說,人類的許多任務通常比交給算法完成的任務更加復雜,對這種復雜性認識不足就可能產生厭惡算法現象。

:主要在于算法的不可解釋性、不透明性、精確性不足,等等。眾所周知,人的本質在于其社會性,人與人之間在社交場合中進行互動交流的各種細節,人們大都可以很好地理解。但是,社會大眾與算法的密切互動歷史很短,即使從個人電腦的普及開始算起,其歷史也不過短短的幾十年,特別是人工智能時代算法的不透明性、不可解釋性,更是強化了人與算法之間的距離感。盡管推薦算法的性能優越于人類(包括陌生人、朋友與家人),但人們仍然不愿意依靠推薦系統。其中的一個重要原因在于,相對于來自算法的推薦,人們更易于理解來自人類的推薦。但是,當人們了解了算法的工作機制之后,對推薦系統的反感就會明顯減輕。關于算法透明性與可解釋性的重要意義,國內外學術界已給予高度關注,我們相信算法本身的這些局限性會逐漸得到克服或改進。

另外,缺少與算法互動的豐富經驗,相應的培訓與指導不夠,也被認為是引發厭惡算法現象的重要原因。當然,導致厭惡算法現象產生的原因可能并非某種單一的因素,很可能是多種因素的綜合作用。

二、欣賞算法現象及其產生原因

20 世紀80 年代以來,隨著專家系統的廣泛應用,學者們也注重研究公眾對專家系統的認知態度與使用情況。研究表明,使用者接受專家系統的建議并不總是基于他們對相關建議的細致考量。相反,他們擁有的關于計算機建議的某些信念(比如認為計算機是客觀的、理性的、公正的),會影響其對專家系統建議的評價,并說服他們接受專家系統的建議。如果人類與專家系統給出的是同樣的論證模式,人們認為專家系統是更客觀、更理性的。這些信念使得部分人對專家系統很信任,很少認真研究專家系統建議的合理性與科學性,甚至有時會接受它的錯誤建議。

進入21 世紀之后,隨著互聯網搜索引擎算法的發展與成熟,人們獲取海量信息變得易如反掌。人們不再需要費盡力氣去查找各種信息,包括在遇到一些困難問題時,首先想到的就是求助于計算機,通過搜索工具去尋找問題答案。即使是需要某些曾經存儲在大腦中的信息,人們通常也不努力通過回憶的方式來獲取。因此,互聯網已經成為人類外在于人腦的首要信息存儲方式。目前人們對通過互聯網獲取信息的高度依賴性,在一定程度上也可被看作對搜索算法的依賴與信任。

對于作為非專業人士的普通公眾而言,人們更愿意接受來自算法而不是其他人的建議,洛格(Jennifer Logg)等人將這種現象稱為 “欣賞算法” (algorithm appreciation)。洛格等人認為,人們對算法的態度,既與算法的精確性相關,也與應用的領域關系密切。對那些與個人喜好相關的問題,人們確實更樂于接受密友的建議,但在那些對精確性有明確標準的領域,比如投資決策、體育比賽預測等,人們更樂于接受算法給予的建議。而且,相對普通公眾來說,專業人員較為輕視算法的建議,由此導致他們抉擇的精確性反而不如普通公眾。欣賞算法現象與年齡無關,而且欣賞算法的具體表現并不統一,因時因人而異。當算法建議與人們自己的判斷不相一致時,欣賞算法的程度會有所減弱,但并不會消失。

欣賞算法與信任算法的現象在部分領域得到了一定程度的驗證。比如在新聞選擇方面的驗證:通過對來自26 個國家的5 萬多人的調研表明,對于來自算法和相關工作人員的新聞推薦,人們整體上更樂于接受算法推薦的新聞。而且,即使這些推薦是源自專家而非外行人員,人們仍然堅持選擇算法的推薦。另外,年齡、對隱私的關注、是否付費、是否可以通過移動設備獲取新聞等因素,對于個人選擇新聞的獲取方式都有較為明顯的影響。又如,有學者通過對435 名中學教師的在線調研表明,對于評價學生表現,大多數教師傾向于尋求并遵循來自人類而非專家模型的建議。但是,當面對難度較大的任務時,教師們認為算法的準確性高于人類預測者。

總的來看,至少有以下一些因素使得人們欣賞算法的現象產生。比如,人們通常對天氣預報比較關心,由于目前天氣預報精確度較高,很多人基于以往的經驗,都愿意選擇相信天氣預報。即使偶爾預報出了差錯,人們一般也不會選擇放棄信任天氣預報。另外,研究表明,通過共享其他人之前運用過某種算法的情況,會減輕人們接受該算法的認知負擔,并顯著提高其對算法的接受度。就像人們購物或選擇餐館前喜歡查看用戶評價一樣,對于那些用戶評價較好的算法,自然也易于得到更多人的信任與接受。

前文提及的厭惡算法現象在醫學領域也普遍存在,這可能是由于人們傾向于認為,以算法為基礎的人工智能系統會以共同的方式對待病人,而忽視病人的個人特征,即所謂的 “獨特性忽視” ( u niqueness neglect)。但是,如果人工智能系統能夠針對每位病人的特點提供個性化的服務,那么人們在醫生與人工智能系統之間的選擇意愿則平分秋色。在各種算法當中,購物網站的推薦算法具有明顯的個性化特征。筆者本人在網上購買某些書籍之后,經常會被購物網站推薦的書籍所吸引,同時也確實發現了某些與已購圖書內容相關的書籍。據筆者私下了解,這確實是一種較為普遍的現象。

大多數人在面對某些專業性問題(比如理財)時,雖然對自己的目的很清楚,但并不知道應該如何正確處理,此即 “意圖—行動鴻溝(” i n tention-action gap)。如果去咨詢人類專家,需要支付一定的費用,而且還有諸多不便,比如時間方面的限制。但是,具備不同功能的算法(程序或應用軟件)在互聯網上卻是隨時可得,而且大多是免費的,即使收費,通常價格并不高。也就是說,算法相對于人類專家而言,確實擁有明顯的低成本、易獲取等優勢。

諾貝爾經濟學獎得主卡內曼(Daniel Kahneman)等人認為,人類不是可靠的決策者,人類的判斷很容易受到各種無關因素的影響,比如當下的心情、上次就餐時間、天氣等,他們稱之為干擾判斷的機會變量。干擾因素與過度自信、無根據的樂觀主義等認知偏見不同,它們比偏見更普遍,隱藏得更深,不過干擾因素比偏見更容易量化。這些干擾因素產生的影響比人們通常想象的程度更大,而消除這些干擾因素最徹底的解決方式就是用算法取代人類的判斷。

伊達爾戈(Cesar Hidalgo)把一個人的神經系統能夠積累的最大信息量定義為 “人比” (personbyte)。如果我們假設一個人只能積累一個人比的信息量,那么某個人要獲得更多的信息,就必須依靠其他人員的幫助。也就是說,人類生物學意義上的知識與信息積累能力是有限的,對于目前人類面對的海量數據顯然是無能為力的。有學者認為,在算法強大的力量下,賽博世界中產生的海量數據和信息不再是一團亂麻,算法可以輕易找到隱藏在 “亂麻” 中的 “線頭” ,讓這些數據和信息變得有秩序。正因為算法擁有的強大能力,有的咨詢公司向企業管理人員大力推薦算法,鼓勵他們積極采用基于算法的決策,幫助他們盡可能避免與克服厭惡算法現象。

正是由于算法的強大功能,它在各類組織、機構、商業與政府部門的決策中發揮著關鍵性的作用,主導著人們處理事務的方式,因而具有強大的社會影響力,甚至已成為一種社會權力。在這樣的社會背景中,我們已經不可能無視算法的普遍存在,而是應該培育恰當的算法信任,客觀認識算法的優越性與不足之處,理性地與算法系統互動。

三、算法信任的建構途徑

數字鴻溝(digital divide)通常指不同家庭、群體對信息技術的擁有與使用情況方面存在的差異。研究表明,數字鴻溝不僅與性別、年齡、收入、學歷等常見的社會—經濟標準有關,還與心理因素有關,厭惡算法與欣賞算法的研究進一步證明了這一點。在日益深度科技化的智能社會中,以算法為基礎的人工智能技術必將在人類生活中扮演更加重要的角色。一方面,我們需要形成對算法的理性認知,不迷信算法,避免過分信任算法而產生所謂的自動化偏見(automation bias)。另一方面,我們也不能排斥算法,需要理性接納算法,避免智能時代的數字鴻溝。另外,對于人工智能倫理研究而言,算法信任具有至關重要的基礎性意義。人工智能倫理研究的一個重要方向就是使智能產品具有一定的倫理判斷與行為能力,但已有研究表明,人們可能并不希望智能產品作出某些道德決策,因此建構算法信任是人工智能倫理研究必須面對的一項基本任務。根據目前學術界研究成果,結合前述厭惡算法與欣賞算法現象及其原因分析,我們至少可以從技術、用戶與人機互動三個維度著手建構合理的算法信任,使算法更好地為人類服務。

:科技工作者應該在充分了解并把握用戶心理與預期等情況下,開發 “以人為本” 的算法,提升算法透明性、精確性與人性化,避免 “殺熟” 現象等負面影響。就目前的實證研究成果而言,至少可以從以下幾個方面著手。

第一,進一步提高算法的精確度與運行速度。雖然目前許多算法已經頗為準確,但有的情況下仍然會出現明顯的瑕疵,進一步提高算法的精確性,顯然有助于增加用戶的信任度。另外,加快算法運行的速度亦至關重要。人們通常認為,預測任務對人類而言是困難的,因而需要費時費力,而對于算法來說則是簡單的,算法所耗費的時間與其預測質量無關。因此,人類思考時間越長,得出的結果可能越可靠。但是,如果算法預測的反應越慢,人們就認為算法預測結果越不準確,也就不愿意信賴它們。

第二,切實提高算法透明度。提高算法透明度毫無疑問有助于增加算法信任。而且,算法不透明不但可能導致厭惡算法,還可能導致用戶出現算法焦慮(algorithmic anxiety)現象。通過對美國短租平臺愛彼迎(Airbnb)房東的調研表明,房東對平臺的評價算法工作機制不太了解,只知道一部分因素的重要性,對其他方面的重要程度不能確定,因而認為評價算法不透明、不可控,有明顯的不確定性,由此產生算法焦慮現象。

非專業人員不可能弄懂算法的具體工作機制,不過還是有若干具體途徑可以提高用戶能夠感受到的算法透明度。比如,提高算法結果的可預測性、可解釋性,特別是當出現與用戶預期相反的結果,算法應該給出詳盡的說明;算法決策的具體因素與指標,應該向用戶進行詳細說明;算法所采集、存儲、使用與刪除數據的情況,特別是可能涉及個人隱私的數據,必須征得用戶知情同意,并切實保護用戶隱私;當用戶是與以算法為基礎的工作系統而不是與人類工作人員進行互動時,必須提前明確告知,等等。

第三,科技工作者要充分把握用戶的預期,客觀介紹算法功能,同時對算法擅長與否的領域要有明確的認識與區分。前述關于厭惡算法的論述提及,違背預期是產生厭惡算法現象的原因之一。因此,科技工作者需要將用戶的預期與算法的功能協調一致,特別是當算法的運行有所調整時,一定要及時告知用戶。另外,算法是對現實世界的簡化與模擬,現實世界永遠比算法所描述或處理的更為復雜。因此,科技工作者在一些規則比較明確、理論基礎牢固的領域,可以充分發揮算法的威力,阿爾法圍棋就是其中的典型代表。但是,對于算法可能不能靈活處理的醫學、人文、社會科學等領域,除了特定問題之外,對于算法的大范圍推廣應用就更應該謹慎對待。如果在某些不太適當的領域推廣不成熟的算法,只會加劇厭惡算法現象。

第四,盡可能減少或避免算法歧視、偏見、 “殺熟” 等負面效應。雖然算法偏見在一定程度上是無法根本避免的,但盡量減輕相應影響是可能的,也是必須的。對此,學術界已有大量的討論,在此不再贅述。

:對用戶而言,需要通過提升算法意識、培育算法想象、豐富算法經驗、加強算法培訓等途徑來培育算法理性。

第一,提升用戶的算法意識。雖然算法無處不在,但人們是否對算法的存在擁有自覺意識則是另一回事。通過對40 名臉書(Facebook)用戶的調研表明,有超過一半(62.5%)的用戶根本就沒有意識到臉書關于新聞推送算法的存在。在認識到算法的存在之后,他們剛開始的反應是驚訝與惱火。不過,在2—6 個月之后,大家對臉書仍然保持類似水平的滿意度。最重要的是,算法意識使得用戶更積極主動地調整相關設置,增強了對系統的控制感。雖然我國數字技術普及率較高,但公眾算法意識并不算高。比如,我們經??梢栽谛侣剤蟮览锟吹?,有人通過某種搜索引擎得到某些方面的推薦信息,結果在經歷不甚愉快的事件后才發現靠前的推薦并不是最優的。當然,隨著各種監管制度與措施的完善,這類情況已經明顯下降,但提升公眾的算法意識的確有助于減少上當受騙的現象。由于算法的不可見性,為了提升算法意識,我們需要關注算法界面的研究,分析用戶在何時、何地以及如何意識到算法的存在,這些知覺又如何轉譯為對算法的認知。

第二,培育合理的算法想象。為了探究人們在哪些情況與環境中會意識到算法的存在,算法意識又會在何種程度上影響人們對各類平臺的應用,布赫(Taina Bucher )提出了 “算法想象” (algorithmic imaginary)概念,用以分析算法的個人體驗與日常影響,說明算法如何擁有影響與被影響的能力。算法想象主要指人們思考算法是什么、算法應該是什么,以及它們如何發揮作用等問題的方式。算法想象不只是產生不同的情緒與感知,而且它們對塑造算法也會產生關鍵性作用。比如,臉書的用戶在認識到算法的選擇、推薦等工作模式之后,會采用相應的策略,使自己的發帖更容易被算法識別并推薦,包括在特定的時間發帖、以某種方式組織內容、在內容中回避或包含某些關鍵詞等,而某些策略的成功或失敗會明顯改變人們對算法的思考、談論與感受方式,由此產生各種不同的情緒;為了抵制算法的控制,有些用戶采取相反的策略,故意采取某些算法無法預測的方式與之進行互動,或者提供某些虛假的數據,這些反饋也成為塑造算法系統的重要組成部分。可見,對社會公眾來說,算法不是抽象的計算過程,而是擁有某種調整人們生活與思維方式的力量。我們應該讓公眾全面了解算法的大致工作原理與模式,使其明白算法的優點與可能的不足,從而使公眾對算法擁有理性的認知,保持較為合理的算法想象,進而在與算法系統互動的過程中既充分利用算法的優點為自己服務,也盡量規避或減少因較多錯誤甚至虛假信息而導致的算法功能失靈或弱化。

第三,豐富算法經驗。算法想象概念的實質就是強調要關注人們對算法的認知,以及這種認知對算法系統與用戶之間的相互影響。阿爾瓦拉多(Oscar Alvarado)等人更加明確地提出了 “算法經驗” (algorithmic experience)的概念,倡導較為全面地研究用戶對算法的認知,分析算法的哪些特征與功能會對用戶產生重要影響,并根據用戶的體驗來改進算法設計,進而使用戶產生更好的算法體驗。我們認為,布赫主張的算法想象概念主要關注用戶對算法的主觀認知,特別是負面的感受,而算法經驗強調我們應該研究用戶對算法的了解如何影響他們與算法系統的互動,以及用戶對算法的各種態度,并注重對算法進行改進,因此,強調算法經驗比單純關注算法想象應該更為全面與合理。只有通過對算法經驗進行深入細致的實證研究,我們才有可能真正設計出 “以人為本” 的算法系統,同時也為用戶提供概念工具,用以全面、合理地理解算法及其運作,從而減少厭惡算法現象,提升欣賞算法的比例。

第四,加強教育培訓工作??萍脊ぷ髡咝枰哟髮λ惴ǖ目破?,使社會公眾更加全面地了解算法,特別是算法的學習功能、個性化服務的可能性與實現途徑,等等。公眾需要積極主動地學習相關知識,接受某些教育培訓,進而加深對算法的理解與認知,更加理性地與算法系統互動。

:我們需要進一步加強人機互動的經驗研究,強調人機互補,給予用戶一定的自主性,同時加強技術接受研究。

首先,通過人機互動研究探索人機互動特征與信任模式。前文提及的豐富算法經驗,其實質也是強調人機互動研究。前文的算法經驗主要是針對用戶而言的,而此處的人機互動研究更多地強調科技工作者的責任,也就是深入研究人機互動的特征,盡可能滿足用戶的心理預期。首先,需要深入了解算法認知的個體差異與信任模式。大量的經驗研究表明,個體在與算法系統互動的過程中,文化、年齡、性別、性格等各種個體特征都與信任程度有一定關聯,雖然相關的具體機制還不清楚,但大多數經驗研究已經證明了這一點,而且這些個體特征大多(除了性別)還會隨著時間的推移而產生變化。同時,用戶與算法系統互動過程中的信任大致可以分為傾向性信任(dispositional trust)、情境信任(situational trust)與習得信任(learned turst)等類型。傾向性信任指個體對算法的總體性信任取向,與具體情境與特定系統無關,文化、年齡、性別與性格特征等因素主要影響該類型信任。隨各種不同情境(包括外部環境與個體內在特點)而變化的信任即情境信任。習得信任即用戶通過當前或之前與算法系統的互動積累的經驗而作出的對算法的判斷。如前所述,習得信任既與用戶的知識背景相關,也與算法系統的表現情況關系密切。當然,這三種信任雖然有一定區別,但也相互關聯,共同發揮作用。我們需要在了解前兩種信任類型的基礎上,重點培育用戶的習得信任。

其次,增強人類在人機互動過程中的自主性與控制感。已有的實證研究表明,當用戶可以修改算法的預測結果時,他們更傾向于選擇算法,即使發現算法本身并不完美也愿意使用算法。盡管人們能夠修改的方面受到嚴格限制,但人們還是愿意選擇能夠修改的模式。也就是說,用戶對修改算法的偏好,表明他們希望能夠對算法預測的結果進行某種程度的控制,但并不是希望有很大的控制權,只是在與算法互動的過程中保持一定的自主性,這種自主性使用戶對算法預測結果感到更滿意,更愿意相信算法的優越性。與此類似的研究亦表明,如果能夠把用戶自己的觀點融入算法之中,可以使用戶更樂于接受與遵循算法的建議。

在某些特殊情況下,人機互動過程中的自主性與控制力尤為重要。比如,心理學家彌爾(Paul Meehl)提出的 “腳骨折” 案例就是一種典型情況。如果我們觀察到某人每周二晚上都會去看電影,于是在我們的統計模型中,可以得出 “周二晚上某人會去看電影” 的推斷??墒?,當我們某個周二早上看到他腳骨折了,我們一般不會再認為他當天會去看電影,但統計模型仍然會得出之前的結論。盡管某人出現腳骨折的概率很低,但這個案例提醒我們,任何算法都不可能窮盡所有的可能性,對于算法給出的明顯違背常識的預測,我們應該保持高度的警惕,并根據具體的情況對其進行否決。

再次,加強技術接受研究。我們既需要引導新的用戶接受算法,同時也必須重視用戶使用算法后是否愿意繼續長期使用。考慮到智能產品目前已有較為廣泛的應用,因此后者更值得我們關注。針對用戶對信息系統的使用與接受的行為表現,巴特查里亞(Anol Bhattacherjee)進一步完善了所謂的 “預期—確認理論” (expectation-confirmation theory)。該理論認為,用戶是否愿意繼續使用某種信息系統,是由他們對使用情況以及繼續使用中的感知有用性(perceived usefulness)兩方面的滿意度所決定的,同時,用戶的滿意度又受到來自之前使用經驗以及感知有用性的預期確認程度的影響。我們需要深入探討用戶首次接受信息技術之后的心理動機,因為這些動機可能影響用戶是否繼續使用該技術的抉擇。由于用戶在接受技術之前的態度主要受到大眾媒體、同事朋友等二手信息的影響,因此可能并不符合實際。但是,用戶使用技術之后的滿意度是基于直接體驗,因此基本上是準確的。如果我們對用戶的預期與確認、滿意度與情感意圖等復雜的心理動機形成比較準確的理解,顯然有利于更好地理解用戶接受技術的具體機制。

巴特查里亞等人的技術接受模型被稱為 “后接受模型” ( p ost-acceptance model)。一些學者通過更加細致的經驗研究,探討用戶繼續使用信息技術過程中的演變情況,或者融入某些互補性的理論觀點,使該技術接受模型更加精細化。有學者關注技術與具體工作之間的內在關系,認為具體工作與技術支持的符合程度,會影響工作業績與技術使用情況,即 “任務—技術匹配理論(” t a sk-technology fit theory)。根據這一理論,我們可以從任務特征、技術特征、任務—技術匹配、業績影響與使用情況等五個方面著手建構技術接受模型。在具體的實證研究中,既可以圍繞技術為中心展開,也可以以用戶為中心進行,這兩條研究進路可以相互補充、并行不悖。總的來說,技術接受是一個動態發展過程,為了更好地培育用戶的欣賞算法認知,我們不僅需要關注用戶最初使用算法系統的感受,還必須重視研究用戶繼續使用的意愿及其影響因素。

四、結語

算法作為人工智能科技的一種基本要素,在智能社會中發揮著日益重要的作用。有人可能出于各種不同的原因排斥算法,不愿意接受算法推薦與算法決策,同時也有人偏向于欣賞與信任算法。對于相同的算法應用領域,不同的用戶可能產生完全相反的態度。用戶對算法的不同認知情況充分說明,要使智能產品得到社會成員的廣泛接受,我們必須重視以用戶為中心的算法研究,而不是就算法本身研究算法。如何使公眾理性地認知算法,充分認識算法的優勢與不足,更為合理地應用算法進行理性決策,避免出現過度信任與盲目排斥算法等不當傾向,應該是與提高算法的技術水平同樣重要的任務。

猜你喜歡
人類用戶
顫抖吧,人類
哈哈畫報(2022年4期)2022-04-19 11:11:50
人類能否一覺到未來?
人類會成長起來嗎?
英語文摘(2021年2期)2021-07-22 07:56:54
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
關注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
關注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
關注用戶
商用汽車(2016年4期)2016-05-09 01:23:12
人類正在消滅自然
奧秘(2015年2期)2015-09-10 07:22:44
Camera360:拍出5億用戶
創業家(2015年10期)2015-02-27 07:55:08
主站蜘蛛池模板: 色悠久久久久久久综合网伊人| 欧美国产综合色视频| 人妻丰满熟妇av五码区| 久久96热在精品国产高清| 国产一级精品毛片基地| 国产精品第一区在线观看| 中文纯内无码H| 伊人蕉久影院| 欧美日韩精品一区二区视频| 久久精品免费看一| www.亚洲一区| 99这里只有精品在线| 欧美中文字幕在线播放| 亚洲人精品亚洲人成在线| 天堂在线www网亚洲| 青青草国产精品久久久久| 人妻夜夜爽天天爽| 日本91在线| 日本不卡在线视频| 精品国产免费第一区二区三区日韩| 欧美成人国产| AV无码一区二区三区四区| 国内精品一区二区在线观看| 国产中文在线亚洲精品官网| 精品久久久久成人码免费动漫| 久久国产亚洲欧美日韩精品| 国产亚洲日韩av在线| 精品撒尿视频一区二区三区| 热久久国产| 在线欧美a| 亚洲欧美日韩另类在线一| 欧美国产日韩在线播放| 亚洲综合国产一区二区三区| 日韩欧美国产精品| 国产99热| 色AV色 综合网站| 欧美成人影院亚洲综合图| 日韩欧美国产三级| 亚洲欧美色中文字幕| 91蜜芽尤物福利在线观看| 久久精品人人做人人爽97| 熟女日韩精品2区| 国产特一级毛片| 亚洲婷婷在线视频| 久爱午夜精品免费视频| 国产在线精品人成导航| 国产丝袜无码精品| 91麻豆国产在线| 无码内射中文字幕岛国片| 狠狠色婷婷丁香综合久久韩国 | 国产黄色视频综合| 91亚洲免费| 婷婷综合色| 久久精品中文字幕免费| 久久免费精品琪琪| 欧美a在线看| 日韩在线观看网站| 在线欧美a| 国产杨幂丝袜av在线播放| 久久久久国产精品熟女影院| 亚洲成人播放| 久久人妻xunleige无码| 精品少妇人妻无码久久| 久久频这里精品99香蕉久网址| 老司机久久精品视频| 成人日韩精品| 国产三级韩国三级理| 亚洲Av综合日韩精品久久久| 中文字幕久久波多野结衣| 亚洲bt欧美bt精品| Aⅴ无码专区在线观看| 欧美中文字幕在线播放| 婷婷综合在线观看丁香| 日韩成人午夜| 日韩欧美国产成人| 国产高清无码麻豆精品| 偷拍久久网| 日本午夜三级| 亚洲欧美日韩色图| 欧美日本一区二区三区免费| 国模极品一区二区三区| 国产精品大尺度尺度视频|