【關鍵詞】智能傳播 ?人機混合智能 ?深度態勢感知
【中圖分類號】TP18 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2018.24.002
隨著智能終端和平臺技術的快速發展,“人人都是報道者”“人人都是主播”“人人都是網紅”的夢想,正在成為現實,傳媒業的生產方式、傳播方式、運行方式、消費方式正在發生著巨大改變,未來,“眼觀六路,耳聽八方”也將被賦予新的內涵和外延,人類的感和知都會衍生出不一樣的味道,對同一事物的看、聽、觸、嗅、味、思都會呈現出與先前不一樣的秩序,這種新的認知機制將會變得更快、更立體、更飽滿、更富有多樣性(包含負面性、欺騙性)。對此,我們要加快智能傳播的發展,不僅要繼續深化智能技術的研究和應用,還要提高新形勢下傳播理論和用戶體驗的分析和創新,唯此才能更好地應對新聞傳播行業顛覆性競爭格局的出現。
無論是縱觀古今,還是展望未來,各種智能傳播系統始終都是一個完整的人機環境系統,大數據、智能化、移動網絡、云計算等各種智能傳播技術都不可能是完全無人的,人只不過是由前置轉為后置,由體力變為智慧,由具體執行變為籌劃操作,其中必將涉及復雜的人機交互及混合問題。對于未來的智能傳播變化趨勢而言,單純的人工智能或人類智能都不能使其發揮到最大效能,而兩者的結合——人機智能的融合終將是其發展的主要方向。客觀地說,智能傳播是一種加快、加深人自我認知的新途徑、新方式。它的出現使得人們主動、被動地突破各種舊我邊界的速度提高了,實現了更多時空下新我的態、勢、感、知之間的相互作用。它使得數據與信息(有價值的數據)、知識更加有機地結合在一起,甚至出現了數+信+知的新型混合輸入形式,進而使得知識圖譜(知識就是用理性區別事物的是非曲直,鑒于知識忽略了對感性的使用,所以知識圖譜僅是局部的理性世界反映)中的對象、屬性、關系從靜止不變的標量變成了隨機動態的矢量,并不斷衍生出新的知識、活的知識來。未來智能傳播的最優存在形態可能不是個別的傳播平臺,而是系統網絡性的平臺,更有可能是橫跨各不同人機環境系統的綜合聯動體系,并且該體系還會不斷地自主優化升級。
智能傳播中人機環境系統融合的關鍵還將包括:有靈活彌聚的表征達成、公理與非公理混合的推理方式、直覺與“間覺”交融的決策機制。首先,通過人的價值取向有選擇地獲取各種數據,在這個輸入過程中不僅是客觀數據與主觀信息的融合,還應該結合人們的先驗知識和條件;其次,在人機信息/數據融合處理過程中,人加工的非結構化信息框架(如自然日常語言)會漸變得結構化一些,而機處理的結構化數據語法則會變得非結構化一些,這個過程不但要使用基于公理的推理,而且還需兼顧非公理性的推理(如情感、意向性等),使得整個智能傳播過程更加縝密合理且富有人性化;最后,在決策輸出階段,人常常是通過將腦中若干記憶碎片與感覺接收到的信息綜合在一起,跳過邏輯層次,直接把這些信息中和的結果反射到思維之中,形成所謂的“直覺”,其結果的準確程度,在很大方面取決于一個人的綜合判斷能力,而機器則是對通過計算獲得的結果——“邏輯”進行間接評價,這種把直覺與“間覺”相結合的獨特決策過程將是人機融合智能傳播輸出的突出特點。
如同人工智能當前還沒有共識的定義一樣,智能傳播除了應用領域比較明確之外,現在也沒有共同一致的概念,將來可能也很難產生一致公認的普適概念,因為人本身就是一個極其不容易歸納概括的名詞,凡是涉及人的行為,尤其是智能行為,更是變化多端、很難預測;另外,未來傳媒的傳播方式、機理、手段也會日新月異,所以智能傳播可能是一個非定義項,其確切的含義無法通過三言兩語描述清楚。
但是世界再復雜,情境再捉摸不定,也總有蛛絲馬跡呈現。美國、歐洲各國在新財年的預算中將持續加大對自主系統、情報數據分析、大數據分析、機器人、自動化及情感計算技術的投資力度,研究出支撐智能傳播技術應用的算法,提升人工智能、自主技術的水平,這將成為決定上述各主要方向技術在智能傳播領域發展的關鍵。從眾多公開信息分析不難看出,當前世界綜合實力排名第一的美國對智能傳播領域的重視程度也很高,其主要著力于兩部分:一是機器學習,二是自主系統。機器學習就是形式化的(程序規范性的)代表,描述一個規則的事態;自主系統具有意向性的(非形式化、事實經驗性的)特點,描述一個可能的事態。形式化推理就是將命題的邏輯聯接符號化,然后規定變形規則,進行公式間的轉化變形,可以用來表達理性推理。非形式化的推理就是不借助符號,而是直接通過自然需要來進行語句間的變換,這部分主要涉及感性判斷,研究初期這兩部分可能會各自為戰、分頭突進,但假以時日,這兩項研究的真實意圖可能就會和未來科技的發展趨勢越發一致起來:人機融合智能系統。這也說明了智能傳播的可見未來既不是單純的機器學習,也不是可愛的自主系統,而很可能是結合人機各自優勢的融合智能,若凝煉成科學問題,本質上就是要回答認知和計算的關系,以及人類智慧和機器的類人智能之間的關系問題。
人與人交流的語言是能指與所指混合的復合載體,而目前的人機交互則是能指型單一通道,所以這就導致了當前的智能傳播還沒有出現弦外之音和言外之意。也許不遠的未來,人機智能傳播在能指和所指之間還會形成一種能指+所指的折中交互方式,以利于聯系人與機的智能傳播體系發展。另外,當前人機融合的智能傳播面臨的一個難題是:如何在多樣性中尋求一致性表達。
人既有確定性的一面也有不確定性的一面,機(機器、機制)同樣如此,如何把不確定性的一面轉為相對穩定的確定性加以使用,這是智能傳播中人機融合的一個重要問題。人的確定性+機的確定性比較好理解,人的不確定性+機的確定性、人的確定性+機的不確定性、人的不確定性+機的不確定性難度會依次遞增,解決好這些問題就是智能傳播中的人機之間的有機融合過程。
智能傳播大環路中的機器常常是基于大量的正確樣本進行訓練的,而人類則是基于少量的正確或錯誤樣本進行學習的。機器學習的結果比較容易產生局部最優(也許這也是數學本身的不足,如蟻群算法),而人更擅長把握整體最優。機器學習(形式化)調參很難,人類(使用意向性)相對比較自如。更重要的是,在智能傳播過程中,人類的學習不但能建立起一種范圍不確定的隱性知識,還能建立起一種范圍不確定的隱性秩序/規則,人因此所起的作用是“創造意義”,而非“獲得意義”。雖然,機器學習也可以建立一定范圍的隱性知識、秩序,但這種范圍比人類學習建立的范圍要小得多,而且可解釋性更差,容易出現理解盲點。知識的默會性足已造成很多不確定性,規則的內隱更使得交互復雜加倍,其根源主要在于智能傳播過程中各個交互對象(人、機、環境)具有“自己能在不確定和非靜態的環境中不斷自我修正”的能力。
智能傳播的不確定性是由表征與推理的可變性造成的。其機制背后都隱藏著兩個假設:程序可變性和描述可變性。這兩者也是造成期望與實際判斷不一致的原因之一。程序可變性表明對前景和行為推導的差異,而描述可變性是對事物的動態非本質表征。2018年8月11日,2011年諾貝爾經濟學獎獲得者Thomas J. Sargent在世界科技創新論壇上表示:“人工智能就是統計學,只不過用了一個很華麗的辭藻。”在智能傳播過程中,這表現在構成人工智能+傳播的兩大基礎:人類和機器的感知/推理根本上都是統計概率性的,即各種歸納、演繹、類比等邏輯推理過程里面存有大量的漏洞和缺失,所以歸納、演繹、類比等推理機制都有升級的空間和余地。
對智能傳播中的人而言,機就是延伸自我的一種工具,同時也是認知自我的一種手段,通過機的優點來了解自己的缺點,通過機的缺點來明了自己的優點,然后進行相應的補償或加強。種種跡象表明,目前人機融合智能傳播還不是一見鐘情,這是因為缺乏雙向性的感知與覺察,更多是主從相聲似的人機交互,盡管還不那么盡人意,捧逗還存在失調失配,但未來仍值得期待:人在發明機器、傳播信息的同時也在發現著人本身。
簡而言之,要解決智能傳播中人機融合問題,首先要打破各種認知慣性,突破傳統的時空關系,進而把人、機各自的感知圖譜、知識圖譜、態勢圖譜融合在一起思考。
恩格斯在《路德維希·費爾巴哈和德國古典哲學的終結》中曾不無深意地說道:“全部哲學,特別是近代哲學的重大的基本問題,是思維和存在的關系問題。”其實這不僅是近代哲學的重大基本問題,對智能傳播而言,也是極其重要的基本問題。哈耶克在其1952年出版的名著《感知的秩序》(The Sensory Order)一書的序言中也曾寫道:“完全解釋我們心智形成的外部世界圖景的不可能性,意味著永遠不可能完全解釋現象的外部世界。”這段話說明了思維問題的重要性,進而深刻地揭示了人類思維的難解釋性和存在的不穩定性。18世紀英國哲學家大衛·休謨在《人性論》中提出的一個著名問題,簡稱休謨問題,即所謂從“是”能否推出“應該”,也即“事實”命題能否推導出“價值”命題。這個問題在西方近代哲學史上占據重要位置,許多著名哲學家紛紛介入,但終未有效破解。如果說休謨之問中的事實(being)是很難推出價值(should)來的,那么人機的結合則可以打破這個困擾多年的哲學和智能命題:人意向性認知所形成的價值觀與機器形式化計算產生的事實性交互所迸發出的火花足以照亮主客觀之間黑暗的通道。
1968年圖靈獎獲得者理查德·哈明就說過:“計算的目的不在于數據,而在于洞察事物。”計算機的本質就是通過數理反映心理和物理規律。玻爾也說過:“完備的物理解釋應當絕對地高于數學形式體系。”認知的核心是智能,是洞察事物,所以計算屬于認知,但認知卻不等同于計算。智能傳播的目的也不在于數據,而在于洞察事物,其中人機融合就是要自然地生成這種洞察機制,進而實現人類通過符號和媒介交流信息以期發生相應變化的活動。
從知識角度看,波蘭尼曾把知識分為顯性和隱性兩大類。顯性知識(Explicit Knowledge)可以表述,屬于格式化的符號系統。隱性知識(Tacit Knowledge),可體驗領悟,屬于非格式化的意念系統。借用麥克利蘭的“冰山模型”一詞,我們不難看到,在人類知識中,科學部分(尤其是技術)在水面上,必定是顯性的,可考核衡量;人文部分在水面下,顯性中包含隱性,其價值由隱性知識決定,是不可衡量的,最核心部分在無意識層次,當事人自己都難以覺察。隱性知識在技術層面為“秘訣”,在認知層面為心智。人機思維可以在發現和體驗顯、隱性知識結合方面起到重要作用。對智能傳播而言,無論顯性知識學習還是隱性知識理解,都不外乎是為了精確地感知、正確地推理和準確地預測,這就涉及一個大家司空見慣又望之興嘆的智能核心概念——態勢感知。
我們研究發現:態,形也;勢,上也;態勢,形而上,道也;感,覺也;知,察也;感知,覺而察,可道也;態勢感知,道可道非恒道也(默會的道);深,大也;深度態勢感知,即大道無形也。弗雷格曾區分了觀念(ideas)和含義(senses)兩個概念的含義,他認為觀念是心理的、主觀的和私人的,本質上不能用于交際,因此不是通過語言交際所公用的共享意義的一部分。他還認為,一起構成思想的含義與人類心理沒有關系,是遠離主觀的。含義和思想是非心理的、公用的、客觀的,并且可用于交流的,它們都能成為語言表達的意義。這一區分是達米特所謂的“從心智中擠壓出思想”,它實際上也是所有歐美語言哲學的根由。擺脫心智的思想是客觀的,它們可以根據與世上事物的直接對應關系加以描述。態勢感知中最困難的兩部分,一是怎樣把主觀私人心理的“勢”(如生成、傳播“圍魏救趙”之勢)轉化為客觀公用非心理的“態”(如圍、魏、救、趙的各種狀態參數);二是怎樣把主觀私人心理的“知”(我與趙、魏之間的關系)變換成客觀公用非心理的“感”(圍、救所需要的數據/信息)。從態空間進入勢空間,就是從數據特征空間進入信息(特征)向量空間,就是從邏輯空間進入非邏輯空間,就是從形式空間進入意向性空間,也即從語法空間進入語義空間,這種不同空間的進入所產生的誤差表達公式,就是未來要建立的智能傳播中人機融合—深度態勢感知理論體系。
《孫子兵法》云:“轉圓石于千仞之山者,勢也。”智能傳播中的深度態勢感知關鍵有三處,一是深,二是知,三就是這個勢。所以深度態勢感知可以簡稱為:深知勢。這里的勢不是狀態(參數)的樣子,而是帶有意圖指向的加速度變化過程,就像那塊千仞之山上的圓石一般。這種態勢感知包括人的態勢感知和機的態勢感知兩部分,對人而言,一般是態勢交融,態中有勢,勢中有(新)態,感中有知,知中有感。在眾多的智能傳播情境中,不可能什么都知道了再進行,如何以偏概全,以局部解全局,見滴水之冰而知天下之寒,窺斑知豹,以小映大,是深度態勢感知研究的瓶頸之一。深度態勢感知同時也體現在把平臺、系統、體系各級別態勢感知融合在一起形成的,可控的智能傳播是從勢到態的管理,不可控的智能傳播是單純的從態到勢的感知。漢語里的態勢與英文不同,situation=state+trendy,態里的客觀性、邏輯性多些,如車馬炮、上下左右、天時地利等;勢里的主觀性、非邏輯多些,如塞翁失馬、圍魏救趙、人和眾擁等。當然,人對相同態和勢的感、知都會不太一樣,而且人的態可能就包括了機器的勢,即進行了相應的預處理。目前,在智能傳播中的人機融合過程里,態面臨的困難是形式化符號如何準確表征,勢對應的瓶頸為意向性如何完整抽象提煉;感遇到的麻煩在如何反身性主動獲取,知直面的阻礙于局部—全面關系如何轉換,以及人的態、勢、感、知如何與機器的態、勢、感、知相融相合?!
智能傳播中,對“態”而言本質是表征的問題,尤其是靜態的表達,側重于感形(客觀存在,being),感己感彼;對“勢”而言本質是理解(構建聯系)的問題,尤其是動態的會意,側重于知義(值得、應該,should),知己知彼;由態到態的交互過程,沒有智能的出現,得“形”失意;由態到勢的交互過程,亦即數據在流動中生成信息知識(形成價值性)的過程,也就是智能的產生過程,得意忘形。態勢如同散文一般,散文“形散而神不散”,態散而勢不散,態散勢聚,得意忘形,得勢忘態。所以智能傳播中人機融合理論體系建構的基本核心就是建立起智能的人的情、境、意、識+機的態、勢、感、知協同機制。
智能(包括人工智能),本質上是“人”學,就是從人的智能模仿開始,具體表現為:輸入是模擬人的各種感覺的傳感器信息處理,處理是仿真人的各種推理方法,輸出是師法人的決策行為過程,而在整個的智能程序中,最終還是人起作用、為人服務、向人學習!
智能的實質就是適應性交互(不一定是自適應,還包括他適應的混合),傳播是指兩個相互獨立的系統之間,利用一定的媒介和途徑所進行的、有目的的信息傳遞活動。傳播的實質是一種信息分享過程,雙方都能在傳遞、交流、反饋等一系列過程中分享信息,在雙方的信息溝通的基礎上取得理解,達成共識。把兩者結合起來看,智能傳播的實質就是顛覆以往的交流交互方式,包括自我、人人、人物(機)、人物(機)環境等方面,歷次革命,蒸汽機、電動機、計算機(網絡)、智能機、人+機,莫不如此……
智能傳播的重點是人的變化而不是僵化,即加快了人的反身性(就是人與傳播的相互影響)和自否定(進化迭代的過程),自否定(自由)和反身性(反思)構成了人機智能傳播的人文性,包括能動的創造性。機器從不會自否定和反身性,人會!人的態、勢、感、知中都包含隱性的自否定和反身性成分,機器沒有這種機制,一根筋。人可以既是又不是,是“關系”而不是“屬性”。羅素也曾指望通過對“既是又不是”的兩個“是”字的語義區分來排除悖論、矛盾,如說“蘇格拉底是人”,“蘇格拉底又不是人”(不等同于人),此中前一個“是”意味著具有某種“屬性”,后一個“是”則意味著“等同”,兩個命題講的不是一回事,構不成邏輯矛盾。若“態”為“是”(being),那么“勢”即“應”(should),從認識論角度,“態”或“是”就是從描述事物狀態與特征的參量(或變量)的眾多數值中取其任意值,“勢”或“應該”就是從描述事物狀態與特征的參量(或變量)的眾多數值中取其最大值或極大值。從價值論角度,“態”或“是”就是從描述事物價值狀態與價值特征的參量(或變量)的眾多數值中取其任意值,“勢”或“應該”就是從描述事物的價值狀態與價值特征的眾多數值中取其最大值或極大值。
價值是智能傳播中人機態勢感知的核心,其體現的已不再是原有的產生過程,而是由人機環境系統的共同作用而生成的顯性和隱性部分,隱性部分更值得深思。抽象符號間的聯系不能產生知識和意義,形式符號系統的語義解釋和知識建構何以內在于系統而不依賴于人的定義,應該是未來智能傳播研究的核心問題。這涉及一個主體的生成。勢是(人物、環境)各部分之間的一種價值秩序和結構,是一種主觀方面“內外相應”的心理作用,所以有人說,“勢不是事物本身的屬性,它只存在于觀察者的心里。每一個人心里見出一種不同的勢”。不過這并不否認勢與“對象各部分之間的秩序和結構”有關,只是肯定對象的形式因素要適應人心的特殊構造,才能產生勢覺。勢的本質為事物的雜多狀態與它的內在本質的協調一致性表征。勢產生的原則不在于客觀的規則邏輯和狀態的概率計算,而只來自于個性方面有意義和顯出特征的東西。其最高原則是從顯出特征的東西開始,達到意蘊——小信息弱概率的大反映強運籌,能夠用感性表達理性,用虛擬誘導現實,用should實現being。總之,勢是人們理念的感性價值顯現。
倫理一詞,英文為ethics,源自于希臘文“ethos”,其意義與拉丁文“mores”差不多,表示風俗、習慣的意思。西方的倫理學發展流派紛呈,比較經典的有叔本華的唯意志主義倫理學流派、詹姆斯的實用主義倫理學流派、斯賓塞的進化論倫理學流派,還有海德格爾的存在主義倫理學流派。其中存在主義是西方影響最廣泛的倫理學流派,始終把自由作為其倫理學的核心,認為“自由是價值的唯一源泉”。
在我國,倫理的概念要追溯到公元前6世紀,《周易》《尚書》已出現單用的倫、理。前者即指人們的關系,“三綱五倫”“倫理綱常”中的倫即人倫;后者則指條理和道理,指人們應遵循的行為準則。與西方相似,不同學派的倫理觀差別很大,儒家強調仁、孝、悌、忠、信與道德修養,墨家信奉“兼相愛,交相利”,而法家則重視法治高于教化,人性本惡,要靠法來制約。
一般而言,倫理是哲學的分支,是研究社會道德現象及其規律的科學。我們對其研究是很必要的。因為倫理不但可以建立起一種人與人之間的關系,而且可以通過一種潛在的價值觀來對人的行為產生制約與影響。很難想象,沒有倫理的概念,我們的社會會有什么人倫與秩序可言。
通過以上的討論與分析,筆者認為,人工智能還遠沒有倫理的概念(至少是現在),有的只是相應的人對于倫理的概念,是人類將倫理的概念強加在機器身上。在潛意識中,人們總是將機器視為合作的人類,所以賦予機器很多原本不屬于它的詞匯,如機器智能、機器倫理、機器情感等。在筆者看來,這些詞匯本身無可厚非,因為這反映出人們對機器很高的期望,期望其能夠像人一樣理解他人的想法,并能夠與人類進行自然的交互。但是,當務之急是弄清楚人的倫理中可以進行結構化處理的部分,因為這樣下一步才可以讓機器學習,形成自己的倫理體系。而且倫理,正如前面討論的,是由倫和理組成的,每一部分都有自己的含義,而“倫”,即人倫,更是人類在長期進化發展中所逐漸形成的,具有很大的文化依賴性。更重要的是,倫理是具有情景性的,在一個情景里的倫理是可以接受的,而換到另一種情景里,就變得難以理解,所以,如何解決倫理的跨情景問題,也是需要考慮的。
值得一提的是,就智能傳播的人機環境交互而言,“機”不僅僅是機器,更不是單純的計算機,還包括機制與機理。而環境不僅僅單指自然環境、社會環境,更涉及人的心理、體驗環境。單純地關注某一個方面就會以偏概全。智能傳播技術的發展,不僅僅是技術的發展與進步,更加關鍵的是機制與機理的與時俱進。因為兩者的發展是相輔相成的,技術發展過快,而機制并不完善,就會制約技術的發展。現在的智能傳播的倫理研究就有點這個意味。現在的人類智能的機理尚不清楚,更不要提機器的智能機理了。而且,目前研究機器大多數關注于人的外在環境,即自然環境與社會環境,根據機器從傳感器得到的環境數據來綜合分析人所處的外在環境,但是卻很難有相應的算法來分析人的內部心理認知環境,人的心理活動具有意向性、動機性,這也是目前機器所不具備的,也是不能理解的。所以對于智能傳播的發展而言,機器的發展不僅僅是技術的發展,更是機制上的不斷完善。研究出試圖理解人的內隱認知行為的機器,則是進一步的目標。只有達到這個目標,智能傳播中的人機環境交互才能達到更高的層次。
智能傳播的倫理研究是智能科學技術發展到一定程度的產物,它既包括人工智能的技術研究,也包括機器與人、機器與環境及人、機、環境之間關系的探索。與很多新興學科一致,它的歷史不長,但發展速度很快。尤其是近些年,依托著深度學習的興起,以及一些大事件(AlphaGo戰勝李世石)的產生,人們對人工智能本身,以及智能傳播的倫理研究的興趣陡然上升,對其相關研究與著作也相對增多。但是,可以預期的是,人工智能技術本身離我們設想的智能程度還相去甚遠,且自發地將人的倫理遷移到機器中的想法本身實現難度就極大。而且如果回顧過去的話,人工智能總是在起伏中前進,怎樣保證無論是在高峰還是低谷的周期中,政府的資助力度與人們的熱情保持在同一水平線,這也是一個很難回避的問題。這些都需要目前的人工智能倫理專家作進一步的研究。
總之,智能傳播的倫理研究不僅要考慮機器技術的高速發展,更要考慮交互主體——人類的思維與認知方式,讓機器與人類各司其職、互相促進,這才是智能傳播的倫理研究的前景與趨勢。
動物的智能更多是生理性的,人類的智能除此之外還有心理性和社會性。德國有句諺語:“秩序是生命的一半。”生命的另一半就是非秩序。現代電工學有個名詞叫作“擊穿”,就是在高電壓下絕緣體會變成導體,人類也有一種邏輯擊穿能力,即在一定的情境下,把理性的邏輯思維變成感性的非邏輯直覺行為。在韋伯那里,道德被視作局限于一定時空情境中的德性;它不可能超越時空而憑借邏輯被證明為普適原則。在現代西方的法學和哲學中,普適主義vs特殊主義,法律vs德性,其實是一個最基本的分歧。
把數據變成信息的過程就是產生定向理解的過程,而把信息變成知識的過程就是更小范圍的定向理解過程,這是一個聚合過程;反之,把知識溶解為信息、把信息轉化為數據的過程,就是一個泛化聯系、彌散理解的過程。這一來一往就是一個彌散聚合過程(簡稱彌聚過程),人與外部世界交互的過程就是一個認知彌聚過程。去掉數據的物理性是一個瞬間的極其復雜的過程,其意義不亞于石頭變猴的過程:把一個死沉沉的物體轉為一個活生生的生物,把無價物化為有價物,把有限變為無限,把無味道生成有意義,翻天覆地、萬象更新、一元復始,不可謂不巨大!這也是人類主觀形成的過程,即:人可以發現未來的動向并利用過去影響它現在的進程。猶如去掉人身上的動物性一般,不是簡單的刺激—反應,而是刺激—選擇—反應,中間的那個選擇就是主觀產生的源頭,智能也許就是人性—非動物性。有些動物身上也有人性。
感/知的不是該物的自然屬性之和,而是展現著該物時間性、歷史性的“意義”。“界限”是讓交互更有秩序,于是規則、概率、知識、信息、數據、規范、法律、道德都是這種“界限”的秩序表達。例如,“張三把李四打了,他進了醫院”與“張三把李四打了,他進了監獄”兩個事實,存在著人機不同的理解“界限”,某域的“態勢感知”服從于局部的“界限”,遵守了某一種“秩序”,才能進入另一個時空中的“界限”。那種建立“統一”“跨域”的理想,其實是打破局部領域的“界限”“秩序”,成為“深度態勢感知”。很多態是形不成勢的,態形成勢的過程就是智能元素成分浮現的過程。
在不久的將來,隨著科技發展以及人工智能技術的不斷完善,人們將很容易“操縱信息”,且不留痕跡,在軍事領域,信息操縱并不是什么新鮮事,但如今的不同點在于,隨著科技發展,信息操縱的規模會更強。法國《歐洲時報》2018年9月6日報道稱,法國國防部在當地時間9月4日發布一份報告,指出信息操縱將會造成極大的混亂。法國武裝力量部長弗洛朗絲·帕利表示,“整個社會和政治體制都有可能被撬動”。報告尤其提醒注意圖片、音頻和視頻編輯軟件帶來的威脅,稱這些軟件“能讓任何人講出任何話,而且不容易辨識”。報告指出,通過數碼修改視頻里的人物面部,按照修改人的意愿,讓他們講話或做事,這樣的加強版假視頻,已經達到了極高的可信度。報告還指出,修改公眾人物的言論將變得很容易,并能發送20多個修改后的版本,“跟真的混在一起,能混淆視聽”。報告預計,因為制作成本低,而且被抓住的風險也低,操縱信息的行為會越來越多。平心而論,“界限”是讓這個世界更有秩序,于是規范、法律、道德都是這種“界限”的秩序表達。“自我”有必要服從于這一個“界限”,即遵守了某一種“秩序”,才能進入另一個時空中的“界限”。
在哈耶克的浩繁著述中,也許“自發秩序”四個字最為重要。重要何在?自發秩序是社會秩序的主要源泉,也就是說社會秩序是自發產生的,而不是人為創造的。想象一下遠古時期,沒有國家,也沒有今天這么復雜的社會秩序,質樸的人們只根據對自己是否有利來決定行為,他們在長期的互動和磨合中形成了習俗和慣例,如家庭之禮或鄉規民約,這就是最初的社會秩序。習俗和慣例的特點是,它們是蕓蕓眾生創立的。當然此“創立”非彼創立。哈耶克曾劃分“人之行動”和“人之設計”。幾乎所有習俗或慣例都不是人們有目的地創立的,卻是他們“非目的行動”的結果。所謂“人為”不是指人的行動,而是指人的設計。人的非目的的行動也是自然的。海德格爾有句名言,叫“不是我說話,而是話讓我說”。這里的“話”,不應從普通語言學意義上來理解,它不是語言學的形式規則,也非語言學的意義,而是有內容(什么)的“話”。智能傳播的法律一定要順應自然制定,才能更好地保障整個社會秩序和自由的秩序。
(本文系國家社科基金重大項目“智能革命與人類深度科技化前景的哲學研究”的階段性成果,項目批準號:17ZDA028)
M. Anderson, S. Anderson , C. Armen, 2005, "Towards Machine Ethics: Implementing Two Action-Based Ethical Theories", In M. Anderson, S. Anderson, ?C. Armen(Eds.), Machine Ethics: AAAI Fall Symposium, Technical Report FS-05-06, Menlo Park, CA: AAAI Press, pp. 1-7.
Collobert R, Weston J, Bottou L, et al., 2011, "Natural language processing (almost) from scratch", Journal of Machine Learning Research, 12(Aug), pp. 2493-2537.
Helmstaedter M, Briggman K L, Turaga S C, et al., 2013, ?"Connectomic reconstruction of the inner plexiform layer in the mouse retina", Nature, 500(7461) , p. 168.
Hinton G, Deng L, Yu D, et al., 2012, ?"Deep neural networks for acoustic modeling in speech recognition: The shared views of four research groups", ?IEEE Signal processing magazine, 29(6), pp. 82-97.
LeCun Y, Bengio Y, Hinton G, 2015, "Deep learning", Nature, 521(7553), p. 436.
Krizhevsky A, Sutskever I, Hinton G E, 2012, ?"Imagenet classification with deep convolutional neural networks", Advances in neural information processing systems, pp. 1097-1105.
Sutskever I, Vinyals O, Le Q V, 2014, "Sequence to sequence learning with neural networks", Advances in neural information processing systems, pp. 3104-3112.
Pearl J, Mackenzie D, 2018, "The Book of Why: The New Science of Cause and Effect" , BasicBooks, 36(6405), p. 855.
Stone P, Brooks R, Brynjolfsson E, et al., 2016, "Artificial intelligence and life in 2030", One Hundred Year Study on Artificial Intelligence: Report of the 2015-2016 Study Panel.
Silver D, Huang A, Maddison C J, et al., 2016, "Mastering the game of Go with deep neural networks and tree search", ?Nature, 529 (7587), p. 484.
Tegmark M, 2017, "Life 3.0: Being human in the age of artificial intelligence", ?Knopf, ?548(7669), pp. 520-521.
Wu Z, Zhou Y, Shi Z, et al. Cyborg, 2016, "intelligence: Recent progress and future directions", ?IEEE Intelligent Systems, 31(6), pp. 44-50.
Wang Y, Lu M, Wu Z, et al., 2015, "Visual cue-guided rat cyborg for automatic navigation [research frontier", IEEE Computational Intelligence Magazine, 10(2), pp. 42-52.
劉偉、厙興國、王飛,2017,《關于人機融合智能中深度態勢感知問題的思考》,《山東科技大學學報(社會科學版)》,第19卷第6期,第10~17頁。
劉偉,2018,《智能與人機融合智能》,《指控信息系統與技術》,第9期,第1~7頁。
王紹源、崔文芊,2013,《國外機器人倫理學的興起及其問題域分析》,《未來與發展》,第6期,第48~52頁。
遲萌,2009,《機器人技術的倫理邊界》,《機器人技術與應用》,第3期。
江曉原,2004,《人權:機器人能夠獲得嗎?——從〈機械公敵〉想到的問題》,《中華讀書報》,12月1日。
唐昊沫、舒心,2007,《人工智能與法律問題初探》,《哈爾濱學院學報》,第1期。
畢彥華,2010,《何謂倫理學》,北京:中央編譯出版社。
吳朝暉、鄭能干,2012,《混合智能:人工智能的新方向》,《中國計算機學會通訊》,第8期,第59~64頁。
[美]維納,2010,《人有人的用處:控制論與社會》,陳步譯,北京大學出版社。
[美]哈里·亨德森,2011,《人工智能——大腦的鏡子》,侯然譯,上海科學技術文獻出版社。
責 編/周于琬