John McDowall

人工智能(AI)是近幾十年來才出現的新事物。從Stanley Kubrick導演的《2001:太空漫游》對人工智能胡作非為發出的警告到幫助《星際迷航》中的柯克船長“大膽地走到沒有人去過的地方”的計算機助手,20世紀60年代人們充滿了對人工智能增強未來的憧憬。然而過了半個世紀,這些科幻電影中的情況仍然沒有實現。盡管這些年來人工智能進展緩慢,但是可以確認的是,目前我們正處于實現具有實用性人工智能的風口。如今似乎所有包含有軟件的產品都在宣傳自己利用了人工智能的力量。雖然人工智能正在被炒作,但是我們必須對現實有著清醒的認識。
目前我們正處于人工智能的另一波浪潮之中。近來,得益于處理能力的最新發展成就,人工智能在某些領域已經由宣傳變為了現實。現成的廉價圖形處理單元已經使得卷積神經網絡(CNN)在圖像識別等某些方面具有了商業實用性。這使得人工智能再一次受到了公眾的關注,未來生活將被徹底顛覆,數以百萬計的工作崗位將被智能機器所取代。盡管市場上幾乎所有包含軟件的產品都被廣告宣傳為“由人工智能驅動”,但是在我將技術未來押注在人工智能的嶄新世界之前,對某些事實保持清醒的眼光是明智的。
實用性的人工智能長期以來一直是“下一件大事”。它們能夠幫助我們擺脫許多日常瑣事,同時幫助我們實現難以想象的科學和工程壯舉。讓許多人不安的是人工智能或將取代廣大的勞動力,導致數百萬人的工作被人工智能驅動的機器接管。有人甚至推斷人工智能會認為人類是低效且多余的,從而引發終極戰爭,例如《終結者》電影中所設想的那樣。
這些想像中的情景在很長一段時間內都是不可能實現的。大約20年前,一位同事提出了一個觀點,即人工智能的縮寫AI代表的意思是“ Ai nt Invented”(不能發明創造)。他當時是正確的,如今他的觀點可能同樣正確。盡管目前人工智能的實際應用正在日趨成熟,但是這些應用程序均受到了很大的限制,這使得通用意圖的人工智能仍像以往那樣遙不可及。
我們中的大多數人在聽到“人工智能”一詞時,往往想到的是科幻小說中的人工智能,它們可以響應模棱兩可的語音命令并執行復雜的計算和邏輯。這些令人印象深刻的機器可能會得出這樣的結論——由于我們有限的記憶力和較慢的推理能力,所以我們無法實現自我。目前人工智能的定義并不是一個穩定且精確的定義,原因很簡單,我們很難定義“智能”。
在這里我們需要拋開智商(IQ)測驗等所謂的智力測驗和大學入學考試等學業成績測驗。我們中的大多數人都會發現許多我們認為非常聰明的人,由于各種原因在這些測試中可能得不了高分。我們認為智能是一種綜合能力,即能夠存儲和回憶基本事實,能夠關聯和推理這些事實,以及能夠將創造性的解決方案應用于的新情況。
雖然這一定義存在局限性和不精確性,但是這就是目前我們對于“人類思維”功能的認知。實際上,人類思維遠遠超出了我們自己的理解,以至于我們甚至無法對“思考”的含義達成共識。盡管如此,這種對智能的定義能夠滿足我們隨后對人工智能功能的討論。
為了準確掌握我們距離真正了解智能有多遠,我建議閱讀一下Douglas Hofstadter的著作《哥德爾、艾舍爾、巴赫:集異璧之大成》(G?del, Escher, Bach: An Eternal Golden Braid)。這本書寫于40年前,它在最基礎的層面上對“思考”的含義進行了探究,并深入研究了簡單的數學概念與我們在日常生活中使用算術時如何思考之間存在的令人難以置信的抽象層。我認為這是一本很有啟發性的讀物,它使我確信通用人工智能比我以前想象的要復雜得多。想像一下:對計算機編程并讓它們正確地執行數學計算,我們必須以驚人的準確度理解這些計算的各個方面。如果我們根本不了解什么是智能,那么我們又怎么可能通過計算機編程的方式實現真正的智能呢?
我們不能將計算機編程視為真正的智能,但是我們可以通過對計算機進行編程實現有限的智能,特別是在專業領域當中。IBM的Watson可能是這種機器中一個最著名的例子,但是即便是Watson,它們也存在一些明顯的局限性。更何況大多數企業也沒有安裝Watson規模的人工智能項目所需的資源。
盡管如此,但是在我們可用的有限的技術范圍之內,還有另一種途徑可以實現人工智能的某些優勢。第一步是改善數據建模,這是最基礎的。正如我在較早的文章中所說的那樣,以本體論的形式定義數據模型始終是一個好辦法,因為它們可以幫助我們定義數據的語法和語義。不過,基本的人工智能功能的形式也具有其他好處。
使用Web本體語言(OWL)建模的數據可以以支持機器推理的格式進行記錄,這是一種簡單但功能強大的基本人工智能。因為OWL是建立在被稱之為“描述邏輯”的推理分支之上,所以適合許多基于邏輯的推理過程,這些過程既強大又可解釋。隨著在醫療和軍事行動等應用中開始部署基于人工智能的應用程序,能否有能力解釋人工智能過程是如何得出這些結論正變得越來越重要。在基于人工智能輔助建議做出任何重要決定之前,用戶也希望了解人工智能是如何得出這些結論的。這使得人們越來越希望獲得“可解釋的人工智能”。
卷積神經網絡(CNN)可以執行令人印象深刻的圖像識別功能,但是我們很難準確地跟蹤它們是如何做出決定的。其有許多分類和比較層,最終結果準確且具有一致性。但是這并不意味著我們可以真正解釋CNN是如何得出這些結論的。
相反,當數據模型使用OWL或其他形式邏輯(例如Common Logic)進行形式化時,我們可以編寫推理規則并將形式邏輯規則應用于它們。例如一個簡單的示例:我們創建一個簡單的數據模型,其中包含一個類“Person(某人)”,具有兩個屬性“name(姓名)”和“sex(性別)”。我們在Person類的實例之間可以建立兩種關系:“has_parent(父母)”和 “has_sibling(兄弟姐妹)”。通過這個簡單的模型,我們可以存儲諸如PersonA has_sibling PersonB和PersonB has_Parent PersonC(某甲有兄弟姐妹某乙和某乙有父母某丙)之類的數據。
一個簡單的規則,例如“if person1 has_sibling person2 and person2 sex=Female, then person1 has_sister person2(如果某甲有兄弟姐妹某乙且某乙為女性,則某甲有姐妹某乙)”,我們就可以推斷出數據庫中每個人的新關系(注意,原始數據模型不包括姐妹的概念)。我們可以使用類似的規則來推斷關系,例如祖父母、兄弟、表弟等。由于這都是建立在形式邏輯上的,因此其結果是完全可以解釋的。實際上,結果不僅僅可解釋,而且也是正確的。
目前我們已經可以使用現成的推理機(商業和開源)進行這種推斷。例如Protégé等本體編輯工具可以使用HermiT和Pellet之類的多種推理引擎。許多數據庫和分析產品也都支持這種基于邏輯的推理,經過正確配置之后,其性能可與其他的數據庫技術相媲美。
基于邏輯的推理無法為我們提供一個可以討論黑格爾哲學的精髓或編寫鋼琴奏鳴曲的人工智能系統,但是它們可以為我們提供可以執行許多常規數據處理任務的人工智能系統。更重要的是,我們擁有一個工作原理可以向懷疑者進行解釋的人工智能系統。
本文作者John McDowall現為企業架構師和系統工程師,曾是美國海軍陸戰隊的飛行教官,也曾擔任過某個全球信息分析系統的首席企業架構師。
原文網址
https://www.cio.com/article/3442727/an-achievable-view-of-artificial-intelligence.html