事物的行為很容易被分析——鈴響,狗流口水。不過思想、記憶和情感,長期以來都在科學的分析范疇之外。所以行為學家一直把他們的工作限定于“刺激-反應”的領域,大腦就像個不能被套索的黑盒子。
不過在1950年代中期,一批心理學家、語言學家、信息理論專家以及早期的人工智能研究者聚集起來,對于“思想”有了新的認識。他們認為,人類并不是一系列特定環境下自主反應的集合。人類會吸收信息,并且處理信息,再在這個基礎上決定自己的行為。人類有一整套的系統來操縱寫作、講故事以及進行回憶。人是一個邏輯整體,大腦不是個黑盒子,“大腦很像電腦”。
其實人類試圖有序地認識世界,這也不是第一次了。早在文藝復興的時候,牛頓等科學家就號召人們把世界看成一個鐘擺,工業時代弗洛伊德借用熱力學的理論創造了心理動力學。現在喻體則輪到電腦了。
如果人腦就是電腦的話,那么它就是可編程的。人工智能在今年以一個充滿戲劇性的事件占據了人類的視野——4月份谷歌的人工智能項目AlphaGo擊敗了韓國圍棋選手李世石九段,它的運行模式讓我們不得不想起人腦與電腦的那個比喻。在從前,人工智能的研究者們總是試圖用“正確”的邏輯去寫人工智能軟件,試圖讓人工智能軟件遵循“正確”的邏輯。后來他們意識到錯了,大腦并不總是正確,但大腦會學習。
這導致了人工智能技術的一大步,也給我們帶來了震撼和恐懼。遵循這種模式制造出來的學習機器表現出了驚人的才華和不確定性——人類選手無法判斷AlphaGo的下一步了。當“代碼”本身會超出人類的分析,世界會變得怎樣?
目前我們還有理由相信,人工智能技術并沒有到“天網”的地步,但是它給我們帶來的一些文化上的后果已經開始顯現。谷歌現在正在歐洲遭受一場不信任調查,有關方面指責谷歌可能不當地使用了它的科研成果。如果谷歌的科學家們都講不清自己的算法會導致怎樣一個確定的結果,那它怎么能取得調查者的信任呢?
當我們的技術和學術成果變得越來越復雜,那我們與它們的關系就會不同,我們對自己創造物的控制力越來越弱。學習機器的出現或許宣告了啟蒙時代的終結——過去幾個世紀里我們一直對邏輯、決定論及控制自然抱有信仰,學習機器的出現恐怕將顛覆這一切。一位技術專家寫道:“我們不再是我們造物的主人,我們開始學習與我們的造物討價還價,哄騙、引導它們去服務于我們的目標。人類制造了一片叢林,自己身在其中。”
去年夏天谷歌因它的圖像識別系統把黑人標簽為“大猩猩”而道歉,但這個人工智能的問題不易解決,所以谷歌只好用了一種最粗暴的辦法——禁止圖像識別系統把所有圖片標簽為“大猩猩”。