在英國《星期日泰晤士報(bào)》上發(fā)表節(jié)選并于10月16日出版的《重大問題簡答》一書中,霍金毫不留情地評(píng)論了諸如地球面臨的最嚴(yán)重威脅、機(jī)器占領(lǐng)主導(dǎo)地位以及外太空可能存在智慧生命等問題。
人工智能
霍金對(duì)規(guī)范管理人工智能的重要性提出了嚴(yán)重警告。指出“未來人工智能可能形成自己的意志。與我們?nèi)祟愊鄾_突的意志”。他在書中寫道,應(yīng)當(dāng)制止可能出現(xiàn)的自動(dòng)武器軍備競賽,提出如果發(fā)生類似于2010年股市閃電崩盤那樣的武器崩盤,其后果將會(huì)如何的疑問。
他接著寫道:“人工智能的真正危險(xiǎn)并非在于惡意,而在于能力。超級(jí)智慧的人工智能將極其擅長實(shí)現(xiàn)目標(biāo)。如果這些目標(biāo)與我們不一致,那我們就麻煩了。你可能不是出于惡意而踩死螞蟻的那種邪惡的仇恨螞蟻的人,但是如果你負(fù)責(zé)一項(xiàng)水力環(huán)保能源項(xiàng)目,而洪水淹沒地區(qū)有一個(gè)蟻丘,那么螞蟻就慘了。我們別讓人類陷入螞蟻的境況。”
基因編輯和超人
壞消息:未來1000年的某個(gè)時(shí)刻,核戰(zhàn)爭或環(huán)境災(zāi)難將“嚴(yán)重破壞地球”。可是,到那時(shí)。“我們的天才種族將已經(jīng)發(fā)現(xiàn)了擺脫地球粗暴束縛的辦法,因此能夠戰(zhàn)勝災(zāi)難”。不過,地球上的其他物種可能做不到。
成功逃離地球的人很可能是新的“超人”,他們利用諸如“規(guī)律成簇間隔短回文重復(fù)系統(tǒng)(CRISPR)”這樣的基因編輯技術(shù)超過其他人。霍金說他們會(huì)不顧禁止基因工程的法律約束,提高自己的記憶力、疾病抵抗力和預(yù)期壽命。
霍金似乎對(duì)最后一點(diǎn)尤為感興趣。他寫道:“已經(jīng)沒有時(shí)間留給達(dá)爾文的進(jìn)化論來提高我們的智力、改善我們的天性了。”
“一旦出現(xiàn)這種超人,未經(jīng)基因改造而提高能力的人必將遇到重大政治問題。他們無力競爭。也許他們會(huì)絕種,或變得可有可無。不過,將出現(xiàn)一種不斷加速改進(jìn)的自我設(shè)計(jì)人類。如果這種人類種族設(shè)法重新設(shè)計(jì)自己,它很可能擴(kuò)散開來,殖民其他行星和星球。”