方宇寧/編譯
科學(xué)家談人工智能
方宇寧/編譯

英國BAE系統(tǒng)公司開發(fā)的自動化程度極高的無人機“塔拉尼斯”,但仍然需要人類來為它制定作戰(zhàn)決策
●對未來機器人可能存在的風(fēng)險和擔(dān)憂,四位機器人學(xué)領(lǐng)域的專家談及了他們的觀點和解決之道。他們分別是伯克利加州大學(xué)計算機科學(xué)教授斯圖爾特·拉塞爾(Stuart Russell),英國布里斯托爾大學(xué)機器人學(xué)講師薩賓·赫爾特(Sabine Hauert),斯坦福大學(xué)生物醫(yī)學(xué)和計算機科學(xué)教授拉斯·奧爾特曼(Russ Altman)和卡內(nèi)基-梅隆大學(xué)計算機科學(xué)教授曼努拉·維羅索(Manuela Veloso)。
人工智能(AI)和機器人領(lǐng)域面臨一個重要的倫理抉擇:對于致命性自主式武器系統(tǒng)(LAWS),我們應(yīng)該持支持還是反對態(tài)度?
要不了幾十年,或在未來幾年里,人工智能和機器人技術(shù)的發(fā)展,將導(dǎo)致LAWS在技術(shù)上的完全可行性——自主式武器系統(tǒng)被稱為自火藥和核武器發(fā)明以來的第三次戰(zhàn)爭革命。

斯圖爾特·拉塞爾
自動化武器系統(tǒng)在搜索和瞄準(zhǔn)目標(biāo)時無需人工干預(yù),當(dāng)針對的目標(biāo)包括人類在內(nèi)時,其殺傷力是致命的。例如,配備了多軸飛行器的LAWS可以自行尋找并攻擊敵方戰(zhàn)斗人員。但巡航導(dǎo)彈和無人機除外,這類武器還是要由人類來操控的。
現(xiàn)有的人工智能和機器人組件還可以為諸多功能提供物理平臺,如感知、運動控制、導(dǎo)航、測繪、戰(zhàn)術(shù)決策和規(guī)劃等,LAWS只是集合了這些功能。例如,自動駕駛汽車技術(shù)就是一個很好的證明,包括用于執(zhí)行城市搜索任務(wù)的模擬人類戰(zhàn)術(shù)控制的DeepMind DQN學(xué)習(xí)系統(tǒng)。
美國國防部高級研究計劃局(DARPA)的兩個LAWS項目已在計劃之中。這兩個項目分別為“快速輕型自動化系統(tǒng)”(FLA)和“孤立環(huán)境下的聯(lián)合作戰(zhàn)系統(tǒng)”(CODE)。前者對微型旋翼飛行器編程后,可在城市環(huán)境或建筑物內(nèi)部執(zhí)行高速無人飛行任務(wù);后者是正在開發(fā)的一種空中無人飛行器,可在敵人的信號干擾或人工通信無法正常進行的情況下,完成包括搜索、鎖定、跟蹤、攻擊、評估反饋等一系列任務(wù)。其他國家可能也在進行一些相類似目標(biāo)的秘密計劃。
而“國際人道主義法”——控制人類戰(zhàn)爭時期攻擊行為的國際法——并沒有對此類技術(shù)有任何具體規(guī)定(可能仍然是適用的)。根據(jù)1949年簽訂的日內(nèi)瓦公約規(guī)定,戰(zhàn)爭中任何的人類攻擊性行為必須要滿足以下3個條件:軍事上的必需性;戰(zhàn)斗人員與非戰(zhàn)斗人員的差別對待;軍事目標(biāo)與潛在附帶傷害之間價值的平衡。1977年補充的馬爾頓斯條款,其相關(guān)規(guī)定禁止使用“違反人性和公共良知原則”的武器,一些主觀判斷是當(dāng)前自主式武器很難或無法做出的。
根據(jù)日內(nèi)瓦《特定常規(guī)武器公約》的精神,聯(lián)合國舉行了一系列關(guān)于LAWS的會議,未來幾年內(nèi),可能導(dǎo)致產(chǎn)生一項限制或禁止自主式武器的國際條約,如1995年禁止激光致盲武器的使用,否則LAWS的發(fā)展有可能因失控而導(dǎo)致軍備競賽的不可避免。
在4月份舉行的《特定常規(guī)武器公約》第三次會議上,我被邀向?qū)<姨峁┳C詞,并傾聽了一些國家和非政府組織的發(fā)言,德國稱將“生與死的決定完全由自主系統(tǒng)決定”是完全無法接受的,日本稱“沒有開發(fā)將人類排除在外機器人的打算,完全自主的機器人有可能犯下謀殺罪行。”而美國、英國和以色列認(rèn)為沒有必要制定這樣一個條約,因為他們現(xiàn)有的內(nèi)部武器審核流程,足以確保不會違反相關(guān)的國際法。
但幾乎所有加入《特定常規(guī)武器公約》的國家都提出了對機器人武器鎖定和攻擊目標(biāo)的決策進行“有意義人工控制”的必要性。遺憾的是,“有意義”的定義仍有待確定。
爭議包括多個方面。一些人認(rèn)為,自主武器擁有效率和選擇性方面的優(yōu)勢,通過自動選擇只針對戰(zhàn)斗人員,可最大限度減少平民傷亡。其他一些人堅持認(rèn)為,LAWS會降低開戰(zhàn)門檻,在沒有直接面臨危險的情況下發(fā)起攻擊。另外,LAWS如果掌握在恐怖分子和其他非政府武裝分子手里,可能會對平民造成災(zāi)難性的傷亡。
LAWS通過讓機器來選擇攻擊和殺滅的對象,有可能違反保持人類尊嚴(yán)的基本原則,例如,它們有可能被指派執(zhí)行這樣的任務(wù):消滅有“威脅行為”的任何人。
按照LAWS技術(shù)的發(fā)展軌跡,其最終有可能超出人類控制,凌駕于人類之上。這可能是人們最大的擔(dān)心。自主式武器的能力,更多受適用范圍、速度、載荷等物理定律的限制,而非受人工智能缺陷的限制。例如,隨著飛行機器人體積變得更小,其機動能力的增強具備攜帶致命有效載荷的能力,也許攜帶填裝有1克炸藥的錐形物就能夠刺穿人的頭蓋骨。盡管有限制,自主式武器的靈活性和殺傷力仍然會將人類置于死地,這樣的未來不是我們想要的。
因此,從事人工智能和機器人領(lǐng)域的科學(xué)家有責(zé)任表明立場,正如當(dāng)年物理學(xué)家對于核武器,或生物學(xué)家對于在戰(zhàn)爭中使用病原體表明立場一樣。應(yīng)當(dāng)召開專門的學(xué)術(shù)會議進行討論,倫理委員會也應(yīng)對此展開討論,并在一些專業(yè)出版物上發(fā)表表明立場的論文。如果什么都不做,就等于表示支持LAWS的繼續(xù)開發(fā)和使用。
——斯圖爾特·拉塞爾,伯克利加州大學(xué)計算機科學(xué)教授。

薩賓·赫爾特
媒體的一些炒作性的新聞標(biāo)題,激起了公眾對機器人和人工智能的過度恐懼或過度期盼兩種極端反應(yīng),而一些研究人員則完全中止與媒體和公眾在這方面的溝通。
這些問題是我們無法規(guī)避的。廣大公眾,包括決策者、投資者和直接受益于機器人領(lǐng)域發(fā)展的利益相關(guān)者,他們聽到的大多是片面的討論,或者擔(dān)心機器人會搶了他們的飯碗而失去工作,或者擔(dān)心人工智能有可能帶來潛在的威脅,考慮是否應(yīng)該通過制定法律來“掌控”這些目前仍處于假設(shè)中的技術(shù)。
我和我的同事努力利用一些場合向人們解釋,我們不是在做什么邪惡的事情,我們多年來致力于開發(fā)的自動化系統(tǒng),可以更好地幫助老年人,改善公共衛(wèi)生保健現(xiàn)狀,讓人們的工作環(huán)境變得更加安全、更有效率,還能夠促進人類對太空和海洋的探索。
從事這一領(lǐng)域研究的科學(xué)家有責(zé)任成為一名信息傳播者,應(yīng)該充分利用媒體這一公共平臺引導(dǎo)展開相關(guān)討論,我們可以探討機器人學(xué)和人工智能的最新進展以及限制因素,描繪人工智能發(fā)展的圖景,揭開人工智能技術(shù)的神秘面紗。我曾經(jīng)有過通過社交媒體“眾包”設(shè)計治療癌癥的納米機器人的經(jīng)歷,我的第一個博士生就是通過其納米藥物博客發(fā)現(xiàn)的。
人工智能和機器人領(lǐng)域需要有與著名評論家溝通的思想領(lǐng)袖——如物理學(xué)家斯蒂芬·霍金(Stephen Hawking)和企業(yè)家兼發(fā)明家埃隆·馬斯克(Elon Musk)——參與到諸如瑞士達沃斯等世界經(jīng)濟論壇。另外,公眾的參與也有助于資金的籌集,如麻省理工學(xué)院(MIT)的辛迪·布雷西亞(Cynthia Breazeal)在開發(fā)家用機器人JIBO時眾包集資,募集到了220多萬美元資金。
當(dāng)然,這種交流也存在不少障礙,包括許多研究人員沒有推特和博客,以及時間限制等。盡管如此,開展機器人和人工智能方面的培訓(xùn)、支持和鼓勵是必不可少的——由我合作創(chuàng)辦和主持的Robohub.org網(wǎng)站可以提供上述幫助。Robohub建立于2012年,是一個致力于機器人社區(qū)與公眾溝通的平臺,提供諸如機器人和人工智方面的速成課程。我們邀請專業(yè)的科學(xué)傳播者協(xié)助相關(guān)研究人員推介后者的研究工作,將他們的發(fā)言壓縮在5分鐘之內(nèi),同時把現(xiàn)場拍攝內(nèi)容上傳到Y(jié)ouTube。
迄今,我們已經(jīng)建立了一個匯集大量博客和微博的門戶網(wǎng)站,旨在讓更多的機器人和人工智能愛好者接觸到相關(guān)信息和知識。通過這類社交媒體,使研究人員擁有一個能夠展開平等和諧討論的公共平臺。
科學(xué)傳播的好處可以列出許多,但這種激勵必須是來自于資助機構(gòu)或研究機構(gòu)。麻省理工學(xué)院機器人研究員羅德尼·布魯克斯(Rodney Brooks)1986年提出的“包容式體系結(jié)構(gòu)”,是一種可以對環(huán)境做出反應(yīng)的仿生機器人程序。在之后的近30年時間里,他的文章被引用了近10 000次。包括由布魯克斯創(chuàng)辦的再思考機器人公司開發(fā)的一段機器人視頻,在一個月時間里就產(chǎn)生了60 000多條評論。這對如今的公共論壇在體現(xiàn)研究成果的影響力方面有助益。
政府、研究開發(fā)機構(gòu)和行業(yè)協(xié)會都?xì)g迎這類互動,但是每個具體開發(fā)項目與公眾的溝通卻是極少,公眾也很少能接觸到。以我看來,全球的人工智能和機器人技術(shù)利益相關(guān)者,應(yīng)該拿出預(yù)算中的一小部分(比如0.1%)用于與公眾的互動,讓更多的人對該領(lǐng)域的發(fā)展有更多的了解。目前很少有促進公共領(lǐng)域內(nèi)機器人學(xué)和人工智能知識普及的努力,這種平衡是急需的。
一個致力于機器人社區(qū)與公眾互動的平臺,將吸引公眾介入與他們有切身關(guān)系的新一代機器人的討論。同時,我們要防止媒體炒作帶來的對機器人技術(shù)和人工智能等相關(guān)政策的誤解,這一點是至關(guān)重要的。
——薩賓·赫爾特,英國布里斯托爾大學(xué)機器人學(xué)講師。

美國宇航局的Robonaut 2機器人可用于醫(yī)學(xué)、工業(yè)領(lǐng)域以及空間站的建設(shè)

拉斯·奧爾特曼
在生物醫(yī)學(xué)領(lǐng)域,人工智能不僅有助于科學(xué)新發(fā)現(xiàn),還對改變衛(wèi)生保健現(xiàn)狀具有驚人的潛力。如用于數(shù)據(jù)分析的人工智能系統(tǒng)在對基因組學(xué)、蛋白質(zhì)組學(xué)和代謝組學(xué)數(shù)據(jù),電子病歷以及監(jiān)測健康狀態(tài)的數(shù)字式傳感器數(shù)據(jù)等進行分類的基礎(chǔ)上重新進行定義。
其中,群分析可以用來定義新的疾病癥狀,將某種疾病從被認(rèn)為是相同的疾病中分離出來,或找到與其他疾病相類似的潛在缺陷,而模式識別技術(shù)能將疾病與最佳治療方法相匹配。例如,我和同事們正在進行的患者群體對調(diào)節(jié)免疫系統(tǒng)藥物反應(yīng)的識別項目。
在給病人看病時,醫(yī)生可以從虛擬群體數(shù)據(jù)中尋找與身邊病人相類似的“患者”,用以權(quán)衡診斷治療方案。通過這樣的一個系統(tǒng)互動,或結(jié)合患者診斷數(shù)據(jù)和虛擬患者群體中類似病例的數(shù)據(jù),醫(yī)生可以做出診斷和治療決定。
在具體的運作過程中,我有以下兩點擔(dān)憂。首先,人工智能技術(shù)可能會凸顯現(xiàn)有醫(yī)療體系存在的差距,而要改變這種狀況,則需要創(chuàng)建某種能夠讓所有病人受益的醫(yī)療體系。以美國為例,人們享受的是兩種不同層次的醫(yī)療護理,在這樣一個兩級醫(yī)療體系中,只有特殊群體或那些支付得起費用的人,才能從先進技術(shù)和新的醫(yī)療體系中獲益。窮人是完全與之無緣的。這既不公正也不公平。而確保人工智能技術(shù)帶來益處的公平分配原則,是政府以及技術(shù)開發(fā)者和支持者共同的責(zé)任。
其次,是醫(yī)生對高性能人工智能系統(tǒng)輸出數(shù)據(jù)的理解和解釋能力。對輸出的數(shù)據(jù)結(jié)果,如果不能知其然并知其所以然,大多數(shù)醫(yī)生是很難接受醫(yī)療決策輔助系統(tǒng)得出的某個復(fù)雜治療建議的。
遺憾的是,人工智能系統(tǒng)越先進,往往也越難于理解和解釋,如通過貝葉斯分析法直觀顯示基于概率的評估結(jié)果。因此,創(chuàng)建人工智能系統(tǒng)的研究人員需要讓醫(yī)生、護士和其他相關(guān)人員了解并合理使用這些系統(tǒng)。
——拉斯·奧爾特曼,斯坦福大學(xué)生物醫(yī)學(xué)和計算機科學(xué)教授。

曼努拉·維羅索
人類是集感知、認(rèn)知與行動為一體來認(rèn)知世界的,即人類是通過身體這一天然傳感器來評估周圍世界的狀態(tài):首先用大腦思考,然后制定行動計劃,最后通過四肢來實現(xiàn)目標(biāo)。我的研究團隊正在嘗試構(gòu)建能與人類做同樣事情的自主機器人,這樣的機器人由人工傳感器(包括攝像頭、麥克風(fēng)和掃描器等)、算法和執(zhí)行控制機構(gòu)組成。
但是,在能力上自主機器人與人類有著很大的不同。機器人也許可以有知覺能力、認(rèn)知能力和有限的行為能力,但它們可能無法完全理解某個場景,不能完全識別或操縱所有的物體,也不能理解所有的口頭或書面語言,或順利通過復(fù)雜地形。我認(rèn)為,機器人應(yīng)該成為人類的助手,而不是取代人類。
為更多地了解機器人和人類是如何協(xié)同工作的,在過去3年里,我們與自己研制出來的四個輔助機器人CoBots一起共享實驗室和工作間。這幾個機器人有點像機械講臺,它們有避開障礙物的輪子,可以向不同方向移動;有深度視覺的相機和激光雷達系統(tǒng);有處理信息的計算機系統(tǒng)和人機交流屏幕;還有可攜帶物件的籃筐。
早前,我們就意識到現(xiàn)實世界環(huán)境對機器人的挑戰(zhàn),CoBots不可能識別出遇到的所有物體,沒有用來開門、拿東西的手和手臂,雖然它們可以通過語音與人類交流,但可能并不能真正識別或理解話的意思。
為此,我們引入了“共生自主”的概念,讓機器人能夠從人類或互聯(lián)網(wǎng)上尋求幫助?,F(xiàn)今,在我們的實驗室大樓里,CoBots機器人與人類互相幫助,克服了彼此的局限:CoBots可陪同來訪者參觀大樓,或在兩地之間搬運物體,并在這個過程中收集有用的信息。例如,生成精確的空間圖,顯示溫度、濕度、噪音和光線水平,或WiFi信號的強度等。我們需要做的就是幫助機器人開門,按下電梯按鈕和拿取物體等。
但是,機器人與人類的安全共生共存仍需克服一些障礙。我的團隊正在研究如何通過語言和動作使得機器人與人類更容易交流,以及在物體識別、任務(wù)執(zhí)行和目標(biāo)達成的過程中,機器人與人類如何更好配合等問題。
我們還在研究如何改善機器人的外觀來強化與外界的互動,特別是通過指示燈的顯示來更多揭示機器人的內(nèi)在狀態(tài)。例如,指示燈為黃色,表示機器人正在忙碌;指示燈為綠色,表示機器人處于空閑狀態(tài)中。
盡管未來的路還很長,但我相信,如果人類與機器人能夠互助與互補,那么人工智能與機器人將會有一個光明的未來。
——曼努拉·維羅索,卡內(nèi)基-梅隆大學(xué)計算機科學(xué)教授。
[資料來源:Nature][責(zé)任編輯:則鳴]