王美麗
摘要:近年來(lái),隨著人工智能技術(shù)的不斷發(fā)展,人們開始重視人工智能的安全問(wèn)題。眾所周知,人工智能在許多方面要優(yōu)于人類,而且隨著技術(shù)不斷發(fā)展,有望超過(guò)人類智能,如果人工智能失去控制,必然會(huì)帶來(lái)嚴(yán)重的安全問(wèn)題。本文主要研究人工智能安全性問(wèn)題以及如何控制好人工智能的發(fā)展,使其有利于人類社會(huì),避免給人類帶來(lái)危害。
關(guān)鍵詞:人工智能;安全問(wèn)題;解決思路
一、研究人工智能安全問(wèn)題的必要性
(一)存在人工智能超越人類智能的可能性
機(jī)器是人類研究出來(lái),可以說(shuō)人類有著較高的智能水平,遠(yuǎn)高于其他生物,所以才能為地球的統(tǒng)治者。近年來(lái),人工智能技術(shù)不斷的發(fā)展,雖然人工智能是人類依靠程序設(shè)計(jì)出來(lái),但是依靠其運(yùn)行,可以在某些領(lǐng)域超出人類的表現(xiàn)。例如,人工智能阿爾法狗在圍棋戰(zhàn)中,取得勝利,見下圖。因此,人工智能逐步超越人類智能是可能的。有學(xué)者從未來(lái)學(xué)和哲學(xué)的角度,分析人工智能,人為人工智能是人類發(fā)展出來(lái),而且有望超越人類。科技發(fā)展史證明了,科學(xué)家的許多寓言終將成為現(xiàn)實(shí),從人工智能的發(fā)展來(lái)看,人們十分重視人工智能,在未來(lái)時(shí)期內(nèi),必將迎來(lái)新一輪的高速發(fā)展。因此,可以看出,人工智能發(fā)展速度較快,在不久的將來(lái)必然會(huì)超越人類智能。
人工智能同圍棋大師進(jìn)行圍棋比賽圖
(二)人工智能存在危害性而且后果嚴(yán)重
人工智能的發(fā)展,讓人們憂心忡忡,主要表現(xiàn)在,人工智能的出現(xiàn),許多崗位利用機(jī)器取代人工操作,人類面臨下崗的可能,另一方面,人工智能超越人類智能,擺脫人類控制。較為客觀的態(tài)度是,人工智能在短時(shí)間內(nèi)不會(huì)超越人類智能。松尾豐,日本人工智能專家,提出“人工智能徹底征服人來(lái),在現(xiàn)階段是不會(huì)產(chǎn)生的,只是人們的主觀臆想,因此,沒(méi)有必要對(duì)人工智能的未來(lái)充滿憂慮”。雖然人工智能還未全面超越人類智能,但是不受控制的人工智能同樣存在較大的危害,互聯(lián)網(wǎng)絡(luò)的發(fā)展,依靠網(wǎng)絡(luò)實(shí)現(xiàn)對(duì)人工智能的控制,同時(shí)也增加了人工智能的安全問(wèn)題。例如,互聯(lián)網(wǎng)容易受到病毒和黑客的入侵,這對(duì)人工智能類產(chǎn)品有著巨大的安全隱患,如果控制不好,會(huì)帶來(lái)巨大的災(zāi)難。例如,黑客利用互聯(lián)網(wǎng),侵入了人工智能機(jī)器人的系統(tǒng),就等于控制了智能機(jī)器人,可能由于人為原因,帶來(lái)不可估量的后果。以當(dāng)前流行的“無(wú)人駕駛汽車”為例,無(wú)人駕駛汽車是正在興起的一項(xiàng)人工智能技術(shù),已經(jīng)在深圳市試運(yùn)行,如果無(wú)人駕駛汽車人工智能系統(tǒng),遭到非法分子侵入,必然會(huì)導(dǎo)致車輛內(nèi)的人群被挾持,存在較大安全隱患。
二、解決人工智能安全問(wèn)題的思路
(一)人工智能的倫理設(shè)計(jì)
倫理設(shè)計(jì)是解決人工智能存在安全隱患的基本思路。關(guān)于機(jī)器人的倫理問(wèn)題,由于涉及到人權(quán),受到許多西方學(xué)者的高度關(guān)注。所謂倫理設(shè)計(jì),是指在機(jī)器人同人類互動(dòng)中,為機(jī)器人設(shè)定道德判斷能力和行為判斷能力,讓機(jī)器人在人們預(yù)先設(shè)定的道德范疇內(nèi)行動(dòng)。依靠倫理設(shè)計(jì),機(jī)器人擁有較高的道德素質(zhì),成為只會(huì)做好事的楷模,可以避免機(jī)器人出現(xiàn)危害人類的行為。美國(guó)學(xué)者艾倫和瓦拉赫提出,人工智能在未來(lái)會(huì)離開人類監(jiān)管,可以自主進(jìn)行決定,只有采用倫理設(shè)計(jì),設(shè)計(jì)出具有道德抉擇的機(jī)器人,才能保證人工智能的安全。當(dāng)然,人工智能的倫理設(shè)計(jì),大多還處在理論階段,還需要不斷發(fā)展,來(lái)完善人工智能倫理設(shè)計(jì),使其成為一種可能。隨著人工智能倫理理論的研究深入,人們可以相信,擁有道德判斷和行為判斷的人工智能系統(tǒng),是安全可靠的。
(二)限定人工智能的應(yīng)用范圍
人工智能是一項(xiàng)尚未成熟,存在爭(zhēng)議和安全問(wèn)題的技術(shù),對(duì)其進(jìn)行應(yīng)用范圍的限定,是保證社會(huì)和諧的重要舉措。以克隆技術(shù)為例,克隆技術(shù)最初在羊身上克隆成功,隨后在豬、牛、狗等動(dòng)物身上相繼試驗(yàn)成功。對(duì)于是否可以進(jìn)行人類的克隆,有著巨大的爭(zhēng)議,將克隆技術(shù)應(yīng)用到人類身上,存在倫理問(wèn)題,而且克隆技術(shù)尚未成熟,需要不斷完善。有學(xué)者人為,即便某天克隆技術(shù)發(fā)展成熟,也不能將其用在人類身上,為此,部分國(guó)家設(shè)立專門的法律條款,明確規(guī)定,禁止克隆人類。因此,為了保證人工智能有著良好的安全性,需要限定人工智能的應(yīng)用范圍。當(dāng)前,人工智能主要應(yīng)用在具有明確規(guī)則的領(lǐng)域,例如,各種棋類。人工智能在圍棋比賽戰(zhàn)勝人類,說(shuō)明人工智能有著由于人類的學(xué)習(xí)能力和運(yùn)算能力,可以輕松的完成大量數(shù)據(jù)的處理。雖然人工智能學(xué)習(xí)能力較強(qiáng),但是無(wú)法做到觸類旁通,不具備將學(xué)習(xí)經(jīng)驗(yàn)應(yīng)用到多個(gè)領(lǐng)域的能力。因此,人工智能轉(zhuǎn)換能力較差,雖然屬于人工智能的缺陷,但卻是保證其安全的重要方法。人工智能應(yīng)用在單一的領(lǐng)域,例如,棋類競(jìng)賽、無(wú)人駕駛等領(lǐng)域,讓其在限定領(lǐng)域內(nèi)發(fā)揮其優(yōu)勢(shì),避免由于人工智能發(fā)展過(guò)于強(qiáng)大,給人們帶來(lái)威脅。
(三)人工智能安全評(píng)估與管理
對(duì)人工智能產(chǎn)品進(jìn)行安全評(píng)估與管理,也是解決人工智能安全問(wèn)題的有效途徑。所謂安全評(píng)估是指,對(duì)人工智能產(chǎn)品可能出現(xiàn)的危害、危害程度進(jìn)行量化評(píng)估,計(jì)算發(fā)生概率,劃分危害等級(jí),并制定相應(yīng)的安全標(biāo)準(zhǔn)以及應(yīng)對(duì)方案。依靠人工智能的安全評(píng)估,技術(shù)人員對(duì)人工智能存在危害因素進(jìn)行評(píng)估,給出解決意見,設(shè)計(jì)出安全性能高的人工智能產(chǎn)品。人工技能進(jìn)行安全評(píng)估,是預(yù)防人工智能安全事故的重要措施,也是人工智能實(shí)現(xiàn)安全管理的重要保障,因此,安全評(píng)估可以提升人工智能產(chǎn)品的安全系數(shù)。通常情況下,人工智能出現(xiàn)故障或者安全問(wèn)題往往沒(méi)有征兆,而且會(huì)出現(xiàn)嚴(yán)重的問(wèn)題,只有依靠技術(shù)人員進(jìn)行相關(guān)產(chǎn)品的安全評(píng)估,才能消除人們對(duì)人工智能產(chǎn)品存在的憂慮。
三、結(jié)語(yǔ)
綜上所述,隨著人工智能技術(shù)的不斷發(fā)展,在未來(lái)的某天,人工智能必然會(huì)超越人類智能,同時(shí)人工智能的發(fā)展,也讓人們感受到了威脅,缺乏控制的人工智能,必然會(huì)給人類帶來(lái)巨大災(zāi)難。解決人工智能安全問(wèn)題,可以從以下幾點(diǎn)進(jìn)行:首先,人工智能的倫理設(shè)計(jì)。其次,限定人工智能的應(yīng)用范圍。最后,人工智能安全評(píng)估與管理。
參考文獻(xiàn):
[1]杜嚴(yán)勇.人工智能安全問(wèn)題及其解決進(jìn)路[J].哲學(xué)動(dòng)態(tài),2016(9):99104.
[2]劉飛.人工智能技術(shù)在網(wǎng)絡(luò)安全領(lǐng)域的應(yīng)用研究[J].電子制作,2016(17):3233.
[3]林婧.關(guān)于人工智能的淺析[J].網(wǎng)絡(luò)安全技術(shù)與應(yīng)用,2014(10):191192.