999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能的昨天、今天與明天(下)

2018-06-22 06:35:44張崢編輯甄知
科學生活 2018年6期
關鍵詞:人工智能模型

文/張崢 編輯/甄知

?藝術創造是人獨有的,人工智能不會?

“藝術創造是人獨有的,人工智能不會”,不止一次聽過這種介乎安慰和宣言之間的說法。從這里出發,引申出的一個推論是,等機器人把臟活累活包了,人類可以安心地享受藝術創造了。

天底下有兩種職業貴在原創:科學研究和藝術創作。這兩方面的素養很重要,但它們作為職業,從古至今,都是小眾活動。在人機共存的未來,和機器人搶活兒干倒更有可能,也應該搶,必然會搶——藝術創作領域很可能類似。

人工智能能不能從事藝術創作?一開始的幾年,業界端出來的“作品”是不忍看的。其中一類,讓模型把看過的樣本“吐”出來,計算過程中有意無意地隨機采樣生產出一堆猶如惡夢中的怪物的作品。比如訓練樣本中狗的圖片多,就變成這樣。(見右上圖)

這和二十世紀初的達達主義很相似,當年所謂的“自動寫作”就可以視為隨機采樣的過程,產生的文字效果是一樣的。達達主義的貢獻在于矯枉必須過正,所以很快讓位于超現實主義,曇花一現。

▲ 來源:https://thenewstack.io/deeplearning-neural-networks-google-deep-dream/

還有一種是照葫蘆畫瓢,更容易讓人接受——只是“手抖”得有技巧,學了梵高的抖法就都成了向日葵、星空,學了蒙克就處處驚叫。

這些都和藝術創作的精髓相去甚遠。攝影如要精進,除了勤按快門外,要花同樣多的時間看好照片,花更多的時間去挑照片。把好的藝術品喂給模型不是難事,難的是怎么“挑”。藝術創作不是胡亂踩點,要緊的是如何判斷,有一度我覺得這一點是死穴:AlphaGo可以判定局勢的好壞,但應該不懂如何評判藝術吧?

▲ 來源:https://arxiv.org/abs/1508.06576

不過,這幾年人工智能學界的一個現象就是,不要把話說得太死了。

最近,很火的一個深度學習分支叫“生成對抗網絡”:把隨機數推送給一個生成網絡,合成偽數據(圖片或聲音),然后再把這些偽數據送進判別網絡,判別網絡比較真偽數據后,再產生讓生成網絡努力“造假”的壓力。

這個框架的最終目的,是以少量樣本充盈分布空間。兩個網絡共生共長、陰陽互補。這雖然和AlphaGo用強化學習左右手互博是兩種不同的訓練方式,但在精神上都相當辯證。

最近,我注意到一項工作(CAN: Creative Adversarial Networks Generating “Art” by Learning About Styles and Deviating from Style Norms),讓一個模型學習從十五世紀到二十世紀超過七萬幅的美術作品,從巴洛克開始涵蓋二十五種風格。這個模型的創新點在于判決網絡有意為之的“四不像標準”,要求生成的圖片既要像某種風格,又不能太像。

有人會說,那不過是已有風格的混雜而已,但熟悉藝術史的應該知道,混雜和遷移本身就是風格突破的重要源泉之一。令人驚訝的是,至少在網上“公投”的結果來看,已經是雌雄難辨。

? 在職業棋手被集體降級之后,藝術家會不會是下一個被碾壓的群體?

我個人不是很關心這個問題。烏鎮圍棋大戰之后我的總結是,圍棋永遠是人類腦力健身房中的寶貝,只是棋手的健身房中多了一個AlphaGo。藝術的“下場”也一樣。該下棋下棋,該畫畫就畫畫。只是不要再說機器不會藝術創造了。

藝術的美學標準,藝術家的“手抖”規律,AI作為神偷,已經化作自己的創造力。我認為(也十分期待)的下一個引爆點,是對藝術聯覺的運用。簡單地說,聯覺是缺乏某類感官刺激,但被他類刺激引發的感知經驗,就像納博科夫在字母中“看”到、李斯特在音符中“聽”到的顏色。

再比如詩歌,其充滿張力的想象裹挾了視、聽、樂感,是詩人對聯覺的有意無意的挖掘,也是讀詩的快感之一。不具備聯覺功能的AI詩歌創作,在技巧上經不起推敲。我讀過微軟小冰的“詩作”,如果認為其想象力的背后有聯覺的作用,也是我們讀者自己在腦補。至于一些詩人的批評,因為對人工智能缺乏了解,也都沒說到點上。

聯覺的技術基礎在于符合大腦計算機制的多模態信號處理。上文已經說過,大腦能夠處理海量數據但又不需要強標注,之所以能這樣,除了大腦的預測功能之外,還有賴于多模態信號之間的自洽和互相監督。而人工智能在這個領域的工作,還非常粗糙。我的看法是,這里的瓶頸在于單信號的處理還沒做對。

即便完成了聯覺,人工智能離真正的創作還差得遠。AlphaGo能給自己的故事拍一部紀錄片嗎?能發明一個游戲嗎?要做到這些,不把人工智能推到“神似”人腦的高度是不可能完成的。

?人工智能會往哪里走

討論了這么多,大眾普遍關心的一個事關未來的問題是下一步人工智能會如何發展?從2012年到現在,短短幾年,人工智能的研究發展之快令人吃驚。如果有一個準確的預測,那就是測不準。不過,嚴肅的從業者都知道路途有多遠。

在幾年前的一個學術討論中,我問幾個專家,解決下面這個問題需要多久:樹上五只鳥,開槍打了一只,還剩幾只?

這個問題的設定本身是模糊的,從一只沒有到五只都是可能的答案,不管答案是什么,無一例外我們都能說出為什么。換句話說,信息和信息的處理過程是透明的,可傳遞,可解釋。解決和回答的過程包括轉換、推理、同理心、常識的運用、語言的組織等。一位專家的三歲女兒的回答是還剩下三只鳥。專家問為什么?她回答說:“因為被打死的那只鳥的朋友也走了。”不得不說,這是我聽過的最具人性的回答。相比來說,如今的聊天機器人會說:你當我傻子啊?機器人的這種賣萌很可愛,但完全不是真正的智能。

類腦計算到底是什么,該怎么做,既令人興奮,又讓人困惑。把大腦想得太復雜,把電腦想得太簡單,可能是尋不到主動脈、找不到銜接橋梁的原因。把“神似”的層次提高、做深,和腦科學進行比照,螺旋性地上升,將為今后人工智能的遠航提供燃料。比如單模態信號處理中有機整合自上而下的預測和自底向上的顯著性,多模態信號處理中的協同學習機制,結構化信息在生成網絡中的挖掘,帶模型預測(model-based)、層次化(hierarchical)的強化學習等,這其中的任何突破都讓人期待。

?原創之殤,在于“原”字缺了三點水

最后,我想談幾句相關的“題外話”,也是有關技術之外的另一種“勘誤”:中國人工智能研究已經走在世界前沿。

我相信,若單把人工智能作為服務落地,中國有可能成為世界第一,但若論人工智能的研究,目前國內的狀況不容樂觀。

從學界的統計數字來看,發自中國的論文總量居世界第二位,和GDP同步。但另有一個關于影響因子的統計,在34位。把這兩個數字放在一起看,顯然落差非常大。這兩個數字很籠統,計算標準也沒有定論,但是中國學術界總體缺乏原創性,而且缺口相當大,應該沒有疑問。2017年的頂級AI會議NIPS(Neural Information Processing Systems,神經信息處理系統進展大會),錄用論文六百多篇,中國各高校加起來入選二十多篇,而一個小小的紐約大學就有十篇。

另有報道,在2017年的國際計算機視覺與模式識別領域的頂級會議CVPR(Computer Vision and Pattern Recognition)中,華人學者占了近半。這個統計數字可喜,但也不是沒有問題。大概十年前,我還在系統研究領域工作,在和麻省理工學院的一位教授共同創辦亞太地區系統研討會的時候,對該領域頂級會議做了一個類似的統計,但添加了另外一個指標:除了參與的文章外,統計了華人學者作為指導老師的文章數,結果兩者比例十分懸殊,而且連年如此。換句話說,當年攻城拔寨的華人學生,畢業后很少成長為有視野、有創造力、有野心的指揮官。就像一把好槍,一出了廠就丟了瞄準鏡。

中國學術界原創乏力,原因在哪?我認為原創之殤,在于“原”字缺了三點水。資本驅動之下加上過度注重實用;短期、“有用”的研究蔚然成風;日積月累之后,對“源”頭發問的習慣在工作中缺席。

在研究剛起步的時候,吃透別人的方法,想辦法改進,這時候問的是“毛病在哪,怎么能更好?”這種提問,是在問題鏈的末端。往上回溯,可以問“這是正確的、有意義的衡量手段嗎?”或者“這問題的假設對不對?”。更進一步可以問,“這一類方法的共性是什么?缺點在哪?”“這是個真問題嗎?這問題背后的問題是什么?”等等。

這一步步的追問離源頭越來越近,離當前的“潮流”也越來越遠,也就越來越可能在性能上輸給流行的、打磨了太久太多的模型,但也越有可能做出原創的工作。

有一次,一個年輕的創業者和我聊天,談起他們最近在做一個把深度網絡稀疏化、降低功耗和減少內存消耗的工作。這工作顯然對優化現在的模型很有意義,但我問他知不知道人在解讀一張圖片的時候由注意力驅動,看幾眼就夠了,而每眼只消耗幾個字節的帶寬?有沒有意識到,這是我們睜眼就有的視覺行為。

相比之下,現在流行的深度學習框架從一張圖上并行檢測幾千個小窗口,完全違背人腦視覺系統的計算過程。如果真要降低功耗,是不是應該想想這個框架是不是對?所謂機器已經在識圖問題上超過人類,只是在特定的幾個子領域,這不是學界常識嗎?

流行的框架不但浪費資源,還會丟失信息。下面是斯坦福大學李飛飛教授開的網課“卷積神經網絡和計算機視覺”第一講里的一張圖。這張圖在說什么?

喂給AI大批這樣的圖片,加上“戶外運動”這樣的標簽后,模型甚至可以吐出“草地上四個人在玩飛盤”這樣靠譜的回答。人腦解讀這樣的圖片,是個串行的時序過程,比如從姿態、眼神,追蹤到左邊第一人手上的飛盤。一個依賴并行探測的模型,很難或者不可能恢復其中豐富的信息。能恢復時序、恢復時序中隱蔽的語義的模型,更類似腦,更難實現,但顯然更有泛化能力,也更省能耗。

人工智能必須向大腦學習,并不是說要在細枝末節上進行高仿真的拷貝。一味追求“形似”,反過來會阻礙人工智能的發展。應該認真思考的,是如何做到“神似”,得其精髓而不拘泥枝節。顯然,這里要問的,還是“源”在哪。唯有如此,才能在飛鳥的背后,捕捉到飛行。

學術要做最先,落地要做最好;原創的責任歸學術界,落地的責任歸產業界,前者從0到1,后者從1到無窮大。反之,如果學術界追求體量而不是原創和影響力,那將是對資源的巨大浪費。

事實上,對原創的重視分布在整個生態環境。谷歌、臉譜等一線大公司在實驗室里圈養大批優秀人工智能專家,其開源和長線的基礎研究,質和量都不輸,甚至超過學校實驗室。除了推進科學,這樣的布局也有商業上的考慮。舉例說,卷積和長短程循環這兩個基礎部件,如果不是因為它們的專利已經過期,那么今天幾乎所有的深度網絡模型都要交專利費。可以想象,體量如此大的中國市場,要交的份額只會最多。

向“源”而問,才有原創,才能培育真正的科學精神,才能避免未來的巨額“原創稅”。

猜你喜歡
人工智能模型
一半模型
我校新增“人工智能”本科專業
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
3D打印中的模型分割與打包
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 04:56:22
主站蜘蛛池模板: 日本人又色又爽的视频| 欧美三级不卡在线观看视频| 热伊人99re久久精品最新地| 精品无码国产一区二区三区AV| 亚洲一区毛片| 白浆免费视频国产精品视频 | 久久久久夜色精品波多野结衣| 亚洲综合中文字幕国产精品欧美 | 999精品免费视频| 亚洲视频在线观看免费视频| 久久久国产精品无码专区| 激情午夜婷婷| 国产精品人人做人人爽人人添| 成人午夜天| 久久亚洲国产最新网站| 午夜a级毛片| 无码一区中文字幕| 久久夜色撩人精品国产| 爱色欧美亚洲综合图区| 国产清纯在线一区二区WWW| 免费jizz在线播放| 青青青国产精品国产精品美女| 在线人成精品免费视频| 国产午夜福利在线小视频| 国产99视频精品免费观看9e| 中文字幕 91| 无码国产伊人| 国产区免费精品视频| 免费观看成人久久网免费观看| 国产成人精品在线| 色婷婷成人| 777午夜精品电影免费看| 亚洲人成网站在线播放2019| av在线5g无码天天| 91无码国产视频| 国产精彩视频在线观看| 国产区在线观看视频| 亚洲欧美自拍中文| 久久国产精品波多野结衣| 777国产精品永久免费观看| 国产成人综合网| 国产乱子伦视频在线播放| 国产原创演绎剧情有字幕的| 成人一区专区在线观看| 日韩精品久久无码中文字幕色欲| 国产9191精品免费观看| 国产一区二区精品福利| 欧美日韩第二页| 国产欧美又粗又猛又爽老| 亚洲区第一页| 日本精品一在线观看视频| 综合人妻久久一区二区精品| 视频国产精品丝袜第一页| 全裸无码专区| 亚洲中文制服丝袜欧美精品| 日韩高清欧美| 狠狠ⅴ日韩v欧美v天堂| 婷婷伊人久久| 国产微拍一区二区三区四区| 国内精自线i品一区202| 无码一区二区三区视频在线播放| 亚洲欧洲日韩久久狠狠爱| 91久久偷偷做嫩草影院精品| 亚洲综合精品香蕉久久网| 最新国产在线| 日韩成人午夜| 最新国产成人剧情在线播放| 老司国产精品视频91| 99在线国产| 国产美女人喷水在线观看| 手机永久AV在线播放| 色久综合在线| 麻豆精品在线| 九九九精品成人免费视频7| 欧美日韩国产在线播放| 欧美国产日产一区二区| 久久精品中文字幕免费| 成人自拍视频在线观看| 91系列在线观看| 国产亚洲高清视频| 欧美日韩国产在线播放| 99成人在线观看|