
近日,由斯坦福大學主導、來自MIT、OpenAI、哈佛、麥肯錫等機構的多位專家教授聯合發布的人工智能指數年度報告出爐,報告顯示,在人工智能這一領域,美國依然是當仁不讓的王者,但中國的AI技術,無論在學術界還是產業界,都正以極快的速度向前追趕。報告中有幾個驚人的數字:與2000年相比,2016年中國人工智能學者發表的論文被引用的次數提高了44%。清華大學去年學習人工智能和機器學習方向的學生數量是2010年的16倍。
更前沿的技術突破、更廣泛的應用場景、更充足的人才準備,當熱潮漸漸褪去,這個被押注了未來的行業,依然承載著人們對明日世界最廣闊的想象。
讓機器能夠像人一樣思考、感受和認識世界,是人工智能科學家們孜孜以求的終極目標。為了實現這個目標,他們提出各種技術方案對機器進行訓練,這種底層技術的進步也是人工智能技術進步的基礎。
今年4月,阿里巴巴人機自然交互實驗室聯合達摩院機器智能技術實驗室和浙江大學推出的人工智能Aliwood,在研發過程中引入了“情感計算”能力,給視頻所配的音樂建立起了情感模型。
情感計算是為了讓機器“具備人的感情”,它指的是關于情感、情感產生以及影響情感方面的計算。MIT媒體實驗室數據顯示,在識別表情方面,計算機已經可以超越人類,對于真笑和苦笑的實驗中,機器學習的成功率是92%,大幅優于人類。不過雖然情感計算已經深入生活,而要讓機器人更加懂你卻并非易事,還需要人機交互、心理學、認知學等多學科領域共同努力。
類腦智能以計算建模為手段,受腦結構與機制、認知行為機制啟發,企圖通過軟硬件協同實現機器智能。簡單說,科學家希望機器能像人類感知和探索世界。類腦智能系統在信息處理機制上“類腦”,認知行為和智能水平上“類人”,目標是使機器實現人類具有的多種認知能力及其協同機制,最終達到或超越人類智能水平。目前,類腦計算研究還處在前期探索階段,清華大學類腦計算研究中心已研發出具有自主知識產權的類腦計算芯片、軟件工具鏈;中科院自動化研究所開發出了類腦認知引擎平臺,具備哺乳動物腦模擬的能力,并在智能機器人上取得了多感覺融合、類腦學習與決策等多種應用,以及全球首個以類腦方式通過鏡像測試的機器人等。大家都在期待,未來的類腦智能研究會在哪個領域產生突破。


隨著商湯科技正式被依托建設智能視覺國家新一代人工智能開放創新平臺,這一人工智能國家隊正式集合五名成員:依托百度公司建設自動駕駛國家人工智能開放創新平臺,依托阿里云公司建設城市大腦國家人工智能開放創新平臺,依托騰訊公司建設醫療影像國家人工智能開放創新平臺,依托科大訊飛公司建設智能語音國家人工智能開放創新平臺,以及最新加入的商湯科技。這一系列人工智能開放平臺可以降低相關小企業入局的技術門檻、集結優秀的技術力量共同開發、優化人工智能行業生態。
標準化工作是人工智能發展的基礎和前提。一旦缺失標準,人工智能的研發和應用將變得混亂。我國雖然在某些領域已具備一定的標準化基礎,但標準化程度不足,分散的標準化工作不足以支撐起整個人工智能領域的發展。
今年初,在國家人工智能標準化總體組、專家咨詢組成立大會上,《人工智能標準化白皮書(2018版)》(以下簡稱《白皮書》)出爐。在中粵金橋投資合作人、品優網創始人羅浩元看來,包括基礎標準、平臺/支撐標準、關鍵技術標準、產品及服務標準、應用標準、安全/倫理標準六個部分是《白皮書》的關鍵內容,基本串起了人工智能產業的整個鏈條。
隨著人工智能的深入發展,標準化工作將越發龐雜,不僅標準化的對象將越來越復雜,而且以往標準化工作從未出現過的交叉、融合等也給人工智能標準化帶來巨大挑戰。目前,人工智能標準化體系建設相對滯后的影響已經顯現。比如目前最熱的智能家電產品,每個產品都有自己的APP,協議不兼容,跨品牌間互聯互通困難。明確規范、可執行的國家標準、行業標準,可以為我國人工智能的持續健康發展掌舵。
“母豬杜洛克C7259號,沒有懷孕,請在12小時內再次安排配種!”很快,這樣的提醒就會出現在國內一些豬場的工作人員電腦上。最近,阿里云披露的一份資料顯示,其工程師正在同養豬科學家合作研發能判斷母豬是否懷孕的算法,以提升豬場產仔量。除了監測母豬是否懷孕,AI還可以服務于農業智能生產系統、檢測農作物病蟲害、作用于農產品無損檢測等,在農業領域大展拳腳。
聽來有些不可思議,但人工智能技術帶來的改變,確實發生在各個意想不到的領域。比如英國拉夫堡大學的研究人員和切爾西足球俱樂部聯合開發了一套AI教練和球探系統,系統可以通過收集、分析球員近幾個賽季的數據建模并科學訓練球員,比如根據球員的特點制定賽前戰術、賽后對技戰術進行復盤等。人工智能HR也已經出現,并在求職中發揮作用。

游戲AI涉及推理和決策等認知智能,這也是研究者熱衷于這項研究的原因。不過相關研究者也表示,真正的認知智能還有很多問題沒有解決,比如推理過程的表示、決策優化算法,以及如何讓AI使用更少的計算量做到更好的推理、讓AI消化吸收學習的速度更快等。因此,這階段人類著實無需擔心機器的威脅。在認知智能上,AI還有相當長的路要走。

伴隨人工智能的高歌猛進,相關的“噪音”也越來越多,比如數據隱私、AI偏見、AI造反……相關話題引發了數次討論甚至恐慌,人們開始疑問:AI是不是太強了?它會失控嗎?
麻省理工學院媒體實驗室曾出品一個名叫諾曼的“暗黑版AI”,它會以負面想法來理解它看到的圖片。團隊希望通過諾曼的表現提醒世人:用來教導或訓練機器學習算法的數據,會對AI的行為造成顯著影響。
但其實,當人們談論人工智能算法存在偏差和不公平時,罪魁禍首往往不是算法本身,而是帶有偏差、偏見的數據。
偏見、刻板印象、歧視這些人類社會的痼疾,已經深入社會肌理。在這樣的語境中產生的數據,攜帶著大量復雜、難以界定、泥沙俱下的觀點。如果研究者沒有意識到或著手處理這一問題,機器學習的偏見幾乎無解。真正的“公正算法”或許是不存在的。但通過正確地校準標簽、數據的均衡和可靠等,機器出現偏見、謬誤甚至失控的可能會相應減少。此外,研究者也應該著手建立一種預防的機制,從道德的約束、技術標準的角度對人工智能進行價值觀的干預。
還有一個重要的憂慮來自隱私,相對于AI的偏見或失控,人類對隱私的擔憂要真實可感地多,畢竟,我們每天的吃住行都已經充分數字化,與之相伴的隱私暴露風險也指數級上升。
目前,國內從消費電子領域到安保、數字金融等領域都在逐步引入人臉識別,特別是隨著“刷臉支付”的普及,用戶的姓名、性別、年齡、職業等身份信息,甚至用戶在不同情境狀態下的情緒等信息都被機器收集。這些信息如果得不到妥善保管而被泄露,用戶個人信息就處在“裸奔”狀態。保護公民個人信息的安全,需要管理者、相關行業企業、公民個人的協同努力。目前在人臉識別技術領域,我國尚無相應的安全監管機制,應及早籌謀,完善法律法規、提升應用程度及存儲設備的安全程度、強化網絡安全和信息保護意識、規范行業信息收集標準等。