張友發

據美國媒體報道,5月4日,在美國亞利桑那州錢德勒市的公路上,谷歌旗下自動駕駛公司Waymo的一輛自動駕駛汽車遭遇車禍。而在此之前的3月18日,亞利桑那州因為一起駕駛事故禁止了優步的自動駕駛實驗,該事故導致了一位橫穿馬路女子的死亡。安全問題成為公眾對自動駕駛最大的質疑。
眼擎科技公司在今年4月20號發布了國內首個車規級自動駕駛視覺成像方案eyemoreDX120,為解決自動駕駛的困局提出了自己的方案。方案建立在公司的成像芯片eyemoreX42基礎上。這款芯片致力于解決復雜光線成像問題。
在交流中,眼擎科技CEO(首席執行官)朱繼志措辭謹慎:“我們的方案還需要和設備商磨合,要經過車廠測試。我只能說這比現有方案前進了一大步,但能否在成像方面解決自動駕駛的安全問題,還需要觀察。”
除了自動駕駛,朱繼志還談到了眼擎科技在人工智能和芯片領域的布局與野心。過程中,朱繼志經常提到兩個詞:一是“專注”,即公司對某一個細分領域的專注;二是“機會”,包括大的技術變革給中國成像芯片產業帶來的機遇。
創業過程中,眼擎科技經歷了4年的科技沉淀,積累了能應用于人工智能(AI)領域的復雜成像技術。眼擎科技成像芯片的核心技術是復雜光線下的穩定成像。朱繼志介紹,目前人工智能的圖像識別率已經很高,在實驗室中能達到98%甚至99%,但來到現實場景時,圖像識別率就會大大下降。
“這就像我們在淘寶上買東西,看到的都是賣家秀,拿到手的卻是買家秀。這其中最大的差別,就是光線環境的問題。”朱繼志認為眼擎科技研發的成像芯片能很好地解決行業痛點:“實驗室與現實環境的差別是光線差異,這是最大的落地難點。我們研發的這款成像芯片就像我們的眼睛一樣,能把實驗室99%(的識別率)變成現場99%(的識別率)。”
這是人工智能帶來的挑戰與機遇。在成像芯片領域,之前芯片廠商的思路是服務于相機,研發的出發點是看鏡頭的人;人工智能給成像芯片帶來了新的課題,研究思路從給人看轉向給AI看。
朱繼志說:“在傳統成像芯片時代,復雜環境下的成像問題不是剛需,因為環境光線不好可以補光,甚至可以不拍。但在自動駕駛時代,這就成了剛需。”
適應新的時代需要變革原有的技術框架,但在朱繼志看來,傳統公司很難完成轉型:“傳統的架構不能解決復雜光線下成像的問題。為了解決這個問題,我們從芯片架構到算法,再到場景測試,做了很多工作,我們在復雜光線的適應情況上和傳統公司不是一個層級,包括索尼。”
“過去30年,以ISP(圖像信號處理器)為代表的傳統成像架構一直統治著成像能力的表現,即使現在AI發展了,效果也不可能有很大的提升。原因很簡單:30年前的技術架構,人們不可能考慮未來人工智能有什么需求。以前圖像只考慮給人看,現在的圖像是給機器看,但傳統架構成形多年,積重難返。這就是技術架構的弊端。久而久之,大家沒看到視覺能夠突破,就會形成一種觀念——認為視覺能力是不可能突破的,這也是激光雷達日后被叫好的一個原因。其實本質上,我們應該回到問題的源頭,視覺能力不夠,就研發新的成像引擎架構,做視覺成像專用的芯片,以此來提升汽車的視覺能力。這件事不好干,我們為此專注了4年。”
朱繼志覺得這是人工智能的發展給中國芯片企業帶來的機遇:“在AI芯片領域,美國比中國領先得不多,也就是幾年的優勢;而在傳統的芯片領域領先了我們幾十年。AI給中國公司帶來了機會,這是一個新興市場,我們起點相仿。”
朱繼志的思路是循序漸進,先通過4年積累掌握成像引擎核心技術,第二階段再推出產品,也就是成像芯片。今年朱繼志的目標是完成第三階段任務,讓產品在應用場景中進一步落地。目前發布的產品eyemoreDX120通過配置汽車外圍接口做成適應自動駕駛的模組,將芯片產品發展為情景化的自動駕駛解決方案。
eyemoreDX120解決方案的優勢在于具備較強的場景適應性,在不同場景下都能夠穩定成像,解決了自動駕駛面臨的復雜光線成像不穩定的問題。eyemoreDX120的鏡頭傳感器符合接口的行業規范,能解決120dB動態范圍內的自動駕駛成像問題。
朱繼志將自己的方案看作自動駕駛技術的重要一環:“AI落地的時候是一個接力賽,我們前面是鏡頭和傳感器,我們做的視覺成像處在第三棒,我們后面是成像識別。很多現在的明星芯片公司,比如地平線,都在做這個。”
眼擎科技今年打算讓成像芯片在多個行業落地,而之所以選擇自動駕駛作為起點,朱繼志有著自己的考量:“自動駕駛對人工智能領域的技術要求很高,可以說是最高的。其次,我們的產品在自動駕駛(領域)是剛需,痛點最大。我們判斷切入的標準,首先是看這個市場的容量夠不夠大,其次是看痛點多不多。自動駕駛恰好在這兩點上都符合。”
“人工智能的應用場景很多,其中自動駕駛的應用很容易推廣到其他領域,成熟的技術可以遷移到AI其他產品中。”朱繼志這樣解釋自動駕駛對于人工智能發展的推動作用。
對于自動駕駛的未來發展,朱繼志覺得問題很復雜:“自動駕駛系統相比機器人,挑戰更大。自動駕駛需要人工智能不同系統的協調合作。我們只解決成像這一個點,但如果有十幾個像我們這樣專注的公司,那人工智能自動駕駛問題會得到很好的解決。”
對朱繼志來說,今年是人工智能和眼擎科技的關鍵一年:“2018年是人工智能落地的一年,去年大家主要在做試點。我們公司在未來3年內會有大規模的部署,預計在各個領域開發約60個客戶,讓方案在不同行業落地,豐富產品線。今年是重要的布局年。”
朱繼志未來打算重點在汽車、安防、工業檢測和機器人等方面發力:“人工智能進入的領域越多越好,需要和更多產業去磨合試錯,然后才能從小到大得到發展。而視覺是人工智能的關鍵點,我們需要把技術和芯片產品賦能到傳統行業。”
對于未來的人工智能大局,朱繼志覺得眼擎科技需要堅持好技術導向:“我希望公司能看到技術痛點,解決(痛點)后形成產品,再去尋找潛在的市場。”
至于成像芯片的對手,朱繼志半開玩笑地說:“成像芯片目前的綜合能力和眼睛差別還很大,我們的對手應該是人眼而不是傳統公司。AI最終就是要顛覆原有格局,讓機器做得比人更好,這是我們最終要解決的問題。”
視覺技術分為兩種:成像(imaging)和圖像處理(image processing)。前端成像技術負責生成視覺圖像,后端圖像處理負責分析、識別、處理視覺圖像。換句話說,成像相當于人的眼睛,圖像處理相當于人的大腦。
目前人工智能領域的明星公司,包括商湯、曠世、地平線、云從、依圖、深鑒等,都是基于圖像處理算法為核心技術的公司。在過去的3年里,受深度學習技術的驅動,圖像處理獲得了飛速的發展,但前端的成像技術,仍然停留在20年前的水平,成為AI視覺未來發展以及商業應用落地的嚴重瓶頸,也是當前各大AI公司的下一個必爭之地。
和數碼時代相比,AI時代的成像在成像架構、算法模型、評判標準、光線適應性等諸多關鍵環節都發生了本質的變化。傳統的數碼成像技術架構已不能滿足AI視覺的需求,面臨迅速被淘汰的窘境。未來5年,成像技術將有望完成從“圖像”到“視覺”的劃時代升級,視覺成像芯片和AI處理芯片一樣,成為人工智能的核心部件,由此衍生的產業升級需求,將在未來5年催生出成像領域千億級別的新增量市場。