智信
近日,谷歌(Google)推出了智能耳機Pixel Buds,其最大亮點是支持谷歌實時翻譯。
目前,Pixel Buds支持40種語言的實時翻譯,優先用于難度系數高的中英翻譯。這個功能聽上去強大,但我認為,谷歌多年來在翻譯服務方面,沒有太大變化,這次雖有更新,卻不會掀起新一輪的技術革命,看起來更像是一場商業炒作。
說到更新,Pixel Buds的最大亮點,是整合了機器翻譯和語音識別。
近年來,很多專家預測,人工智能將是繼互聯網浪潮之后的下一個增長點。人工智能是計算機科學的分支,有望了解智能的實質,生產出新的、能以人類智能相似的方式做出反應的智能機器。人工智能還有語言識別、圖像識別、自然語言處理和專家系統等領域。
這一次,Pixel Buds引入了語音識別。機器翻譯和語音識別,在技術層面上是不同的,但都會用到“深度學習”的基本技術:自然語言處理。目前,世界上最先進的翻譯系統方法,并不是基于語義理解的翻譯系統,而是基于大數據機器學習的翻譯系統,它包括三大類:基于規則(rule-based)、基于統計(statistical-based)和混合。Pixel Buds屬于基于統計,即通過用戶直接搜索的翻譯結果、對網頁內容的抓取翻譯等渠道,獲取大量的語料資源,用于深度學習,逐漸獲得明白兩種語言如何匹配的能力。
但是,要讓機器自如地翻譯并不容易。以往翻譯軟件在翻譯中文的名言警句、詩句時,都鬧出了令人啼笑皆非的譯法。對此,人們并不理解,反而感嘆:谷歌這么厲害的公司,連個機翻都搞不好嗎?從原理上來說,一個詞有N個意思,一句話又有N個詞組成,N個句子又組成一段話,每個組合的意思都不一樣。最關鍵的是,同一個句子,在不同的語境、用不同的語氣,說出來的意思也不一樣。目前,機器只能根據儲備的詞匯、語句、固定短語、句子的意思,做固定模式的轉換和組合。即使把兩種語言所有的詞匯、語句,都能儲存到一個軟件里,從人工智能的角度看,要讓機器人完全掌握人類的語言,還存在很多無法企及的技術難點。歸根到底,機器并不能夠懂得人類語言的具體意思,即便是最先進的機器學習模型,其本質還是基于大數據的統計規律。
前些天,有新聞報道:谷歌AlphaGo Zero能完全通過自學習提高棋藝,但圍棋的規則是確定、有限的,這跟天天都有新詞、新的說話方式產生的語言來說,難度不在一個層面。
另外不要忘記,谷歌可是炒作的資深玩家。
早在2012年,在微軟亞洲研究院二十一世紀計算機大會上,微軟高級副總裁Richard Rashid就演示了微軟英譯漢的同聲傳譯系統。該演示受到廣泛關注,在YouTube網站上已經有超過一百萬次的播放。如今,谷歌又高調宣傳具有同聲傳譯功能的智能耳機Pixel Buds。我們無法從技術細節以及用戶量上,簡單對比這兩個系統的優劣,但從技術發展和產品問世的角度出發,Pixel Buds肯定不是第一代產品。
技術是積累迭代式發展的,不可能從原始社會一下躍入現代社會。谷歌Pixel Buds確有亮點,但距離技術成熟還需要時間。
責任編輯:曹曉晨