谷歌(Google)資深院士Jeff-Dean在近日于美國舊金山舉行的SIGMOD 2016大會發(fā)表專題演說時所言,我們現(xiàn)在最需要從機器學(xué)習(xí)中取得的是“理解力(understanding)”。

“我們現(xiàn)在有充足的運算資源,以及足夠大規(guī)模的、有趣的數(shù)據(jù)集;”Dean對SIGMOD大會的聽眾們表示:“我們可以儲存大量的有趣資料,但我們真正需要的是理解那些數(shù)據(jù)。”

在專題演說中,Dean概述了機器學(xué)習(xí)(machine learning,ML)與神經(jīng)網(wǎng)絡(luò)的歷史,還有利用以影音呈現(xiàn)的原始數(shù)據(jù)編程模型之不同方法;他也詳細介紹Google初具規(guī)模的ML研究成果,該公司最近將在歐洲設(shè)置一個機器學(xué)習(xí)研究中心。Google繼去年發(fā)表TensorFlow算法后,又宣布自己開發(fā)了命名為張量處理單元(TPU)的人工智能加速器芯片。

Dean表示:“隨著時間推移,我們看到越來越多利用ML技術(shù)來解決各種問題的成功案例,這導(dǎo)致了Google內(nèi)部數(shù)百個開發(fā)團隊對相關(guān)技術(shù)的使用出現(xiàn)真正大幅度成長。”

20160630-DEEP 1Google對深度學(xué)習(xí)技術(shù)的使用趨勢(來源:SIGMOD/Jeff Dean)

Dean舉例指出,Google的語音識別開發(fā)團隊,透過利用神經(jīng)網(wǎng)絡(luò)將字詞錯誤率降低了30%;該團隊以神經(jīng)網(wǎng)絡(luò)取代了語音識別流水線(pipeline)的聲學(xué)模型──也就是利用原始音波來判別聲音與字詞──并達成了二十年來最大幅度的改善成果。

利用機器學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)技術(shù)解決的基礎(chǔ)性問題,也能在其他領(lǐng)域看到,例如醫(yī)療與衛(wèi)星影像;在這些案例中,可能是需要在地圖上識別某棟房子以勘查太陽能光電板的安裝,或是進行糖尿病患黃斑部病變的篩選。用于語音識別的相同模型,可以輕易被利用來解決其他問題。

“那些模型有很多類似的地方;”Dean指出,Google翻譯應(yīng)用程序現(xiàn)在可以利用畫素識別(pixel identification),實時將符號翻譯成不同語言。

機器學(xué)習(xí)的未來發(fā)展

不過在機器學(xué)習(xí)以及神經(jīng)網(wǎng)絡(luò)的理解能力發(fā)展方面,還有一些待克服的障礙;包括模型必須要能在無人監(jiān)督的狀況下學(xué)習(xí)、處理多任務(wù)任務(wù)并轉(zhuǎn)換學(xué)習(xí),還有根據(jù)現(xiàn)實世界情況采取行動(也被稱為強化學(xué)習(xí))。

Dean表示,研究人員已經(jīng)開始關(guān)注機器學(xué)習(xí)的隱私保護技術(shù),并將該模型架構(gòu)添加到mdash廣告程序中;在這部分的機器學(xué)習(xí)中,人類的互動扮演在權(quán)衡時扮演重要角色,是很大的進步:“確保你提供的資料實際遵循你想要的隱私權(quán)政策很重要,或者你可以強加更高層級的政策到模型之上。”

從系統(tǒng)的角度來看,Dean表示下一個挑戰(zhàn)是如何:“利用高層級的機器語言算法描述,以及將那些不同的描述映像到廣泛的不同硬件上;”他也期望能將機器學(xué)習(xí)整合到更多傳統(tǒng)的數(shù)據(jù)處理方案中。

摩爾定律(Moore’s Law)的尾端為機器學(xué)習(xí)提供了有趣的發(fā)展方向,Dean預(yù)期會有越來越多進行機器學(xué)習(xí)運算的異質(zhì)或特制硬件;Google的TensorFlow ASIC是一個例子,而最近則是嘗試利用以TensorFlow啟動的機器人進行大規(guī)模數(shù)據(jù)收集。

“我認為這一次神經(jīng)網(wǎng)絡(luò)已經(jīng)準備就緒;在90年代,我認為它們雖然帶來很多激勵,但就是缺乏運算資源。而現(xiàn)在,我想該類技術(shù)已經(jīng)展現(xiàn)它們能解決相關(guān)有趣問題的能力;”Dean結(jié)論指出:“如果你還沒考慮如何為數(shù)據(jù)庫提供深度神經(jīng)網(wǎng)絡(luò),現(xiàn)在應(yīng)該要開始了。”