
德勤報告 | 2018 AI趨勢(shi):AI芯(xin)片更(geng)豐富,用機器學(xue)習(xi)的(de)企業(ye)翻(fan)倍(bei)
2018 AI趨勢(shi):AI芯(xin)片更(geng)豐富,用機器學(xue)習(xi)的(de)企業(ye)翻(fan)倍(bei)

這是壹個急(ji)速(su)變(bian)化(hua)但(dan)又有(you)很(hen)強(qiang)發(fa)展(zhan)銜(xian)接(jie)性的(de)時代(dai)。
德勤(qin)在(zai)報告Technology, Media and ecommunications Predictions(科(ke)技、傳媒(mei)和(he)通(tong)訊(xun)的(de)預測)開頭(tou)這樣說(shuo)。
這份報告中,德(de)勤預(yu)測了增(zeng)強(qiang)現(xian)實(AR)、智能手(shou)機(ji)、AI芯(xin)片(pian)、機(ji)器學(xue)習(xi)、互(hu)聯(lian)網、數字(zi)傳媒(mei)等領(ling)域(yu)在(zai)2018年的(de)大趨勢(shi)。總(zong)體來講,科(ke)技、傳媒(mei)和(he)通(tong)訊(xun)領域(yu)內(nei)將(jiang)呈(cheng)現(xian)指數級進(jin)步(bu),生活(huo)中的(de)方方(fang)面面也將(jiang)發(fa)生(sheng)不易察(cha)覺(jiao)的(de)變化(hua)。
這份報告長(chang)達80頁,我們(men)將(jiang)其(qi)中與人(ren)工智能相關(guan)的(de)兩部(bu)分(fen)編(bian)譯(yi)整理(li)如(ru)下。在(zai)2017年的(de)尾巴(ba),我們(men)提前(qian)去2018年預(yu)覽(lan)壹下(xia)。
強(qiang)大的(de)運算力對訓(xun)練和(he)推(tui)理(li)神(shen)經網絡(luo)來說(shuo)*。
2009年(nian),*塊(kuai)GPU問世(shi),這種專(zhuan)門為(wei)密(mi)集型(xing)計算、高(gao)度並行計算設(she)計的(de)芯片(pian),比(bi)CPU更(geng)能滿(man)足(zu)機器學(xue)習(xi)任務的(de)要求(qiu)。自(zi)此,越(yue)來越(yue)多的(de)類(lei)型開始(shi)豐富(fu)“AI芯片(pian)”這個新(xin)名(ming)詞(ci)。
德勤(qin)預測,2018年,GPU和(he)CPU仍(reng)是機器學(xue)習(xi)領域(yu)的(de)主流(liu)芯(xin)片(pian)。
GPU的(de)市場(chang)需求量(liang)大(da)概在(zai)50萬塊(kuai)左右(you),在(zai)機器學(xue)習(xi)任務中對FPGA的(de)需求超(chao)過20萬塊(kuai),而(er)ASIC芯(xin)片(pian)的(de)需求量(liang)在(zai)10萬塊(kuai)左右(you)。
△ GPU、FPGA和(he)ASIC芯(xin)片(pian)需求與2016年對比(bi)圖(tu)
在(zai)年底(di),超過25%的(de)數據(ju)中心(xin)中用(yong)來加速(su)機器學(xue)習(xi)的(de)芯片(pian)將(jiang)為FPGA和(he)ASIC芯(xin)片(pian)。
△ FPGA和(he)ASIC芯(xin)片(pian)的(de)*超過25%
那麽,每種類(lei)型的(de)芯片(pian)到底(di)向什麽方(fang)向發(fa)展(zhan),德勤給出(chu)了(le)詳(xiang)細的(de)預測:
機器學(xue)習(xi)優(you)化(hua)的(de)GPU:在(zai)2018年,GPU制(zhi)造(zao)者將(jiang)推(tui)出(chu)專(zhuan)門優(you)化(hua)機器學(xue)習(xi)任務的(de)特別(bie)版(ban)GPU。其(qi)實現(xian)在(zai)已(yi)經能看(kan)到(dao)這樣的(de)案(an)例(li),英(ying)偉(wei)達稱自(zi)己(ji)的(de)Volta架(jia)構將(jiang)使深(shen)度學(xue)習(xi)訓(xun)練加速(su)12倍(bei),在(zai)深(shen)度學(xue)習(xi)推(tui)理(li)任務上(shang)比(bi)Pascal架(jia)構還(hai)要快(kuai)6倍(bei)。
機(ji)器學(xue)習(xi)優(you)化(hua)的(de)CPU:在(zai)GPU市場(chang)蒸蒸日(ri)上(shang)的(de)同時,我們(men)也可(ke)以看到(dao)CPU公(gong)司推(tui)出(chu)機(ji)器學(xue)習(xi)的(de)CPU芯片(pian)。比(bi)如(ru)英(ying)特爾(er)Knights Mill芯片(pian),比(bi)非(fei)機器學(xue)習(xi)優(you)化(hua)芯片(pian)的(de)性能提升了(le)4倍(bei)。
機(ji)器學(xue)習(xi)優(you)化(hua)的(de)FPGA:在(zai)2016年,FPGA芯(xin)片(pian)的(de)銷售額(e)已(yi)經超過40億美(mei)元(yuan)。在(zai)2017年年(nian)初(chu)報告《Can FPGAs Beat GPUs in Accelerating Next-Generation Deep Neural Networks?》中,研究(jiu)人(ren)員表(biao)示(shi)在(zai)某些(xie)情(qing)況(kuang)下,FPGA的(de)速度(du)和(he)運(yun)算力可(ke)能比(bi)GPU還(hai)要強(qiang)。
目前(qian),微軟、亞(ya)馬遜AWS和(he)百(bai)度(du)也稱將(jiang)FPGA用於機器學(xue)習(xi)的(de)相關(guan)任務中。總(zong)體來說(shuo),2018年(nian)機(ji)器學(xue)習(xi)任務對FPGA的(de)需求超(chao)過了20萬。
機(ji)器學(xue)習(xi)優(you)化(hua)的(de)ASIC芯片(pian):ASIC是只執(zhi)行單壹任務的(de)芯片(pian),目前(qian)ASIC芯片的(de)制造(zao)廠(chang)商(shang)很(hen)多。在(zai)2017年,整個產業(ye)的(de)總收(shou)益(yi)大約在(zai)150億美(mei)元(yuan)左右(you)。
綜合(he)各(ge)芯片(pian)廠(chang)商(shang)放(fang)出(chu)的(de)消息(xi),英(ying)特爾(er)的(de)收購(gou)的(de)Nervana,能在(zai)2018年生(sheng)產出自己(ji)的(de)芯片(pian)。此外(wai),日本(ben)富士通(tong)也計劃(hua)在(zai)2018年推(tui)出(chu)壹款(kuan)名為深(shen)度學(xue)習(xi)單元(DLU)的(de)芯片(pian)。
TPU:TPU是谷歌(ge)為(wei)適應(ying)機器學(xue)習(xi)任務推(tui)出(chu)的(de)ASIC芯片(pian),適用(yong)於(yu)處理在(zai)開源(yuan)的(de)TensorFlow中的(de)任務。在(zai)谷歌(ge)數(shu)據(ju)中心(xin)的(de)推(tui)理(li)任務中,TPU已(yi)經顯示(shi)出良好的(de)性能,和(he)CPU相比(bi),性能可(ke)以提升10到(dao)50倍(bei)。據(ju)谷歌(ge)預(yu)測的(de)數據(ju)顯示(shi),2018年對TPU的(de)需求大(da)約在(zai)10萬塊(kuai)左右(you)。
低能耗(hao)機(ji)器學(xue)習(xi)加速(su)芯片(pian):德勤(qin)預測,在(zai)2018年,手(shou)機(ji)、平(ping)板和(he)其(qi)他移(yi)動(dong)設(she)備對機(ji)器學(xue)習(xi)芯片的(de)需求量(liang)在(zai)5億左(zuo)右(you)。移動(dong)端(duan)芯(xin)片(pian)的(de)zui大特點就是低能耗(hao),GPU芯(xin)片(pian)的(de)功率大致在(zai)250瓦(wa)左右(you),相比(bi)之(zhi)下TPU芯片(pian)需要的(de)功率僅(jin)為(wei)75瓦(wa)。對傳感(gan)器網(wang)絡(luo)來說(shuo),所需功率需要低(di)於(yu)10毫(hao)瓦(wa)。
德勤(qin)預(yu)測,可(ke)能再(zai)過兩三(san)年(nian),低功率的(de)機器學(xue)習(xi)芯片才(cai)能有(you)突破(po)性進(jin)展(zhan)。
光流(liu)芯(xin)片(pian):除(chu)了上(shang)面幾種,還(hai)有(you)壹種特殊的(de)芯片(pian)類(lei)型,IBM的(de)True North芯片(pian)就是壹種光流(liu)芯(xin)片(pian),它能加速(su)機器學(xue)習(xi)任務,並且(qie)非常。不過德勤表(biao)示(shi),現(xian)在(zai)還(hai)很(hen)難預測這種光流(liu)芯(xin)片(pian)在(zai)2018年的(de)體量(liang),但(dan)整體(ti)來說(shuo)可(ke)能低(di)於(yu)10萬塊(kuai),甚至低於1萬塊(kuai)。
△ 翻(fan)倍(bei)再(zai)翻(fan)倍(bei)
在(zai)報告中,德(de)勤重(zhong)點提出了(le)讓(rang)機器學(xue)習(xi)更廣(guang)泛應(ying)用企業(ye)中的(de)5個重(zhong)要推(tui)動(dong)力,分(fen)別為數(shu)據(ju)科(ke)學(xue)的(de)自動(dong)化(hua)、訓(xun)練數(shu)據(ju)需求的(de)減(jian)少、訓(xun)練速(su)度(du)的(de)加快(kuai)、解釋結果和(he)本(ben)地部(bu)署(shu)等(deng)。
1. 數(shu)據(ju)科(ke)學(xue)自(zi)動(dong)化(hua):像數據(ju)開發(fa)和(he)特征(zheng)工(gong)程這種耗(hao)時的(de)機器學(xue)習(xi)任務,可(ke)能會(hui)占(zhan)用數(shu)據(ju)科(ke)學(xue)家(jia)80%的(de)時間(jian)。好消息(xi)是,這種繁(fan)瑣(suo)的(de)工作(zuo)正在(zai)逐步(bu)被(bei)自(zi)動(dong)化(hua)取代(dai)。從(cong)耗(hao)時的(de)工作(zuo)解放(fang)出(chu)來後(hou),數(shu)據(ju)科(ke)學(xue)家(jia)執(zhi)行機器學(xue)習(xi)試驗的(de)時間(jian)從(cong)幾個月(yue)縮短到了幾(ji)天(tian)。自動(dong)化(hua)在(zai)壹定程度上緩(huan)解了數據(ju)科(ke)學(xue)家(jia)的(de)短缺(que),為(wei)企業(ye)賦予(yu)和(he)更(geng)多活(huo)力。
2. 減(jian)少訓(xun)練數(shu)據(ju)的(de)需求:訓(xun)練壹個機(ji)器學(xue)習(xi)模型可(ke)能需要數(shu)以百萬計的(de)數據(ju)元素(su),為(wei)訓(xun)練數(shu)據(ju)獲取(qu)標記數據(ju)也是壹件(jian)耗(hao)時且(qie)成(cheng)本(ben)高的(de)事情(qing)。目前(qian),已(yi)經湧(yong)現(xian)出(chu)致(zhi)力於(yu)減(jian)少機(ji)器學(xue)習(xi)需要的(de)訓(xun)練數(shu)據(ju)的(de)技術(shu),包(bao)括數(shu)據(ju)合成(cheng)、算法(fa)生成(cheng)的(de)模擬(ni)真(zhen)實數(shu)據(ju)特征(zheng)等(deng)。
3. 加速(su)訓(xun)練:正(zheng)如(ru)上面所說(shuo),像GPU、FPGA等機器學(xue)習(xi)專(zhuan)有(you)硬件(jian)的(de)出現(xian)可(ke)以縮短機器學(xue)習(xi)模型的(de)訓(xun)練時間(jian),加速(su)研究(jiu)進展(zhan)。
4. 解釋結果:雖(sui)然機(ji)器學(xue)習(xi)的(de)進展(zhan)日新月(yue)異,但(dan)機(ji)器學(xue)習(xi)模型通(tong)常存(cun)在(zai)關(guan)鍵缺(que)陷,比(bi)如(ru)黑箱(xiang),意(yi)味(wei)著我們(men)無(wu)法(fa)解釋其(qi)中的(de)原理(li)。這些(xie)不清楚(chu)讓(rang)模(mo)型無(wu)法適應(ying)更多的(de)應(ying)用。如(ru)果黑(hei)箱(xiang)消失(shi)、結(jie)果(guo)都(dou)可(ke)解釋,是機器學(xue)習(xi)應(ying)用的(de)壹大(da)進步(bu)。
5. 本(ben)地部(bu)署(shu):機(ji)器學(xue)習(xi)將(jiang)隨著部(bu)署(shu)能力壹同(tong)成(cheng)長(chang)。德勤(qin)去年曾經預測,機器學(xue)習(xi)正在(zai)走進移動(dong)設(she)備和(he)智能傳感(gan)器,帶(dai)來智能家(jia)庭、智慧(hui)城市(shi)、無人(ren)駕駛、可(ke)穿(chuan)戴技術(shu)和(he)物聯(lian)網技術(shu)。
像谷歌(ge)、微(wei)軟、Facebook等(deng)科(ke)技*正在(zai)嘗試(shi)將(jiang)機器學(xue)習(xi)模型壓(ya)縮到便攜(xie)設(she)備上(shang),比(bi)如(ru)谷歌(ge)的(de)TensorFlow Lite、Facebook的(de)Caffe2Go和(he)蘋(ping)果(guo)的(de)Core ML。