德勤報告 | 2018 AI趨勢:AI芯片更豐富,用機器學習的企業(yè)翻倍
2018 AI趨勢:AI芯片更豐富,用機器學習的企業(yè)翻倍
這是一個急速變化但又有很強發(fā)展銜接性的時代。
德勤在報告Technology, Media and ecommunications Predictions(科技、傳媒和通訊的預測)開頭這樣說。
這份報告中,德勤預測了增強現實(AR)、智能手機、AI芯片、機器學習、互聯網、數字傳媒等領域在2018年的大趨勢??傮w來講,科技、傳媒和通訊領域內將呈現指數級進步,生活中的方方面面也將發(fā)生不易察覺的變化。
這份報告長達80頁,我們將其中與人工智能相關的兩部分編譯整理如下。在2017年的尾巴,我們提前去2018年預覽一下。
強大的運算力對訓練和推理神經網絡來說*。
2009年,*塊GPU問世,這種專門為密集型計算、高度并行計算設計的芯片,比CPU更能滿足機器學習任務的要求。自此,越來越多的類型開始豐富“AI芯片”這個新名詞。
德勤預測,2018年,GPU和CPU仍是機器學習領域的主流芯片。
GPU的市場需求量大概在50萬塊左右,在機器學習任務中對FPGA的需求超過20萬塊,而ASIC芯片的需求量在10萬塊左右。
△ GPU、FPGA和ASIC芯片需求與2016年對比圖
在年底,超過25%的數據中心中用來加速機器學習的芯片將為FPGA和ASIC芯片。
△ FPGA和ASIC芯片的*超過25%
那么,每種類型的芯片到底向什么方向發(fā)展,德勤給出了詳細的預測:
機器學習優(yōu)化的GPU:在2018年,GPU制造者將推出專門優(yōu)化機器學習任務的特別版GPU。其實現在已經能看到這樣的案例,英偉達稱自己的Volta架構將使深度學習訓練加速12倍,在深度學習推理任務上比Pascal架構還要快6倍。
機器學習優(yōu)化的CPU:在GPU市場蒸蒸日上的同時,我們也可以看到CPU公司推出機器學習的CPU芯片。比如英特爾Knights Mill芯片,比非機器學習優(yōu)化芯片的性能提升了4倍。
機器學習優(yōu)化的FPGA:在2016年,FPGA芯片的銷售額已經超過40億美元。在2017年年初報告《Can FPGAs Beat GPUs in Accelerating Next-Generation Deep Neural Networks?》中,研究人員表示在某些情況下,FPGA的速度和運算力可能比GPU還要強。
目前,微軟、亞馬遜AWS和百度也稱將FPGA用于機器學習的相關任務中??傮w來說,2018年機器學習任務對FPGA的需求超過了20萬。
機器學習優(yōu)化的ASIC芯片:ASIC是只執(zhí)行單一任務的芯片,目前ASIC芯片的制造廠商很多。在2017年,整個產業(yè)的總收益大約在150億美元左右。
綜合各芯片廠商放出的消息,英特爾的收購的Nervana,能在2018年生產出自己的芯片。此外,日本富士通也計劃在2018年推出一款名為深度學習單元(DLU)的芯片。
TPU:TPU是谷歌為適應機器學習任務推出的ASIC芯片,適用于處理在開源的TensorFlow中的任務。在谷歌數據中心的推理任務中,TPU已經顯示出良好的性能,和CPU相比,性能可以提升10到50倍。據谷歌預測的數據顯示,2018年對TPU的需求大約在10萬塊左右。
低能耗機器學習加速芯片:德勤預測,在2018年,手機、平板和其他移動設備對機器學習芯片的需求量在5億左右。移動端芯片的zui大特點就是低能耗,GPU芯片的功率大致在250瓦左右,相比之下TPU芯片需要的功率僅為75瓦。對傳感器網絡來說,所需功率需要低于10毫瓦。
德勤預測,可能再過兩三年,低功率的機器學習芯片才能有突破性進展。
光流芯片:除了上面幾種,還有一種特殊的芯片類型,IBM的True North芯片就是一種光流芯片,它能加速機器學習任務,并且非常。不過德勤表示,現在還很難預測這種光流芯片在2018年的體量,但整體來說可能低于10萬塊,甚至低于1萬塊。
△ 翻倍再翻倍
在報告中,德勤重點提出了讓機器學習更廣泛應用企業(yè)中的5個重要推動力,分別為數據科學的自動化、訓練數據需求的減少、訓練速度的加快、解釋結果和本地部署等。
1. 數據科學自動化:像數據開發(fā)和特征工程這種耗時的機器學習任務,可能會占用數據科學家80%的時間。好消息是,這種繁瑣的工作正在逐步被自動化取代。從耗時的工作解放出來后,數據科學家執(zhí)行機器學習試驗的時間從幾個月縮短到了幾天。自動化在一定程度上緩解了數據科學家的短缺,為企業(yè)賦予和更多活力。
2. 減少訓練數據的需求:訓練一個機器學習模型可能需要數以百萬計的數據元素,為訓練數據獲取標記數據也是一件耗時且成本高的事情。目前,已經涌現出致力于減少機器學習需要的訓練數據的技術,包括數據合成、算法生成的模擬真實數據特征等。
3. 加速訓練:正如上面所說,像GPU、FPGA等機器學習專有硬件的出現可以縮短機器學習模型的訓練時間,加速研究進展。
4. 解釋結果:雖然機器學習的進展日新月異,但機器學習模型通常存在關鍵缺陷,比如黑箱,意味著我們無法解釋其中的原理。這些不清楚讓模型無法適應更多的應用。如果黑箱消失、結果都可解釋,是機器學習應用的一大進步。
5. 本地部署:機器學習將隨著部署能力一同成長。德勤去年曾經預測,機器學習正在走進移動設備和智能傳感器,帶來智能家庭、智慧城市、無人駕駛、可穿戴技術和物聯網技術。
像谷歌、微軟、Facebook等科技*正在嘗試將機器學習模型壓縮到便攜設備上,比如谷歌的TensorFlow Lite、Facebook的Caffe2Go和蘋果的Core ML。
立即詢價
您提交后,專屬客服將第一時間為您服務