德勤報告 | 2018 AI趨勢:AI芯片更豐(feng) 富,用機器學習(xi) 的企業(ye) 翻倍
2018 AI趨勢:AI芯片更豐(feng) 富,用機器學習(xi) 的企業(ye) 翻倍
這是一個(ge) 急速變化但又有很強發展銜接性的時代。
德勤在報告Technology, Media and ecommunications Predictions(科技、傳(chuan) 媒和通訊的預測)開頭這樣說。
這份報告中,德勤預測了增強現實(AR)、智能手機、AI芯片、機器學習(xi) 、互聯網、數字傳(chuan) 媒等領域在2018年的大趨勢。總體(ti) 來講,科技、傳(chuan) 媒和通訊領域內(nei) 將呈現指數級進步,生活中的方方麵麵也將發生不易察覺的變化。
這份報告長達80頁,我們(men) 將其中與(yu) 人工智能相關(guan) 的兩(liang) 部分編譯整理如下。在2017年的尾巴,我們(men) 提前去2018年預覽一下。
強大的運算力對訓練和推理神經網絡來說*。
2009年,*塊GPU問世,這種專(zhuan) 門為(wei) 密集型計算、高度並行計算設計的芯片,比CPU更能滿足機器學習(xi) 任務的要求。自此,越來越多的類型開始豐(feng) 富“AI芯片”這個(ge) 新名詞。
德勤預測,2018年,GPU和CPU仍是機器學習(xi) 領域的主流芯片。
GPU的市場需求量大概在50萬(wan) 塊左右,在機器學習(xi) 任務中對FPGA的需求超過20萬(wan) 塊,而ASIC芯片的需求量在10萬(wan) 塊左右。
△ GPU、FPGA和ASIC芯片需求與(yu) 2016年對比圖
在年底,超過25%的數據中心中用來加速機器學習(xi) 的芯片將為(wei) FPGA和ASIC芯片。
△ FPGA和ASIC芯片的*超過25%
那麽(me) ,每種類型的芯片到底向什麽(me) 方向發展,德勤給出了詳細的預測:
機器學習(xi) 優(you) 化的GPU:在2018年,GPU製造者將推出專(zhuan) 門優(you) 化機器學習(xi) 任務的特別版GPU。其實現在已經能看到這樣的案例,英偉(wei) 達稱自己的Volta架構將使深度學習(xi) 訓練加速12倍,在深度學習(xi) 推理任務上比Pascal架構還要快6倍。
機器學習(xi) 優(you) 化的CPU:在GPU市場蒸蒸日上的同時,我們(men) 也可以看到CPU公司推出機器學習(xi) 的CPU芯片。比如英特爾Knights Mill芯片,比非機器學習(xi) 優(you) 化芯片的性能提升了4倍。
機器學習(xi) 優(you) 化的FPGA:在2016年,FPGA芯片的銷售額已經超過40億(yi) 美元。在2017年年初報告《Can FPGAs Beat GPUs in Accelerating Next-Generation Deep Neural Networks?》中,研究人員表示在某些情況下,FPGA的速度和運算力可能比GPU還要強。
目前,微軟、亞(ya) 馬遜AWS和百度也稱將FPGA用於(yu) 機器學習(xi) 的相關(guan) 任務中。總體(ti) 來說,2018年機器學習(xi) 任務對FPGA的需求超過了20萬(wan) 。
機器學習(xi) 優(you) 化的ASIC芯片:ASIC是隻執行單一任務的芯片,目前ASIC芯片的製造廠商很多。在2017年,整個(ge) 產(chan) 業(ye) 的總收益大約在150億(yi) 美元左右。
綜合各芯片廠商放出的消息,英特爾的收購的Nervana,能在2018年生產(chan) 出自己的芯片。此外,日本富士通也計劃在2018年推出一款名為(wei) 深度學習(xi) 單元(DLU)的芯片。
TPU:TPU是穀歌為(wei) 適應機器學習(xi) 任務推出的ASIC芯片,適用於(yu) 處理在開源的TensorFlow中的任務。在穀歌數據中心的推理任務中,TPU已經顯示出良好的性能,和CPU相比,性能可以提升10到50倍。據穀歌預測的數據顯示,2018年對TPU的需求大約在10萬(wan) 塊左右。
低能耗機器學習(xi) 加速芯片:德勤預測,在2018年,手機、平板和其他移動設備對機器學習(xi) 芯片的需求量在5億(yi) 左右。移動端芯片的zui大特點就是低能耗,GPU芯片的功率大致在250瓦左右,相比之下TPU芯片需要的功率僅(jin) 為(wei) 75瓦。對傳(chuan) 感器網絡來說,所需功率需要低於(yu) 10毫瓦。
德勤預測,可能再過兩(liang) 三年,低功率的機器學習(xi) 芯片才能有突破性進展。
光流芯片:除了上麵幾種,還有一種特殊的芯片類型,IBM的True North芯片就是一種光流芯片,它能加速機器學習(xi) 任務,並且非常。不過德勤表示,現在還很難預測這種光流芯片在2018年的體(ti) 量,但整體(ti) 來說可能低於(yu) 10萬(wan) 塊,甚至低於(yu) 1萬(wan) 塊。
△ 翻倍再翻倍
在報告中,德勤重點提出了讓機器學習(xi) 更廣泛應用企業(ye) 中的5個(ge) 重要推動力,分別為(wei) 數據科學的自動化、訓練數據需求的減少、訓練速度的加快、解釋結果和本地部署等。
1. 數據科學自動化:像數據開發和特征工程這種耗時的機器學習(xi) 任務,可能會(hui) 占用數據科學家80%的時間。好消息是,這種繁瑣的工作正在逐步被自動化取代。從(cong) 耗時的工作解放出來後,數據科學家執行機器學習(xi) 試驗的時間從(cong) 幾個(ge) 月縮短到了幾天。自動化在一定程度上緩解了數據科學家的短缺,為(wei) 企業(ye) 賦予和更多活力。
2. 減少訓練數據的需求:訓練一個(ge) 機器學習(xi) 模型可能需要數以百萬(wan) 計的數據元素,為(wei) 訓練數據獲取標記數據也是一件耗時且成本高的事情。目前,已經湧現出致力於(yu) 減少機器學習(xi) 需要的訓練數據的技術,包括數據合成、算法生成的模擬真實數據特征等。
3. 加速訓練:正如上麵所說,像GPU、FPGA等機器學習(xi) 專(zhuan) 有硬件的出現可以縮短機器學習(xi) 模型的訓練時間,加速研究進展。
4. 解釋結果:雖然機器學習(xi) 的進展日新月異,但機器學習(xi) 模型通常存在關(guan) 鍵缺陷,比如黑箱,意味著我們(men) 無法解釋其中的原理。這些不清楚讓模型無法適應更多的應用。如果黑箱消失、結果都可解釋,是機器學習(xi) 應用的一大進步。
5. 本地部署:機器學習(xi) 將隨著部署能力一同成長。德勤去年曾經預測,機器學習(xi) 正在走進移動設備和智能傳(chuan) 感器,帶來智能家庭、智慧城市、無人駕駛、可穿戴技術和物聯網技術。
像穀歌、微軟、Facebook等科技*正在嚐試將機器學習(xi) 模型壓縮到便攜設備上,比如穀歌的TensorFlow Lite、Facebook的Caffe2Go和蘋果的Core ML。