英特爾發(fā)布首款人工智能專用芯片Springhill
英特爾今天在以色列海法的一次特別活動中,悄然推出了首款專用人工智能處理器。
這款名為Nervana Neural Network Processor for Inference的處理器(也稱為Springhil),是在位于海法的英特爾實驗室開發(fā)的,據(jù)稱是專為運行人工智能工作負(fù)載的大型數(shù)據(jù)中心設(shè)計的。據(jù)路透社報道,它基于改進(jìn)的10納米Ice Lake處理器,能夠處理密集型工作負(fù)載,同時能耗極少。
英特爾表示,包括Facebook在內(nèi)的多家客戶已經(jīng)開始在他們的數(shù)據(jù)中心使用該芯片。
Nervana NNP-I芯片是英特爾“AI無處不在”戰(zhàn)略的一個組成部分。英特爾采用GPU、FPGA以及定制的ASIC來處理人工智能中的各種復(fù)雜任務(wù),包括創(chuàng)建用于語音翻譯和對象識別神經(jīng)網(wǎng)絡(luò),以及通過推理過程運行訓(xùn)練模型。
Nervana NNP-I芯片足夠小,可以通過所謂的M.2存儲設(shè)備部署在數(shù)據(jù)中心,然后插入主板標(biāo)準(zhǔn)的M.2端口。這樣就可以讓英特爾標(biāo)準(zhǔn)的至強(qiáng)處理器從推理工作負(fù)載中脫離,更專注于一般性的計算任務(wù)。
Moor Insights&Strategy分析師Patrick Moorhead表示:“大多數(shù)推理工作負(fù)載都是在CPU上運行完成的,即便是像Nvidia T系列這樣的加速器可以提供更高的性能。當(dāng)延遲無關(guān)緊要而原始性能更重要的時候,則首選是加速器。英特爾的Nervana NNP-I旨在與Nvidia甚至Xilinx FPGA這樣的分立加速器展開競爭。”
英特爾表示,Nervana NNP-I芯片實際上是改進(jìn)版的10納米Ice Lake芯片,帶有兩個計算機(jī)核心,圖形引擎被剝離以容納12個推理計算引擎,這些目的都是為了加速推理過程,也就是針對語音和圖像識別等任務(wù)實施經(jīng)過訓(xùn)練的神經(jīng)網(wǎng)絡(luò)模型。
Constellation Research分析師Holger Mueller表示,這對英特爾來說是一次重要的發(fā)布,因為此前英特爾在人工智能推理方面基本處于觀望狀態(tài)。
Mueller說:“英特爾正在提升在能耗和存儲方面的能力,并在處理器套件中尋求協(xié)同效應(yīng)。由于Springhill是通過M2設(shè)備和端口部署的,這在幾十年前稱為協(xié)同處理器,這有效地卸載了至強(qiáng)處理器。但我們必須等待,看看Springhill能否與更專業(yè)的、通常是基于GPU的處理器架構(gòu)相抗衡。”
本文章選自《數(shù)字化轉(zhuǎn)型方略》雜志,閱讀更多雜志內(nèi)容,請掃描下方二維碼
