應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊個(gè)人注冊登錄

AI芯片領(lǐng)域的角逐才剛剛開始

2019-04-24 09:24 科技行者

導(dǎo)讀:新型架構(gòu)能夠挖掘深度學(xué)習(xí)的巨大潛力。然而,到目前為止,只有一款A(yù)I芯片是完全符合描述和基準(zhǔn)測試的,它就是谷歌的TPU。即便如此,這一領(lǐng)域仍然正在蓬勃發(fā)展,相關(guān)的技術(shù)也開始逐漸明朗。

芯片,AI芯片,TPU,GPU,FPGA

圖片來自“123rf.com.cn”

新型架構(gòu)能夠挖掘深度學(xué)習(xí)的巨大潛力。然而,到目前為止,只有一款A(yù)I芯片是完全符合描述和基準(zhǔn)測試的,它就是谷歌的TPU。即便如此,這一領(lǐng)域仍然正在蓬勃發(fā)展,相關(guān)的技術(shù)也開始逐漸明朗,比如模擬計(jì)算、新興內(nèi)存和封裝技術(shù)、以及一系列專門用于處理神經(jīng)網(wǎng)絡(luò)的技術(shù)等等。

對此,比利時(shí)魯汶大學(xué)Marian Verhelst教授表示:“這個(gè)領(lǐng)域涉及范圍很廣,包括每個(gè)層面的研究。”Verhelst教授專門研究探索二元精密格式的芯片。她說,模擬計(jì)算很有用,特別是3到8位格式的模擬計(jì)算。

NVIDIA首席科學(xué)家、資深處理器研究員Bill Dally表示:“NVIDIA有多個(gè)和深度學(xué)習(xí)模擬計(jì)算相關(guān)的研究項(xiàng)目,但是到目前為止,還沒有一個(gè)項(xiàng)目可以轉(zhuǎn)化為產(chǎn)品。”他補(bǔ)充說,有一些項(xiàng)目是需要數(shù)學(xué)神經(jīng)網(wǎng)絡(luò)的,生成的結(jié)果并不適合用于進(jìn)行模擬。

“過去那些被否定了的CPU新想法都被重新拿出來進(jìn)行探索,例如模擬計(jì)算、內(nèi)存處理器、晶圓級集成,”資深計(jì)算機(jī)研究員David Patterson這樣表示,他現(xiàn)在在谷歌工作。“我迫不及待地想看看這些激進(jìn)的想法是否奏效?!?/p>

“兩三年前,每個(gè)優(yōu)秀的計(jì)算機(jī)架構(gòu)師都會說——'我可以做到100倍速’。正因如此,我們看到大量解決方案已經(jīng)出現(xiàn),并且提供了各種功能上的改進(jìn),不斷逼近當(dāng)前技術(shù)的極限?!?Chris Rowen表示,他曾經(jīng)是MIPS和Tensilica公司的聯(lián)合創(chuàng)始人,現(xiàn)在又創(chuàng)建了一家人工智能軟件公司BabbleLabs。

hangye-1.jpeg

AI基準(zhǔn)測試遭遇初創(chuàng)公司冷落

處理器設(shè)計(jì)的復(fù)興給人們帶來的一大挫折就是漫長的等待。

去年5月,百度和谷歌公布了MLPerf基準(zhǔn),以一種公平的方式來衡量“幾十家”初創(chuàng)公司開發(fā)的芯片。該項(xiàng)目負(fù)責(zé)人Patterson表示:“結(jié)果有點(diǎn)令人失望,沒有一家初創(chuàng)公司提交第一個(gè)迭代的結(jié)果。”

“也許他們有戰(zhàn)略方面的考慮。但又不禁讓人懷疑,他們是不是在開發(fā)芯片的過程中遇到了問題,還是芯片性能沒有達(dá)到他們的預(yù)期,又或者是他們的軟件不夠成熟,無法很好地運(yùn)行這些基準(zhǔn)測試?”

這個(gè)訓(xùn)練基準(zhǔn)測試采用了ResNet-50,第一個(gè)測試結(jié)果顯示,谷歌TPUv3在從8個(gè)芯片擴(kuò)展到256個(gè)芯片的過程中,性能擴(kuò)展幾乎可以達(dá)到100%,相比之下,NVIDIA Volta在從8個(gè)芯片擴(kuò)展到640個(gè)芯片的過程中,性能擴(kuò)展了大約27%。

Patterson解釋說,TPU之所以占據(jù)優(yōu)勢,是因?yàn)樗梢宰鳛槎嗵幚砥髟谧约旱木W(wǎng)絡(luò)上運(yùn)行。相比之下,NVIDIA Volta則是運(yùn)行在x86集群上的。

Patterson希望未來MLPerf之于AI加速器就像Spec之于CPU。第二批訓(xùn)練結(jié)果預(yù)計(jì)將在今年晚些時(shí)候公布。針對數(shù)據(jù)中心和邊緣推理工作的MLPerf基準(zhǔn)測試也將在今年首次亮相。

與此同時(shí),也有研究人員警告稱,AI芯片行業(yè)過于關(guān)注峰值性能。“我們認(rèn)為峰值性能沒有什么用,因?yàn)榉逯敌阅軟]有考慮到效率上的差異,”帝國理工學(xué)院Erwei Wang博士這樣表示,最近他和同事共同撰寫了一份關(guān)于人工智能加速器的研究報(bào)告。他指出,“人們應(yīng)該公布的是標(biāo)準(zhǔn)數(shù)據(jù)集和基準(zhǔn)測試的持續(xù)性能結(jié)果,以便更好地對比不同的架構(gòu)?!毕聢D為MLPerf在12月發(fā)布的初步結(jié)果采樣。

hangye-2.jpeg

分析師:格局尚不明朗

有分析師抱怨說,包括Graphcore和Wave Computing等在內(nèi)的知名初創(chuàng)公司到目前為止都沒能提供性能數(shù)據(jù)。唯一的例外是Habana Labs。

The Linley Group分析師Linley Gwennap表示,該初創(chuàng)公司“似乎有一些真實(shí)的數(shù)據(jù),在白皮書中詳細(xì)說明其性能是NVIDIA GPU的3到5倍......但他們最初關(guān)注的是推理任務(wù),而非訓(xùn)練?!?/p>

對此,Moor Insights&Strategy分析師Karl Freund也指出,目前來自初創(chuàng)公司的性能數(shù)據(jù)確實(shí)“少得可憐”。

其中,Habana只是在采樣階段,Wave宣稱已有客戶采用,Graphcore表示會在4月之前出貨芯片產(chǎn)品,Groq可能會在4月北京舉行的一個(gè)活動上第一次亮相,其他初創(chuàng)公司則可能會于9月在舊金山舉行的一次活動上發(fā)布產(chǎn)品。

有幾家中國初創(chuàng)公司——例如Cambricon和Horizon Robotics,讓我們看到了一些希望,這些公司先于美國的同類企業(yè)進(jìn)入市場,專注于人工智能推理領(lǐng)域。

Freund表示:“由于目前在推理領(lǐng)域還沒有巨頭出現(xiàn),所以會掀起一股淘金熱,但我不知道是否有初創(chuàng)公司能夠在訓(xùn)練領(lǐng)域向NVIDIA GPU發(fā)起挑戰(zhàn),因?yàn)橹皇窃谝粋€(gè)產(chǎn)品周期內(nèi)你無法扭轉(zhuǎn)競爭形勢,企業(yè)需要可持續(xù)的領(lǐng)先地位。

他說:“唯一一個(gè)真正在訓(xùn)練領(lǐng)域站穩(wěn)腳跟的是英特爾,英特爾已經(jīng)推出了Nervana芯片,他們正在等待合適的時(shí)機(jī),因?yàn)槿绻皇怯幸欢袽AC和降低了的精度,立刻會被NVIDIA秒殺。他們需要解決內(nèi)存帶寬和擴(kuò)展問題?!?/p>

在這場競賽中,英特爾可以說是多管齊下。英特爾的一位AI軟件經(jīng)理表示,與他工作關(guān)系最緊密的,就是至強(qiáng)處理器和前蘋果及AMD GPU大師Raja Koduri設(shè)計(jì)的新GPU。

英特爾最新的Cascade Lake至強(qiáng)處理器中增添了很多新功能,用以加速人工智能。我們預(yù)計(jì),英特爾將不再需要GPU或加速器,但也不會放棄與GPU和加速器在性能或效率方面的競爭。

而對于NVIDIA來說,他們正在將最新的12納米處理器封裝到各種工作站、服務(wù)器和機(jī)架系統(tǒng)中。有人說,NVIDIA在AI訓(xùn)練方面遙遙領(lǐng)先,甚至可以把7納米產(chǎn)品保留到2020年之后再推出。

除了,NVIDIA之外,許多大廠商也都在基于專有的互連技術(shù)、封裝技術(shù)、編程工具和其他技術(shù)構(gòu)建競爭生態(tài)系統(tǒng)。其中,英特爾涉及的技術(shù)領(lǐng)域最廣泛,包括專有的處理器互連、針對Optane DIMM的內(nèi)存協(xié)議、網(wǎng)絡(luò)框架、以及新興的EMIB和Foveros芯片封裝。

AMD、Arm、IBM和Xilinx則圍繞CCIX(用于極速器的一種緩存一致性互連技術(shù))和GenZ(一種內(nèi)存鏈接技術(shù))進(jìn)行聯(lián)手。最近,英特爾還發(fā)布了一種針對加速器和內(nèi)存的更開放的處理器互連技術(shù)——CXL,但到目前為止,CXL仍然缺少對CCIX和GenZ的第三方支持。下圖為AI芯片初創(chuàng)公司列表。

hangye-3.jpeg

數(shù)據(jù)中心試水DIY芯片

當(dāng)初創(chuàng)公司爭相在服務(wù)器系統(tǒng)中為自己的芯片占據(jù)一席之地的時(shí)候,一些企業(yè)卻在部署他們自己研發(fā)的加速器。

比如:谷歌已經(jīng)在使用第三代TPU,該版本采用了液體冷卻技術(shù),運(yùn)行平穩(wěn);百度去年也宣布推出了自己的首款芯片;亞馬遜表示將在今年晚些時(shí)候推出首款芯片;Facebook正在組建一支半導(dǎo)體團(tuán)隊(duì);阿里巴巴則在去年收購了一家處理器專業(yè)公司。

大多數(shù)廠商對其芯片的架構(gòu)和性能都非??量獭0俣缺硎?,將發(fā)布針對訓(xùn)練和推理任務(wù)的不同版本14納米“昆侖”芯片,可以提供260 TOPS性能,功耗為100 W,其中封裝了數(shù)千個(gè)核心,總內(nèi)存帶寬為512 GB/s。亞馬遜方面表示,Inferentia將實(shí)現(xiàn)數(shù)百TOPS的推理吞吐量,多個(gè)芯片聚合在一起可以實(shí)現(xiàn)數(shù)千TOPS性能。

“很多初創(chuàng)公司都是以面向超大規(guī)模數(shù)據(jù)中心售賣芯片為目標(biāo)開展業(yè)務(wù)的,而現(xiàn)在,這可能行不通了,”二級公有云服務(wù)商Packet公司首席執(zhí)行官Zac Smith這樣表示。

我們可能永遠(yuǎn)也看不到云計(jì)算巨頭設(shè)計(jì)芯片的拆解細(xì)節(jié),但是有一些公開信息描述了很多嵌入塊的情況。Linley Group分析師Mike Demler表示,這些嵌入塊展現(xiàn)了從改進(jìn)后的DSP和GPU模塊,到使用乘法累加數(shù)組,再到數(shù)據(jù)流體系結(jié)構(gòu)的演變,這種架構(gòu)將生成的信息從神經(jīng)網(wǎng)絡(luò)的一個(gè)層面?zhèn)鬟f到另一個(gè)層面。

和三星最新公布的Samsung Exynos中的AI模塊一樣,很多芯片都轉(zhuǎn)向重度使用網(wǎng)絡(luò)修剪和量化技術(shù),運(yùn)行8位和16位操作以優(yōu)化效率和網(wǎng)絡(luò)稀疏性。

對網(wǎng)絡(luò)進(jìn)行修剪將變得越來越重要。卷積神經(jīng)網(wǎng)絡(luò)(CNN)之父Yann LeCun表示,神經(jīng)網(wǎng)絡(luò)模型只會越變越大,這就要求性能越來越高。不過他指出,神經(jīng)網(wǎng)絡(luò)模型可以被極大程度上進(jìn)行修剪,特別是考慮到人類大腦最大限度上只被激活了2%。

他在最近一篇針對芯片設(shè)計(jì)人員的論文中,呼吁開發(fā)能夠處理極其稀疏網(wǎng)絡(luò)的芯片?!霸诖蠖鄶?shù)情況下,芯片單元都是處于關(guān)閉狀態(tài)的,事件驅(qū)動型的硬件具有一定的優(yōu)勢,如此一來,只有激活的單元才會消耗資源?!彼@樣寫道。

“遞歸神經(jīng)網(wǎng)絡(luò)是最稀疏的,因此,使用細(xì)粒度修剪也是最有效的。有50%-90%的修剪都是針對CNN的,但是芯片設(shè)計(jì)人員要面對支持細(xì)粒度修剪不規(guī)則性和靈活性方面的挑戰(zhàn)?!钡蹏砉W(xué)院研究員Erwei Wang這樣表示。

減少權(quán)重?cái)?shù)量和降低精度有助于減少內(nèi)存需求。Wang說,英特爾的至強(qiáng)芯片和其他很多芯片已經(jīng)在使用8位整數(shù)數(shù)據(jù)執(zhí)行推理任務(wù),而FPGA和嵌入式芯片正在向4位甚至二進(jìn)制精度發(fā)展。

這么做是為了讓處理操作盡可能靠近內(nèi)存所在位置,避免片外訪問。理想情況下,這意味著能夠在寄存器內(nèi)部或者至少是在緩存內(nèi)部進(jìn)行計(jì)算。

LeCun甚至在他的論文中設(shè)想了一種將內(nèi)存和處理單元結(jié)合起來的可編程寄存器。

“為了讓深度學(xué)習(xí)系統(tǒng)具備推理能力,深度學(xué)習(xí)系統(tǒng)需要一種短期內(nèi)存作為情景內(nèi)存......這樣的內(nèi)存會變得非常普及,而且非常龐大,亟需硬件方面的支持?!彼@樣寫道。下圖為根據(jù)研究員Erwei Wang及其同事最近對可編程架構(gòu)的研究調(diào)查現(xiàn)實(shí),性能差異是很大的。

hangye-4.jpeg

MAC單元之外所需的靈活性

如果必須遠(yuǎn)離芯片,那就把大量請求批量處理成幾個(gè)較大的請求,這已經(jīng)是一種很流行的技術(shù)。Patterson注意到谷歌最近發(fā)表了一篇論文,對于批量操作最理想大小的討論帶來了一些啟發(fā)。

Patterson表示:“如果你小心操作的話,會在某個(gè)區(qū)域內(nèi)得到最理想的加速,然后當(dāng)你增加批量處理規(guī)模的時(shí)候,就會發(fā)現(xiàn)收益出現(xiàn)遞減,然后在很多模型中都表現(xiàn)平平。”

LeCun在論文中警告說:“我們需要新的硬件架構(gòu),這些架構(gòu)在批量處理大小為1的時(shí)候可以高效運(yùn)行。這意味著我們完全不需要依賴于矩陣產(chǎn)品作為最低層級的操作工具?!边@一理論無疑是對目前芯片核心的多架構(gòu)單元的某種終結(jié)。

鑒于現(xiàn)在還是深度學(xué)習(xí)的早期發(fā)展階段,最重要的指導(dǎo)方針是保持靈活性,以及在可編程性和性能之間尋求平衡。

“我們吸取到的教訓(xùn)是,神經(jīng)網(wǎng)絡(luò)是持續(xù)演化的,你無法對神經(jīng)網(wǎng)絡(luò)的維度做出假設(shè),但又希望在各個(gè)方面都能保持高效。”負(fù)責(zé)開發(fā)Eyeriss芯片的Vivienne Sze這樣表示。

Wang說,在深度學(xué)習(xí)發(fā)展演化的過程中,F(xiàn)PGA將發(fā)揮重要的作用,這就要求硬件具備靈活性。他看好Xilinx的Versal ACAP,這是一種FPGA與硬件的混合體。

Wang提出的LUTNet研究探索了如何在無需維護(hù)索引的前提下定制查找表,以作為處理細(xì)粒度修剪的推理核心。他表示,這將讓推理任務(wù)所需的芯片減少一半。

這可以說是一個(gè)新穎的想法,很多企業(yè)已經(jīng)在這方面進(jìn)行實(shí)踐。例如,東芝最近推出了一種ADAS加速器,其94.5平方毫米的芯片中封裝了4個(gè)Cortex-A53核心,2個(gè)Cortex-R4、4個(gè)DSP、8個(gè)專用加速器模塊。

總的來說,對于AI芯片領(lǐng)域,我們還有非常大的想象空間,可以說,好戲才剛剛開始。