IBM的Vela AI超級計算機(jī)功能已經(jīng)不足以滿足IBM研究院的AI訓(xùn)練需求。
與此前的積極預(yù)期相符,AMD再次上調(diào)了旗下Instinct MI300系列GPU產(chǎn)品的銷售預(yù)期。同時隨著其“Antares”系列計算引擎在第二季度的收入突破10億美元,該公司預(yù)計2024年全年此類設(shè)備的銷售總額將一舉超過45億美元。
英偉達(dá)CEO黃仁勛和Meta CEO馬克·扎克伯格,在美國丹佛舉行的第50屆SIGGRAPH圖形大會上進(jìn)行了一場關(guān)于生成式AI的對話,并且他們還互贈了皮衣。
隨著AI技術(shù)和應(yīng)用的爆炸式增長,人們正在大步邁入智能世界,大家也期望一個全新的數(shù)據(jù)中心來支撐 AI 時代的到來,那么未來數(shù)據(jù)中心是一個什么樣子?
雖然這筆錢并不算多,但足夠讓AMD的工程師們有機(jī)會考慮整個美國的未來,并為如今強(qiáng)大的CPU與GPU業(yè)務(wù)埋下種子。
用于連接 GPU 服務(wù)器中的 8 個 GPU 的 NVLink 交換機(jī)也可以用于構(gòu)建連接 GPU 服務(wù)器之間的交換網(wǎng)絡(luò)。Nvidia 在 2022 年的 Hot Chips 大會上展示了使用 NVswitch 架構(gòu)連接 32 個節(jié)點(或 256 個 GPU)的拓?fù)浣Y(jié)構(gòu)。由于 NVLink 是專門設(shè)計為連接 GPU 的高速點對點鏈路,所以它具有比傳統(tǒng)網(wǎng)絡(luò)更高的性能和更低的開銷。
近二十年來,英偉達(dá)一直在研究加速計算,可以增強(qiáng)CPU,加速專門處理器可以做得更好的工作。
戴爾科技副總裁董事長兼首席運營官Jeff Clarke在2024年戴爾科技世界大會上表示,如果說GPU是AI系統(tǒng)的大腦、網(wǎng)絡(luò)是其心臟,那么存儲就是AI的呼吸與脈搏。
忘記Nvidia用了30年才一夜成名的事實吧,它最近令人難以置信的崛起似乎有點泡沫的潛質(zhì)。
蘇姿豐表示,Zen 5核心是AMD公司有史以來設(shè)計出的性能最強(qiáng)、能效最高的核心,而且完全是從零開始打造而成。
作為八大科技巨頭共同打造的、用于對抗英偉達(dá)的交換技術(shù),讓GPU巨頭采用UALink當(dāng)然有點荒謬。但誰知道呢,畢竟技術(shù)行業(yè)從來不缺少出人意料的故事。
在最初的興奮,到2022年對元宇宙的失望,而現(xiàn)在情況又開始好轉(zhuǎn)。這一變化是由于計算機(jī)設(shè)備制造商取得的進(jìn)展。就好像我們即將獲得“空間計算的iPhone”,它可以真正以我們可以觸摸和感受的方式將這些數(shù)字世界帶入生活。
Nvidia今天透露,已經(jīng)收購了Run:ai,一家開發(fā)優(yōu)化顯卡集群性能軟件的初創(chuàng)公司。
一些 GPU 廠商(不是只有 NVIDIA 一家這么做)將將多個 DDR 芯片堆疊之后與 GPU 封裝到一起 (后文講到 H100 時有圖),這樣每片 GPU 和它自己的顯存交互時,就不用再去 PCIe 交換芯片繞一圈,速度最高可以提升一個量級。這種“高帶寬內(nèi)存”(High Bandwidth Memory)縮寫就是 HBM。
曾幾何時,或者說就在短短幾年之前,數(shù)據(jù)中心芯片市場還是個資金門檻極高但卻相對簡單的市場。CPU戰(zhàn)團(tuán)主要有英特爾、AMD和Arm,GPU陣營則是英偉達(dá)、AMD和英特爾等廠商的舞臺。盡管AI初創(chuàng)公司數(shù)量可觀,但普遍并未在數(shù)據(jù)中心領(lǐng)域建立起真正的話語權(quán)。
維諦Vertiv(NYSE:VRT)作為關(guān)鍵基礎(chǔ)設(shè)施和連續(xù)性解決方案的全球領(lǐng)導(dǎo)者,加入英偉達(dá)NVIDIA生態(tài)伙伴網(wǎng)絡(luò)(NPN),并成為解決方案顧問合作伙伴。這一合作將維諦Vertiv豐富的專業(yè)知識以及全系列電力與制冷解決方案進(jìn)行更廣泛的應(yīng)用和推廣。
可以看到,單純將Hopper替換為Blackwell并不是最好的答案。根據(jù)英偉達(dá)方面的解釋,只有在配合一系列正確舉措之后,推理性能提升至30倍、推理功耗降低至1/25的結(jié)果才有可能實現(xiàn)。
日前在圣何塞舉行的2024年GPU技術(shù)大會上公布的英偉達(dá)“Blackwell”GPU,是這家計算引擎制造商推出的第七代、也是最令人印象深刻的數(shù)據(jù)中心級GPU。GPU計算浪潮始于2000年代中期,并隨著2012年5月“Kepler”K10與K20加速器的推出而變得愈發(fā)清晰具體。
盡管AI芯片種類繁多,GPU因其適應(yīng)性和強(qiáng)大的并行計算能力,仍是AI模型訓(xùn)練的主流硬件。英偉達(dá)在GPU領(lǐng)域的技術(shù)積累和生態(tài)建設(shè)使其處于領(lǐng)先地位,而國內(nèi)GPU廠商雖在追趕,但仍存在差距。AI應(yīng)用向云、邊、端全維度發(fā)展,模型小型化技術(shù)成熟,數(shù)據(jù)傳輸需求增加,Chiplet技術(shù)降低設(shè)計復(fù)雜度和成本。
如果大家每天需要處理數(shù)百萬億次AI模型執(zhí)行,并在生成式AI步入主流的背景下時刻準(zhǔn)備將這樣的負(fù)載規(guī)模再提升一、兩個數(shù)量級,那GPU就是各位不可或缺的戰(zhàn)略資源。Meta Platforms明顯就是這樣,他們正拿出大筆財務(wù)預(yù)算,想要用“鈔能力”從英偉達(dá)手中奪取顯卡產(chǎn)能。