這些AI新品的發(fā)布將會提升英特爾在人工智能領(lǐng)域的地位,與英偉達和AMD展開競爭。
英偉達發(fā)布了目前最強的AI芯片H200,性能較H100提升了60%到90%,還能和H100兼容
一個月前,在英偉達通過財務(wù)會議放出的技術(shù)路線圖中,可以看到GH200 GPU和H200 GPU加速器將作為“Blackwell”GB100 GPU和B100 GPU之前的過渡產(chǎn)品,而Blackwell家族計劃在明年年內(nèi)推出。
HPE與英偉達表示正為客戶提供構(gòu)建模塊,可用于組裝同布里斯托大學(xué)Isambard-AI超級計算機同架構(gòu)的迷你版本,用以訓(xùn)練生成式AI和深度學(xué)習項目。
10月19日 - 10月20日,由 NVIDIA 主辦的 NVIDIA 初創(chuàng)企業(yè)展示 · 半程展示在雅安大數(shù)據(jù)產(chǎn)業(yè)園成功舉辦。
10 月 17 日,這本由 NVIDIA 撰寫的“武林秘籍”——《數(shù)據(jù)處理器: DPU 編程入門》終于現(xiàn)世。
對于過去幾代產(chǎn)品而言,兩年一更新的速度足以保持競爭優(yōu)勢。但根據(jù)本月早些時候投資者們看到的演示文稿,英偉達手中除了B100這張王牌,還有將Arm核心與Blackwell架構(gòu)匹配打造的全新“超級芯片”,外加L40及L40S的迭代產(chǎn)品。
英偉達宣布與量子計算芯片廠商SEEQC建立合作,在量子計算機與GPU之間開發(fā)首個芯片到芯片的數(shù)字鏈接,并確保與一切量子計算范式相兼容。
Omdia發(fā)布統(tǒng)計,認為在一定時期之內(nèi),服務(wù)器市場將繼續(xù)以GPU為最主要的核心組件。這家市場研究機構(gòu)估計,單英偉達H100 GPU這一款產(chǎn)品在今年第二季度的出貨量就超過了900噸。
最近一段時間,Hot Interconnects、Hot Chips、Google Cloud Next和Meta Networking@Scale等重量級會議先后亮相。借此機會,我們打算通過本文以更有條理的方式對資訊亮點做一番整理,聊聊并深入分析我們聽到和看到的這些豐富內(nèi)容。
8 月 31 日,由 NVIDIA 主辦的 2023 NVIDIA 初創(chuàng)企業(yè)展示華南分站(香港)專場成功舉辦。
8 月 24 日,2023 NVIDIA 初創(chuàng)企業(yè)展示華東區(qū)的首站路演活動于上海圓滿收官。
Mipsology的團隊將幫助AMD提高該公司CPU、GPU和自適應(yīng)芯片的人工智能軟件開發(fā)方面的推理能力。
VMware 與NVIDIA 為企業(yè)開啟生成式AI時代打開了一條快速通道,賦予私有化部署生成式AI的能力,幫助企業(yè)獲取AI應(yīng)用的差異化優(yōu)勢。
如果情況真如英偉達及其他眾多科技企業(yè)預(yù)料的那樣,即大語言模型會成為新的編程模型基礎(chǔ),那么混合CPU-GPU計算引擎就將是新的通用計算平臺。
英偉達創(chuàng)始人兼首席執(zhí)行官黃仁勛在SIGGRAPH年會上發(fā)布了專為生成式 AI 打造的下一代 GH200 Grace Hopper 平臺
英偉達今天首次推出了GH200 Grace Hopper芯片的升級版,它將使企業(yè)能夠運行更復(fù)雜的語言模型。
近日微軟表示,ND H100 v5虛擬機系列將上線Azure云平臺,為客戶訓(xùn)練和運行大模型提供支持。
Amazon EC2 P5實例則采用8個英偉達H100 Tensor Core GPU,具有640 GB高帶寬GPU內(nèi)存,同時提供第三代AMD EPYC處理器、2TB系統(tǒng)內(nèi)存和30TB本地NVMe存儲。