OpenAI 已開(kāi)始向其 ChatGPT Plus 用戶推出最新的 AI 模型 GPT-4.5。OpenAI 在 X 平臺(tái)上發(fā)布的一系列帖子中表示,此次推出將持續(xù)“1-3 天”,并預(yù)計(jì)速率限制會(huì)有所變化。
PEAK:AIO推出了一款新的2RU 1.5 PB AI 數(shù)據(jù)服務(wù)器產(chǎn)品,使用戴爾硬件,數(shù)據(jù)傳輸速率達(dá)到120 GBps。PEAK:AIO是一家專注于人工智能的英國(guó)存儲(chǔ)初創(chuàng)公司,提供基于第三方硬件的軟件定義存儲(chǔ),密切管理和控制以降低延遲并提高吞吐量。其2RU服務(wù)器已為中型GPU集群提供40 GBps的傳輸速率,現(xiàn)可實(shí)現(xiàn)三倍的速度。
OpenAI 最近推出了 GPT-4.5,這款新模型在準(zhǔn)確性測(cè)試中表現(xiàn)優(yōu)于之前的版本,能夠更好地理解細(xì)微差別。盡管面臨 GPU 短缺的挑戰(zhàn),OpenAI 仍然致力于將這一模型推向市場(chǎng),并計(jì)劃在未來(lái)推出更先進(jìn)的推理能力模型。
Inception Labs 于周四發(fā)布了 Mercury Coder,這是一種新的 AI 語(yǔ)言模型,利用擴(kuò)散技術(shù)比傳統(tǒng)模型更快地生成文本。與逐字生成文本的傳統(tǒng)模型(如 ChatGPT)不同,基于擴(kuò)散的模型(如 Mercury)能夠同時(shí)生成完整的響應(yīng),并將其從最初的遮蔽狀態(tài)逐步精煉為連貫的文本。
Inception是一家位于帕洛阿爾托的新公司,由斯坦福大學(xué)計(jì)算機(jī)科學(xué)教授Stefano Ermon創(chuàng)立,聲稱開(kāi)發(fā)了一種基于“擴(kuò)散”技術(shù)的新型AI模型,稱為擴(kuò)散基礎(chǔ)的大型語(yǔ)言模型(DLM)。目前備受關(guān)注的生成AI模型大致可分為兩類:大型語(yǔ)言模型(LLMs)和擴(kuò)散模型。Inception的模型結(jié)合了傳統(tǒng)LLMs的功能,如代碼生成和問(wèn)答,但性能顯著更快,計(jì)算成本更低。
高通和諾基亞貝爾實(shí)驗(yàn)室成功展示了多廠商AI模型在無(wú)線網(wǎng)絡(luò)中的互操作性。通過(guò)序列學(xué)習(xí)技術(shù),他們實(shí)現(xiàn)了編碼器和解碼器模型的無(wú)縫協(xié)作,提高了網(wǎng)絡(luò)效率和用戶體驗(yàn)。這項(xiàng)突破性成果為AI在無(wú)線通信領(lǐng)域的應(yīng)用開(kāi)辟了新的可能性,有望顯著提升網(wǎng)絡(luò)容量、可靠性和能源效率。
隨著生成式人工智能和 GPU 加速 AI 訓(xùn)練與推理的興起,數(shù)據(jù)中心仍需關(guān)注 CPU 的重要性,F(xiàn)代化 CPU 不僅可以提升傳統(tǒng)工作負(fù)載性能,還能幫助企業(yè)為昂貴的 AI 基礎(chǔ)設(shè)施投資節(jié)省成本。高性能 CPU 可以顯著提升 AI 推理和訓(xùn)練效率,同時(shí)在某些場(chǎng)景下直接運(yùn)行 AI 算法。企業(yè)應(yīng)考慮采用單插槽服務(wù)器等創(chuàng)新方案,以優(yōu)化數(shù)據(jù)中心架構(gòu)。
Intel 發(fā)布新一代 Xeon 6 處理器,采用性能核心設(shè)計(jì),大幅提升數(shù)據(jù)中心工作負(fù)載性能,AI 處理性能最高提升 2 倍。新處理器還集成了 vRAN Boost 技術(shù),可將無(wú)線接入網(wǎng)絡(luò)處理能力提升至 2.4 倍。此次發(fā)布對(duì) Intel 重塑市場(chǎng)地位至關(guān)重要,公司希望通過(guò)技術(shù)創(chuàng)新和美國(guó)芯片法案支持,重振昔日輝煌。
Voltron Data 與埃森哲建立戰(zhàn)略合作,推出 GPU 加速分析引擎 Theseus,旨在解決 AI 數(shù)據(jù)處理的瓶頸問(wèn)題。該技術(shù)能以更快速度處理海量數(shù)據(jù),顯著提升 AI 項(xiàng)目效率,降低基礎(chǔ)設(shè)施成本。這一合作將幫助企業(yè)應(yīng)對(duì) AI 帶來(lái)的數(shù)據(jù)處理挑戰(zhàn),為金融、零售等行業(yè)帶來(lái)巨大價(jià)值。
DDN 發(fā)布新一代 Infinia 2.0 對(duì)象存儲(chǔ)系統(tǒng),專為 AI 訓(xùn)練和推理設(shè)計(jì)。該系統(tǒng)號(hào)稱可將 AI 數(shù)據(jù)加速提升 100 倍,數(shù)據(jù)中心和云計(jì)算成本效率提高 10 倍。Infinia 2.0 采用鍵值對(duì)架構(gòu),集成多項(xiàng)先進(jìn)技術(shù),旨在消除 AI 工作負(fù)載瓶頸,加速數(shù)據(jù)流,并實(shí)現(xiàn)無(wú)縫擴(kuò)展。
美光發(fā)布新一代PCIe 5.0 SSD - 4600系列,性能翻倍,主打AI PC、游戲玩家和專業(yè)用戶市場(chǎng)。采用276層TLC NAND和PCIe 5.0接口,讀寫速度分別達(dá)14.5GB/s和12GB/s,隨機(jī)讀寫IOPS達(dá)210萬(wàn),延遲大幅降低。搭載多項(xiàng)安全功能,適用于數(shù)據(jù)密集型AI應(yīng)用場(chǎng)景。
高通推出驍龍 6 Gen 4 移動(dòng)處理器平臺(tái),旨在提升游戲和生產(chǎn)力性能。該平臺(tái)具備強(qiáng)大性能、長(zhǎng)續(xù)航和超快 5G 連接,首次支持 Gen AI。預(yù)計(jì)多家知名手機(jī)廠商將在未來(lái)幾個(gè)月推出搭載該芯片的智能手機(jī),為中端市場(chǎng)帶來(lái)全面升級(jí)。
HPE 的 Alletra MP X10000 對(duì)象存儲(chǔ)系統(tǒng)代表了一種新型的可擴(kuò)展存儲(chǔ)硬件,采用了 VAST Data 首創(chuàng)的解耦共享一切(DASE)架構(gòu)。HPE 的全球技術(shù)與戰(zhàn)略架構(gòu)師 Dimitris Krekoukias 在博客中詳細(xì)列出了其主要特性,并解釋了這些特性為何被納入設(shè)計(jì)中。
Nvidia 推出 Spectrum-X 以太網(wǎng)網(wǎng)絡(luò)技術(shù),結(jié)合 InfiniBand 自適應(yīng)路由功能,可顯著提升存儲(chǔ)網(wǎng)絡(luò)性能。測(cè)試表明,在大規(guī)模 AI 訓(xùn)練和推理場(chǎng)景中,該技術(shù)能將存儲(chǔ)網(wǎng)絡(luò)讀取帶寬提高近 50%,有效緩解網(wǎng)絡(luò)擁塞,加速 AI 工作負(fù)載。
Volumez 更新了其云端塊存儲(chǔ)配置服務(wù),通過(guò) DIaaS 產(chǎn)品支持容器化應(yīng)用和生成式 AI。該技術(shù)可以最大化 GPU 利用率,自動(dòng)化 AI 和機(jī)器學(xué)習(xí)流程。Volumez 旨在解決現(xiàn)有 AI 基礎(chǔ)設(shè)施中的存儲(chǔ)效率低下、資源利用不均衡等問(wèn)題,提高性能并簡(jiǎn)化管理,從而加速 AI 項(xiàng)目進(jìn)程。
Alluxio 發(fā)布新版本,專注優(yōu)化 AI 模型訓(xùn)練性能。主要改進(jìn)包括加快數(shù)據(jù)訪問(wèn)、增強(qiáng) Python 集成、優(yōu)化 S3 存儲(chǔ)訪問(wèn)等。這些更新旨在加速模型訓(xùn)練過(guò)程,提高 GPU 利用率,幫助企業(yè)更快地將 AI 模型推向市場(chǎng)。
Ocient 與 AMD 合作,采用第四代 EPYC CPU,將處理能力提升 3.5 倍,內(nèi)存吞吐量翻倍。這一升級(jí)不僅顯著提高了數(shù)據(jù)分析性能,還降低了運(yùn)營(yíng)成本和能耗,為企業(yè)應(yīng)對(duì) AI 和大數(shù)據(jù)分析的挑戰(zhàn)提供了強(qiáng)有力的支持。
OpenZFS 2.3.0 版本推出了多項(xiàng)新功能,包括 RAID 擴(kuò)展和更快的數(shù)據(jù)重復(fù)刪除。該版本將出現(xiàn)在包含 ZFS 的 Linux 發(fā)行版中,并最終進(jìn)入 FreeBSD。新功能包括 RAID 擴(kuò)展、快速重復(fù)數(shù)據(jù)刪除和直接 IO 支持,提高了存儲(chǔ)系統(tǒng)的靈活性和性能。
MariaDB 發(fā)布新版企業(yè)平臺(tái),引入原生矢量搜索功能,支持 AI 應(yīng)用開(kāi)發(fā)。新版本還增強(qiáng)了 JSON 支持、升級(jí)工具和查詢優(yōu)化器,旨在簡(jiǎn)化數(shù)據(jù)庫(kù)架構(gòu),提升性能和可用性。這一更新標(biāo)志著 MariaDB 在私有化后重新聚焦產(chǎn)品創(chuàng)新,以滿足市場(chǎng)對(duì) AI 和云原生技術(shù)的需求。
TigerGraph 發(fā)布圖數(shù)據(jù)庫(kù)云平臺(tái)重大更新 Savanna,網(wǎng)絡(luò)部署速度提升 6 倍,新增多項(xiàng)功能。升級(jí)后的平臺(tái)可獨(dú)立擴(kuò)展存儲(chǔ)和計(jì)算能力,無(wú)規(guī)模限制,以滿足 AI 工作負(fù)載需求。新版本還提供 9 種預(yù)配置解決方案,優(yōu)化了資源消耗模型,支持更多數(shù)據(jù)源和查詢語(yǔ)言。