根據(jù)中國(guó)信息通信研究院和分布式存儲(chǔ)產(chǎn)業(yè)方陣的市場(chǎng)調(diào)研及分析,2021年中國(guó)分布式存儲(chǔ)市場(chǎng)規(guī)模達(dá)到 178 億元,年增長(zhǎng)率達(dá)到 44%,高于中國(guó)企業(yè)級(jí)外置存儲(chǔ)的 25%增長(zhǎng)速度,預(yù)計(jì)未來(lái) 3 年中國(guó)分布式存儲(chǔ)市場(chǎng)規(guī)模仍將保持40%以上的年增長(zhǎng)。
近二十年來(lái),英偉達(dá)一直在研究加速計(jì)算,可以增強(qiáng)CPU,加速專門處理器可以做得更好的工作。
機(jī)密計(jì)算,云計(jì)算中的當(dāng)前方法處理靜態(tài)數(shù)據(jù)和傳輸中的數(shù)據(jù),但對(duì)使用中的數(shù)據(jù)進(jìn)行加密被認(rèn)為是為敏感數(shù)據(jù)提供完全加密的生命周期的第三步,也是最具挑戰(zhàn)性的步驟。機(jī)密計(jì)算專注于保護(hù)使用中的數(shù)據(jù),更多地從應(yīng)用的角度出發(fā)。
目前,AIGC產(chǎn)業(yè)生態(tài)體系的雛形已現(xiàn),呈現(xiàn)為上中下三層架構(gòu):①第一層為上游基礎(chǔ)層,也就是由預(yù)訓(xùn)練模型為基礎(chǔ)搭建的AIGC技術(shù)基礎(chǔ)設(shè)施層。②第二層為中間層,即垂直化、場(chǎng)景化、個(gè)性化的模型和應(yīng)用工具。③第三層為應(yīng)用層,即面向C端用戶的文字、圖片、音視頻等內(nèi)容生成服務(wù)。
Open AI的大型語(yǔ)言生成模型ChatGPT火熱,它能勝任刷高情商對(duì)話、生成代碼、構(gòu)思劇本和小說(shuō)等多個(gè)場(chǎng)景,將人機(jī)對(duì)話推向新的高度。全球各大科技企業(yè)都在積極擁抱AIGC,不斷推出相關(guān)技術(shù)、平臺(tái)和應(yīng)用。
一些 GPU 廠商(不是只有 NVIDIA 一家這么做)將將多個(gè) DDR 芯片堆疊之后與 GPU 封裝到一起 (后文講到 H100 時(shí)有圖),這樣每片 GPU 和它自己的顯存交互時(shí),就不用再去 PCIe 交換芯片繞一圈,速度最高可以提升一個(gè)量級(jí)。這種“高帶寬內(nèi)存”(High Bandwidth Memory)縮寫就是 HBM。
昇騰已經(jīng)在華為云和28 個(gè)城市的智能算力中心大規(guī)模部署,根據(jù)財(cái)聯(lián)社報(bào)道,2022 年昇騰占據(jù)國(guó)內(nèi)智算中心約 79%的市場(chǎng)份額。
在當(dāng)前人工智能技術(shù)飛速發(fā)展的背景下,其在包括自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)、自動(dòng)駕駛系統(tǒng)、虛擬助手服務(wù)、推薦算法以及醫(yī)療診斷在內(nèi)的眾多前沿應(yīng)用中發(fā)揮著至關(guān)重要的作用。隨著AI應(yīng)用的不斷深化與升級(jí),數(shù)據(jù)中心基礎(chǔ)設(shè)施必須應(yīng)對(duì)日益嚴(yán)苛的要求,特別是對(duì)于低延遲、高吞吐量網(wǎng)絡(luò)的需求愈發(fā)迫切,以確保能夠高效處理復(fù)雜且數(shù)據(jù)密集型的工作負(fù)載。
盡管AI芯片種類繁多,GPU因其適應(yīng)性和強(qiáng)大的并行計(jì)算能力,仍是AI模型訓(xùn)練的主流硬件。英偉達(dá)在GPU領(lǐng)域的技術(shù)積累和生態(tài)建設(shè)使其處于領(lǐng)先地位,而國(guó)內(nèi)GPU廠商雖在追趕,但仍存在差距。AI應(yīng)用向云、邊、端全維度發(fā)展,模型小型化技術(shù)成熟,數(shù)據(jù)傳輸需求增加,Chiplet技術(shù)降低設(shè)計(jì)復(fù)雜度和成本。
Nvidia在2023年投資者會(huì)議上展示了其GPU發(fā)展藍(lán)圖,計(jì)劃在2024年推出H200和B100 GPU,2025年推出X100 GPU。其AI芯片更新周期從兩年一次縮短至一年一次,體現(xiàn)產(chǎn)品開(kāi)發(fā)速度加快。Nvidia的“One Architecture”統(tǒng)一架構(gòu)支持不同環(huán)境下的模型訓(xùn)練和部署,適用于數(shù)據(jù)中心和邊緣計(jì)算。同時(shí),Nvidia的技術(shù)路線圖包括HBM3E高速存儲(chǔ)器、PCIE 6.0/7.0、NVLink、224G SerDes、1.6T接口等先進(jìn)技術(shù)。
Universal Chiplet Interconnect Express (UCIe)(R) 是一個(gè)開(kāi)放的行業(yè)互連標(biāo)準(zhǔn),旨在實(shí)現(xiàn)芯片間的封裝級(jí)互連,提供高帶寬、低延遲的連接,適用于云端、邊緣端、企業(yè)等多個(gè)計(jì)算領(lǐng)域。UCIe支持不同晶圓廠、設(shè)計(jì)和封裝方式的Die集成,滿足對(duì)算力、內(nèi)存、存儲(chǔ)和互連日益增長(zhǎng)的需求。
HBM技術(shù)通過(guò)提升I/O口數(shù)量和速率,突破內(nèi)存限制,成為AI芯片的強(qiáng)大輔助。HBM3和HBM3e將成為AI服務(wù)器主流配置,預(yù)計(jì)HBM4將于2026年發(fā)布。全球HBM市場(chǎng)預(yù)計(jì)在2024年超百億美元。HBM采用TSV+Bumping和TCB鍵合方式,但散熱效率低下,海力士引入MR-MUF工藝改善。預(yù)計(jì)HBM4將采用混合鍵合Hybrid Bonding技術(shù),3D封裝的核心是混合鍵合與TSV。
AI大模型通過(guò)大規(guī)模預(yù)訓(xùn)練和微調(diào)實(shí)現(xiàn)通用人工智能,目前正從'大煉模型'向'煉大模型'轉(zhuǎn)變,推動(dòng)多模態(tài)和多場(chǎng)景革命。GPT模型迭代加速,國(guó)內(nèi)企業(yè)如百度、騰訊、阿里在大模型市場(chǎng)占據(jù)優(yōu)勢(shì)。
智算中心的發(fā)展依托最新AI理論和計(jì)算架構(gòu),以AI大模型和算力技術(shù)為核心。GPU主導(dǎo)算力芯片市場(chǎng),AI信創(chuàng)推動(dòng)國(guó)產(chǎn)算力。AI分布式計(jì)算市場(chǎng)由算力芯片、內(nèi)存和互聯(lián)設(shè)備組成。ChatGPT推動(dòng)GPU需求,SK海力士HBM3產(chǎn)量售罄。CoWoS封裝技術(shù)集成HBM與處理器,臺(tái)積電領(lǐng)先封裝市場(chǎng)。AI算力需求推動(dòng)高效電源技術(shù)發(fā)展,背面供電技術(shù)成為關(guān)鍵。
ChatGPT的火爆使生成式AI(AIGC)回歸焦點(diǎn),AIGC指利用AI技術(shù)生成內(nèi)容,涵蓋文本、圖像、音頻等領(lǐng)域。AIGC產(chǎn)業(yè)圖譜V2.0展示了基礎(chǔ)設(shè)施、算法模型、內(nèi)容應(yīng)用等生態(tài)布局。
ARM V9架構(gòu)強(qiáng)調(diào)AI、矢量和DSP性能,已廣泛應(yīng)用于高端智能手機(jī)和數(shù)據(jù)中心芯片,如NVIDIA Grace Hopper、AWS Graviton等。ARM在智能手機(jī)、PC等領(lǐng)域?yàn)锳I賦能,如Arm Cortex-X4芯片。高通基于ARM架構(gòu)推出面向PC的驍龍X Elite處理器。
HBM(高帶寬存儲(chǔ))是一種多層DRAM Die垂直堆疊的存儲(chǔ)技術(shù),通過(guò)TSV技術(shù)實(shí)現(xiàn)高帶寬和小體積。
探討GPU/TPU集群網(wǎng)絡(luò)組網(wǎng)技術(shù),包括NVLink、InfiniBand、ROCE以太網(wǎng)Fabric、DDC網(wǎng)絡(luò)方案。
信創(chuàng)產(chǎn)業(yè)旨在實(shí)現(xiàn)信息技術(shù)領(lǐng)域的自主可控與國(guó)家信息安全,涵蓋基礎(chǔ)硬件、基礎(chǔ)軟件、應(yīng)用軟件、信息安全四部分。重要環(huán)節(jié)包括芯片、整機(jī)、操作系統(tǒng)、數(shù)據(jù)庫(kù)、中間件。文章還介紹了操作系統(tǒng)、中間件、數(shù)據(jù)庫(kù)、固件的概念、分類及發(fā)展歷程,并提供了信創(chuàng)產(chǎn)業(yè)的研究報(bào)告和技術(shù)資料。