AI 訓(xùn)練集群帶來 GPU 互聯(lián)需求,新增后端網(wǎng)絡(luò)組網(wǎng)需求。AI 服務(wù)器比傳統(tǒng)服務(wù)器新增 GPU 模組,GPU 模組通過對應(yīng)的網(wǎng)卡與其他服務(wù)器或交換機(jī)互聯(lián),實(shí)現(xiàn)各節(jié)點(diǎn)之間的通信。因此相比傳統(tǒng)網(wǎng)絡(luò)架構(gòu),AI 服務(wù)器組網(wǎng)增加后端網(wǎng)絡(luò)組網(wǎng)(Back End),增加了每臺服務(wù)器的網(wǎng)絡(luò)端口數(shù)量,拉動(dòng)對高速交換機(jī)、網(wǎng)卡、光模塊、光纖光纜等組件需求。