4/03/2023,光纖在線訊,國信證券今天發(fā)布的研報(bào)“通信行業(yè) 2023 年 4 月投資策略——關(guān)注 AI 基礎(chǔ)設(shè)施投資機(jī)會”對ChatGPT帶來的包括光模塊在內(nèi)的人工智能AI基礎(chǔ)設(shè)施進(jìn)行了推算。
該份報(bào)告的關(guān)鍵相關(guān)內(nèi)容包括:
和傳統(tǒng)的數(shù)據(jù)中心的區(qū)別在于,在AI常見的Infini Band fat tree 結(jié)構(gòu)下,使用的交換機(jī)數(shù)量更多,且因?yàn)槊總節(jié)點(diǎn)上行下行的端口數(shù)完全一致。
英偉達(dá)所采用的 AI 集群模型中,對應(yīng)的一個基本單元為 SuperPOD。一個標(biāo)準(zhǔn)的 SuperPOD 由 140 臺 DGX A100 GPU 服務(wù)器、HDR InfiniBand 200G 網(wǎng)卡和 170 臺 NVIDIA Quantum QM8790 交換機(jī)構(gòu)建而成,其中交換機(jī)速率為 200G,每個端口數(shù)為 40 個。
基于英偉達(dá)方案,一個 SuperPOD 170個交換機(jī),每個交換機(jī)有 40 個端口,最簡單方式上下各70 臺服務(wù)器,依次端口互聯(lián)(上下 1:1 連接)對應(yīng)的線纜需求為 40×170/2=3400 根,考慮實(shí)際部署情況上調(diào)至 4000 根線纜需求。其中,銅纜:AOC:光模塊比例=4:4:2,對應(yīng)光模塊需求數(shù)量=4000*0.2*2=1600 個,即對于一個SuperPod,服務(wù)器:交換機(jī):光模塊的用量比例=140:170:1600=1:1.2:11.4
一個類似 GPT4.0 入門級別要求的需求大約需要3750 臺 NVIDIA DGX A100服務(wù)器。在此條件下的光模塊需求如下表:
根據(jù) IDC 數(shù)據(jù),2021 年全球 AI 服務(wù)器市場規(guī)模為 156 億美元,預(yù)計(jì)到 2026 年全球 AI 服務(wù)器市場將達(dá)到 355 億美元;2021 年中國 AI 服務(wù)器行業(yè)市場規(guī)模為 64 億美元。
根據(jù) IDC 數(shù)據(jù),數(shù)據(jù)中心場景中,200/400G 端口出貨量有望快速提升,22-26 年復(fù)合增速達(dá) 62%,預(yù)計(jì) 2026年全球交換機(jī)端口出貨量超 8.7 億個,市場規(guī)模超 440 億美元。
讀完這份報(bào)告,不得不佩服券商研究員的敏銳和深入。他們從AI數(shù)據(jù)中心架構(gòu)出發(fā)推演出服務(wù)器,交換機(jī)和光模塊的需求量。在這個推算過程中,編輯存疑的其實(shí)只有4:4:2這個比例關(guān)系。數(shù)據(jù)中心內(nèi)對光模塊的使用歸根到底還是和流量需求直接相關(guān)。這個比例很可能只存在在滿負(fù)荷工作的情況下,而現(xiàn)在AI數(shù)據(jù)中心內(nèi)業(yè)務(wù)流量到底如何,還是值得問問的。