台系代工廠各就各位 高階AI伺服器2023年出貨將達17萬台。資料照
生成式AI與大型語言模型(LLM)相關需求爆發,吸引包括大型雲端業者、主要伺服器品牌商皆加入AI伺服器軍備競賽,並將採購重點集中於以採用高頻寬記憶體(HBM)為主的高階AI伺服器。由於封裝HBM所需CoWoS產能不足。DIGITIMES 研究中心預估,今年高階AI伺服器需求與供給將有35%以上的落差,但預估高階AI伺服器出貨量仍將增加5倍,達17.2萬台。
DIGITIMES 研究中心預期2023年全球主要雲端業者與品牌高階AI伺服器出貨量將有8成以上集中於前五大業者,其中,注資Open AI ChatGPT並大量投入生成式AI雲服務的微軟(Microsoft),直接透過代工廠生產的高階AI伺服器出貨將排名第一;長期投入生成式AI也掌握關鍵技術的Google以投入自家研發的TPU (Tensor Processing Unit)做為主攻的高階AI伺服器機種,透過代工廠的產量將排名第二;最積極部署開源LLM模型的Meta出貨將居第三。亞馬遜投入腳步較慢,但也積極與第三方業者合作,預期透過代工廠出貨排名第四。美超微、戴爾、輝達及慧與(HPE)等品牌業者出貨則緊追在大型業者之後。
DIGITIMES 研究中心分析師蕭聖倫指出,高階AI伺服器所採加速器種類方面,預期2023年輝達HGX GPU系列將佔近8成,其中,H100 HGX出貨將略多於A100 HGX;TPU因Google積極採用,佔比將超過1成,其他則主要為PCIe版的NVIDIA 100系列,及少量的NVIDIA GH200與超微(AMD)、英特爾(Intel)等業者的高階GPU。
蕭聖倫認為,高階AI伺服器代工廠出貨方面,預期英業達與美商ZT Systems分別為L6與L10~L12製造的最大贏家,英業達掌握多個大型雲端業者及品牌商訂單,2023年佔L6比重將近6成;ZT Systems則因早期即與大型雲端業者及相關技術提供者合作,具備大型GPU叢集系統整合技術優勢,預期其L10~L12佔比將近5成,而台廠中則以廣達在L10~L12布局最為積極。