輝達推出企業級AI伺服器RTX PRO。資料照
AI霸主輝達繼推出機器人新大腦後,黃仁勳預告的「規模最大」的企業級AI伺服器RTX PRO 伺服器也正式上陣,採用全新 RTX PRO 6000 Blackwell 伺服器版本 GPU,較H100 GPU提升3倍,對比傳統CPU伺服器效能提升更達45倍, 迪士尼、鴻海、日立、現代汽車、禮來、SAP 及台積電等全球領導企業率先採用,將加速 AI 推理、物理 AI 與企業工作負載。
輝達伺服器台廠供應鏈,包括:鴻海、神達、華碩、和碩、英業達、仁寶、技嘉、緯創、研華等也全數入列,也是首次電子五哥全數到齊。
輝達執行長黃仁勳表示,AI 時代已經來臨,企業無法再單依靠傳統伺服器,而是必須為 AI 重新設計架構。輝達RTX PRO 正是專為此刻而打造的運算平台,既能執行現今的 IT 工作負載,同時又能驅動將徹底改變每家公司、每個產業的 AI 代理。
台積電董事長魏哲家表示,半導體是 AI 的支柱,其推動的突破性發展正在重新定義各行各業。透過與輝達的緊密合作,台積電正以 Blackwell 驅動的 AI 工廠推進半導體製造,並最佳化晶圓廠營運,包括採用最新的 RTX PRO 伺服器,進一步提升整個產業的效率與創新。
黃仁勳在今年COMPUTEX展預告將推出「規模最大」、「銷售通路最廣泛」企業級AI 伺服器RTX PRO Server,從對外公布的資訊,輝達在台灣的伺服器供應廠商,皆已準備陸續量產該產品。
輝達最新公布NVIDIA RTX PRO 伺服器提供多種配置,搭載 RTX PRO 6000 Blackwell 伺服器版本 GPU,包括 Cisco、Dell Technologies、HPE、Lenovo 與 Supermicro,以及研華、安提國際、Aivres、永擎電子、華碩、仁寶、Eviden、鴻海、技嘉、英業達、神達、微星、和碩、雲達、緯創以及緯穎等。電子五哥全數入列。
RTX PRO Server 最多可支援8張輝達最新RTX PRO 6000 Blackwell伺服器版GPU,等於一台RTX PRO Server系統就擁有近20萬個GUDA運算核心和高達800 GB記憶體,記憶體頻寬每秒高達13TB。
NVIDIA Llama Nemotron Super 推理模型在單顆 NVIDIA RTX PRO 6000 GPU 上以 NVFP4 運行時,與在 H100 GPU 上以 FP8 運行時相比,性價比表現最高可提升 3 倍。這使得在更低成本下即可實現更準確的推理。
為開發高效的物理 AI 系統,企業需要先在模擬環境中測試與最佳化其機器人車隊,再部署至實際工廠。NVIDIA RTX PRO 伺服器正透過為數位孿生、模擬及合成資料生成等工作流程,提供相較搭載 NVIDIA L40S GPU 的系統高出最多 4 倍的效能,進一步推動工業 AI 與物理 AI 發展。各大企業採用 NVIDIA RTX PRO 伺服器,無需全面改造既有資料中心,也能從通用運算叢集轉型至 AI 工廠基礎設施。