Back
{{newsDetailData.type}}
{{newsDetailData.date}}
{{productlineTag.title}} ,
美國加州聖荷西2026年3月16日全球伺服器技術領導者MSI微星科技今日宣布推出 XpertStation WS300,採用NVIDIA DGX Station架構的次世代桌邊型AI超級電腦,專為因應大型語言模型(LLMs)、生成式AI與進階資料科學工作流程快速成長的運算需求而打造。XpertStation WS300搭載 NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip,並支援最高748GB大容量一致性記憶體與雙埠400GbE高速網路連接,將資料中心級AI基礎架構能力延伸至輕巧靈活的桌邊部署模式,即日起開放全球訂購。
「MSI致力於推動AI優先的運算架構發展,」MSI微星科技企業平台解決方案總經理許言聞表示。「透過與NVIDIA的合作,我們正共同打造新一代AI基礎設施,結合集中式運算效能與分散式創新能力,協助企業更快速地將AI從實驗階段推進到實際部署。」
將資料中心級AI導入桌邊環境
XpertStation WS300 整合最高748GB的大容量一致性記憶體,將高頻寬HBM3e GPU記憶體與LPDDR5X CPU記憶體整合於統一網域,實現CPU與GPU之間的高效資料共享,支援大規模AI模型的訓練與微調。
在網路連接方面,平台搭載 NVIDIA ConnectX-8 SuperNIC,提供雙埠400GbE連接能力,總頻寬可達800Gb/s,有效支援分散式AI工作負載與多節點擴展。系統並採用高速PCIe Gen5與Gen6 NVMe儲存架構,可加速大型資料集導入與AI資料傳輸運作,確保在密集訓練與推理任務中維持穩定的運算資源利用率。結合對NVIDIA AI Software Stack的完整支援,該平台為企業提供從桌邊開發到資料中心部署的整合式AI運算基礎。
從模型開發到部署,全面擴展AI工作流程
XpertStation WS300 支援完整的AI生命週期,涵蓋大規模模型訓練、資料密集型分析、即時推理,以及新興的物理AI(Physical AI)與機器人工作負載。透過高吞吐運算能力,平台可協助企業加速深度學習模型開發、高效處理巨量資料集,並在本地端執行複雜AI運算任務。
此外,系統亦可作為團隊共享的AI運算節點,用於協作式模型微調與按需求部署,在提升AI開發與營運靈活性的同時,確保企業對自有資料與智慧財產的完整掌控。透過將資料中心級AI效能延伸至桌邊部署環境,XpertStation WS300協助企業在具備基礎架構一致性與可靠性的前提下,加速將AI專案從實驗階段推進至正式生產環境。
支援自主AI代理(AI Agents)
NVIDIA NemoClaw 是一套開源技術堆疊(open-source stack),透過部署 OpenShell 執行環境並結合策略控管沙盒(Policy-controlled Sandbox),讓自主AI代理能在更安全的環境中持續運作。開發者可在XpertStation WS300上運行OpenShell,利用最高20 petaFLOPS的AI運算效能與748GB記憶體,在本地端執行兆級參數模型,打造可於桌邊長時間運行的AI代理系統,降低對雲端基礎架構的依賴。