聯發科AI研發中心啟用,導入輝達NVIDIA DGX B200 平台。陳俐妏攝
拚AI進程催油門,聯發科啟動AI算力新布局,今天(5/7)首次公開在苗栗自家打造的研發中心,強攻邊緣與雲端AI核心引擎,且AI算力Token需求翻倍,透過導入輝達NVIDIA DGX B200 SuperPOD平台,加速大規模AI模型訓練與推論。每月可處理1380億個Token,達成超過2.4萬次模型訓練迭代,用於研發高階產品,這座研發中心更是全台首座大規模浸沒式冷卻資料中心。
聯發科今天宣布啟用座落於苗栗銅鑼科學園區的研發資料中心,規劃分為三期建置,第一期於今年完工啟用,未來將依不同階段的業務,長與實際需求,彈性逐步投入建置資源。
此研發中心是全台首座以NVIDIA DGX B200平台驅動NVIDIA DGX SuperPOD運算叢集為核心,兼具擴展性、成本效益且安全可靠的AI訓練與推論平台。相關方案的供應鏈夥伴包括:輝達、技嘉、台達電、信驊,英特爾,以因應 AI 時代邊緣 AI 與雲端 AI 解決方案的研發需求。
聯發科總經理暨營運長陳冠州表示,聯發科在 AI 產業大趨勢下擁有許多成長機會,並積極投資高效能運算平台、Wi-Fi 7/8、5G 衛星通訊、6G、先進製程以及先進封裝等關鍵技術,布局從邊緣 AI 與雲端 AI 的解決方案。
他說,今年啟用的聯發科技研發資料中心,不僅展示在龐大 AI 商機中長期布局全球研發與營運,並朝成長目標穩步前行的決心,更以節能、永續的高標準建置,實現聯發科技對永續的承諾。
聯發科AI平台採用台達電氣冷方案,有效提升研發工作效率,更能支援大規模的模型算力需求,每月可處理高達1380億個Token,達成超過2.4萬次的模型訓練迭代,更能透過包含NVIDIA NIM 推論微服務、TensorRT-LLM以及更多其它軟體開發架構(Software Stacks)將推論速度提升40%,支持各類高階產品的研發需求。
而研發中心散熱方案,採用「單相浸沒式冷卻技術」,透過技嘉合作,將伺服器完全浸入專為傳導熱能設計的非導電絕緣液中運轉,能源使用效率優化至PUE(Power Usage Effectiveness)1.1,提升冷卻效率2.6倍。該技術不僅讓伺服器維持穩定的運作溫度,還能隔絕空氣中的灰塵,並免除風扇運轉噪音與震動,更提升伺服器穩定性。
新落成的聯發科技銅鑼研發資料中心不僅嚴格遵循綠建築規範,更以最高等級的鑽石級規格打造,更採用晶圓廠等級的高標準建置供電系統,全區配備2N雙備援電力系統以及全載備用發電機組,不受分區輪流停電限制,建構完善的供電防護機制,確保研發資料中心維持最高運作效率,為研發團隊提供可靠、穩定的算力後盾。