永續學院|洞察觀點|當電費吃掉AI利潤,只有效率才是王道

 

洞察觀點

 

當電費吃掉AI利潤,只有效率才是王道

副研究員鄧翔靖  (2026/04/30)    《永續學院編輯室》

當你對 AI 說出一聲「請問」時,矽谷的電表正以前所未有的速度瘋狂轉動。2026 年春季,電不再是技術極客(Tech Geek)的談資,而是判斷企業生死的昏迷指數。根據《彭博商業周刊》最新財報分析,全球 AI 巨頭的利潤增長因電費與硬體折舊成本大幅放緩,標誌著 AI 產業從不計代價的「暴力規模化」時期,正式邁向「成本理性」的新常態。

  重點摘要  
🎯 從算力競賽回歸單位經濟     企業放棄盲目擴大模型,轉而優化經濟效益,確保生成式 AI 部署具備長期獲利能力。
🎯 專用 NPU 取代通用 GPU    半導體市場將從通用 GPU 轉向低功耗 NPU(神經處理單元),以打破電力枷鎖。
🎯 合規性成為企業模型門檻     具備版權防火牆與高安全性(TRiSM)的模型,正取代流量熱潮,成為企業採購首選。


電力成為 AI 時代新燃料

新模型訓練的狂熱,以及全球貪得無厭的推論需求,讓矽谷電網在 2026 年發出了嗡嗡哀鳴。國際能源署(IEA)在 4 月剛出爐的報告中指出,全球數據中心電力需求預計到 2030 年將從 2025 年的 485 TWh 翻倍至 950 TWh。而電力增長幅度遠遠落後,所以算力將不再是取之不盡的資源,現在也不是。過去兩年,企業將 AI 視為吃到飽自助餐,但不久的將來決策者必須精確管理每一組 Token 的總體擁有成本(TCO)。當營運支出逼近邊際收益,優化演算法效率將不只是技術選項,更是基於財務上的必要性。


硬體市場轉向高效推論

呼應算力成本結構的轉變,半導體領域也朝著以 NPU(神經處理單元,一種專為 AI 演算法設計的高效能處理器)為核心算力的方向前進。根據 Gartner 在 3 月的預測,到 2030 年,執行兆級參數模型的推論成本將比 2025 年降低 90% 以上。但這項巨大的降幅,主要來自於專用矽晶片與邊緣裝置的普及。以上兩項轉變,對政策制定者傳遞了關鍵訊號:在總體算力需求有增無減的情況下,國家競爭力將取決於低功耗晶片的設計能力與能源供應的穩定性。對於企業來說,初代 AI 化企業將迎來一波設備淘汰,因為 GPU 不足以應付新成本結構。 
 

❤️ 更多精彩內容,註冊立即閱讀 ❤️

AI推論成本數據中心電力需求單位經濟模型NPU晶片邊緣運算生成式AI商業化AI合規安全TRiSM治理算力去中心化企業AI導入策略

分享:


 

聯絡我們

104 台北市中山區德惠街16-8號7樓
電話:總機 +886 (2) 2586-5000
傳真 +886 (2) 2586-8855
E-mail:business@tier.org.tw