AI / LLM 能源消耗與使用成本研究整理(附來源)
技術成本在降,但可證明的商業價值不一定同步上升。
- 能源面:訓練很耗能,但在大規模產品化後,推論(inference)常成為生命週期主要能耗來源。
- 成本面:每 token 成本長期下降,但企業端仍常卡在整合、治理、幻覺風險與流程改造成本。
- 管理面:評估 LLM 應用要看「單位成本 × 成功率 × 人工替代率 × 風險成本」。
1) 能源與環境:主要研究共識
1.1 訓練不是唯一大頭:推論可能更大
多篇研究指出,若模型被廣泛部署,推論端總能耗可能超過訓練端,尤其高流量服務情境下更明顯。
- Power Hungry Processing(2023)
https://arxiv.org/abs/2311.16863 - From Words to Watts(2023)
https://arxiv.org/abs/2310.03003
1.2 碳排與電網結構高度相關
同樣工作負載在不同地區會有不同碳強度;資料中心能源來源(再生能源比例)會顯著改變碳足跡。
- LLMCarbon(2023)
https://arxiv.org/abs/2309.14393 - Google 2024 Environmental Report
https://sustainability.google/reports/google-2024-environmental-report/ - Microsoft Sustainability Report
https://www.microsoft.com/en-us/corporate-responsibility/sustainability/report
1.3 水資源壓力是常被忽略的成本
AI 工作負載除了耗電,也涉及冷卻水需求;在缺水區域會放大社會成本。
- Making AI Less “Thirsty”(2023)
https://arxiv.org/abs/2304.03271
2) 成本與 ROI:怎麼看「LLM 值不值得」
2.1 單位成本快速下降,但總支出未必下降
模型/API 單價下降會刺激更大使用量(rebound effect),導致總花費可能持平甚至上升。
便宜不等於省錢;只要使用量擴張速度 > 單價下降速度,總成本仍會增加。
2.2 企業 ROI 呈現兩極化
- 成功案例:程式輔助、客服自動化、內容生產效率提升(如 GitHub/Forrester、部分企業案例)。
- 失敗案例:PoC 能跑、上線無法規模化;原因常是資料品質、流程落地、法遵與治理成本。
參考:
- GitHub Copilot / Forrester TEI
https://github.blog/news-insights/research/research-quantifying-github-copilots-impact-on-developer-productivity-and-happiness/ - IEA Electricity 2025(資料中心需求趨勢)
https://www.iea.org/reports/electricity-2025
3) 建議採用的評估框架(實務版)
- 需求定義:任務是否高頻、高重複、可標準化?
- 成本模型:
總成本 = API/推理 + 人工審核 + 整合維運 + 治理法遵 + 失誤風險 - 效益模型:
淨效益 = 節省工時價值 + 新增收入 - 總成本 - 環境模型:記錄 kWh、碳強度、用水估算,做月度追蹤。
- 決策門檻:至少連續 2~3 個月淨效益為正,才擴大部署。
4) 參考來源(可直接點)
- LLMCarbon — arXiv:2309.14393
- Power Hungry Processing — arXiv:2311.16863
- From Words to Watts — arXiv:2310.03003
- Making AI Less Thirsty — arXiv:2304.03271
- IEA Electricity 2025 — iea.org
- Google Environmental Report 2024 — sustainability.google
- Microsoft Sustainability Report — microsoft.com