據《The Verge》報導,訓練一個像 GPT-3 的大型語言模型,大約需要消耗將近 1,300 兆瓦時的電力,相當於 130 個美國家庭的年度用電量。若觀看一小時 Netflix 大約需要 0.8 千瓦時的電力,那相當於觀看 1,625,000 小時的 Netflix,才會消耗掉與訓練 GPT-3 所需的相同電力量。
AI 科技令人驚艷,耗電量之高也令人驚訝。Google 的數據報告顯示,截至 2022 年,光是機器學習就已經佔過去三年 Google 總電力消耗的 15%。
OpenAI 每隔半年就釋出新的大型語言模型,用戶免費或每個月付 20 美元的費用,就能讓 ChatGPT 幫忙寫程式、做財務試算、寫企劃或是陪聊;然而,這些 AI 模型的運作其實正以每小時幾兆瓦的速度消耗龐大的電力,這些大量、不斷增加的耗能,正在造成更多的碳排放。
但在科技應用創新的政治正確面前,似乎沒有人——包含提供這些技術的公司本身——能準確地說出 AI 模型的實際能源成本是多少。從初期的訓練到後來的推理應用,AI 耗能像一個難以捉摸的黑洞,最終會把多少資源耗捲而去?因此造成多大的公共機會成本?沒人回答、隱憂重重。
AI 模型之所以消耗如此大量的能源,是因模型訓練的資料量龐大,加上模型本身的複雜性,以及使用者同時向 AI 下達多種指令。在訓練過程中,AI 模型根據大量範例和資料來學習,而訓練時間取決於資料量和模型的複雜性,模型越複雜、資料量越大,在訓練過程中所使用的能量就越多,也因為機器學習模型具有難以捉摸的可變性,以至於連最有能力製定使用規則的大公司,像是 Meta、微軟、OpenAI 等公司,都沒有相關耗能成本的資訊可以分享。
AI 訓練過程消耗的電力遠高於傳統的數據中心,而訓練模型卻只是整個過程的一部分。系統創建後,使用者將使用它來產生輸出,這個過程稱為「推理」,如我們在手機上詢問 ChatGPT 任何事,而這也需要電力,因為它需要全天候 24 小時待命,提供我們使用。隨著 AI 的普及,與日益強大的功能更新,AI 所消耗的電力可能超乎想像,許多公司在應用 AI 時,為了提高效率,不斷添加計算資源;一旦模型或硬體變得更加高效,人們就會使這些模型比以前更大,也更難被計算出耗能成本。