近年生成式AI掀起熱潮,從使用者眾多的ChatGPT,再到近期發表的影片生成模型Sora,許多大型軟體企業爭相採用AI驅動服務,伴隨而來的是快速增長的AI密集用水、用電需求,這些需要大量運算的人工智慧服務相較於傳統應用軟體的能源需求,往往更為巨量。
生成式AI熱潮席捲全球,許多大型科技企業紛紛投入開發。照片來源:Jernej Furman/ Wikipedia(CC BY 2.0)
AI如同變魔術般,滑鼠按兩三下、下個簡單指令就能生成一段文字,甚至是圖像、影像,這些動作雖然跟往常在搜尋欄查找資料並無二致,然而,AI的用電量卻可能比想像中更多。
阿姆斯特丹自由大學(Vrije Universiteit Amsterdam,VU)商學院博士候選人德弗里斯(Alex De Vries)專門研究新興科技的能耗成本,去年他發表的分析估算,隨著人工智慧崛起,到了2027年,AI伺服器所消耗的用電量將等同於荷蘭全國的能源需求量。
德弗里斯根據NVIDIA的AI晶片銷售狀況[1]等參數推估,到了2027年,運算AI所需的硬體設備需求量,每年約有850~1340億度電的能源需求,就等同於世界上部分國家一年的總用電量。
人工智慧新創公司Hugging Face的研究員盧奇奧尼(Sasha Luccioni)指出,隨著AI成為一門好生意,公司機密層級也越來越高。過去幾年,其實OpenAI都會持續公布關於模型訓練的詳細資訊,包括使用的硬體設備與時間。不過,隨著ChatGPT、GPT-4等模型推陳出新,這些資訊再也沒有更新了。
設置AI伺服器的用電量比起傳統伺服器要高上許多。示意圖。照片來源:Brett Sayles/Pexels
不論是OpenAI的ChatGPT或是Google的Gemini,這類廣受歡迎的大型語言模型,往往需要一整個倉庫的資料中心來運算,同時也仰賴大量的水資源來幫助機房降溫。若是涉及圖像、影像的生成,AI的耗能將會更高。
AI的能源需求分成兩大部分,一個是訓練語言模型所消耗的電力,包含設定與回應行為;第二部分則是推論階段(inference phase),將訓練到一定程度的模型置入實際場景,並透過提示(prompts),讓AI生成初始回應。這兩階段都有高密集的能源需求,然而目前尚不清楚各階段的耗能占比。
「設置傳統伺服器的標準機櫃耗電量約4瓩(kW),約等同於一個家庭住宅的用電功率;然而設置一組AI伺服器機櫃的能源需求約為20倍、80瓩。」DataVita創辦人奎恩(Danny Quinn)對《英國國家廣播公司》說,一個資料中心內可能有上百或上千組的伺服器及機櫃。
加州大學河濱分校報告指出,與ChatGPT對話一次需消耗約500毫升的水,相當於一瓶寶特瓶。而ChatGPT每月有近15億用戶,用水量可想而知。微軟永續報告書中揭露,其用水量在2021至2022年增長至640萬立方公尺、增加了約34%,相當於2500個奧運規格泳池的大小。
根據研究,與ChatGPT對話一次需消耗約500毫升的水。照片來源:Sanket Mishra/Pexels
隨著科技日新月異,未來AI無疑會如雨後春筍般增長,隨之而來是需謹慎看待的環境衝擊。儘管耗能需求超級高,AI對解決環境挑戰仍潛力無窮。例如,AI可以預測極端氣候,改善工業製程減少碳排放,而在Google和美國航空公司合作的計畫中,飛行員可透過AI找出最適合的飛行高度和路徑,減少50%會造成全球暖化的飛機雲。
盧奇奧尼表示,希望未來有更多公司為AI引進像能源之星(Energy Star)[2] 的評比,讓消費者可以像選購節能電器一樣比較各家AI產品的能源效率。
德弗里斯則認為應該回歸更根本的思考——我們真的需要AI來完成某些特定任務嗎?「AI有其侷限性,在很多應用上或許都不算最好的解決方案,我們將會浪費大量的時間和資源來記取這項教訓。」
[1]根據NVIDIA釋出的硬體銷售與能源數據預測,其在AI市場中的市占率約95%。
[2]能源之星(Energy Star),是一項由美國政府所主導,主要針對消費性電子產品的能源節約計劃。能源之星計劃於1992年由美國環保署(EPA)所啟動,目的是為了降低能源消耗及減少發電廠所排放的溫室效應氣體。此計劃並不具強迫性,自發配合此計劃的廠商,就可以在其合格產品上貼上能源之星的標籤。
參考資料
最近一個月的網頁瀏覽次數:122208