3月10日消息,據(jù)媒體報(bào)道,OpenAI的熱門聊天機(jī)器人ChatGPT每天可能要消耗超過50萬千瓦時的電力。
作為參考,美國普通家庭的日均用電量僅為29千瓦時,這意味著ChatGPT的能耗是普通家庭的近1.7萬倍。
如果生成式AI被進(jìn)一步采用,耗電量可能會更多。荷蘭國家銀行數(shù)據(jù)科學(xué)家Alex de Vries在一篇論文中估計(jì),到2027年,整個人工智能行業(yè)每年將消耗85至134太瓦時(1太瓦時=10億千瓦時)的電力。這個電量足以匹敵肯尼亞、危地馬拉和克羅地亞三國的年總發(fā)電量。
不過,要準(zhǔn)確評估蓬勃發(fā)展的AI行業(yè)的實(shí)際電量消耗并非易事,盡管大型科技公司在AI領(lǐng)域處于領(lǐng)先地位,但它們對于自身的能源消耗情況卻諱莫如深。
此外,不同的人工智能模型在運(yùn)行方式上也存在巨大差異,這使得電量消耗的估算變得更加復(fù)雜。
另據(jù)New Street Research的數(shù)據(jù),英偉達(dá)在圖形處理器市場份額中占據(jù)了約95%的份額。de Vries估計(jì),到2027年,整個AI行業(yè)的電量消耗將達(dá)到85至134太瓦時之間。這是一個相當(dāng)可觀的數(shù)字,甚至可能占到全球電量的一半左右。