根據《紐約客》雜志的報道,OpenAI的ChatGPT聊天機器人每天消耗超過50萬千瓦時的電力,用于處理約2億個用戶請求,相當于美國家庭每天用電量的1.7萬多倍。隨著生成式人工智能的廣泛應用,預計到2027年,整個人工智能行業(yè)每年將消耗85至134太瓦時的電力,這顯示了AI技術對電力資源的巨大需求。
隨著人工智能技術的發(fā)展,對芯片的需求急劇增加,進而帶動了電力需求的激增。全球數(shù)據中心市場的耗電量已經從十年前的100億瓦增加到如今的1000億瓦水平。根據美國Uptime Institute的預測,到2025年,人工智能業(yè)務在全球數(shù)據中心用電量中的占比將從2%增加到10%。
生成式人工智能帶來了許多創(chuàng)新,但也伴隨著處理性能和功耗方面的高昂成本。馬斯克曾預計,未來兩年可能從“缺硅”轉變?yōu)?ldquo;缺電”,電力短缺可能會成為人工智能發(fā)展的阻礙。他表示,電力短缺可能會像最近的芯片短缺一樣對科技和汽車行業(yè)造成嚴重影響。
【版權聲明】本網為公益類網站,本網站刊載的所有內容,均已署名來源和作者,僅供訪問者個人學習、研究或欣賞之用,如有侵權請權利人予以告知,本站將立即做刪除處理(QQ:51999076)。