非營(yíng)利人工智能研究機(jī)構(gòu) Epoch AI 發(fā)布了一項(xiàng)針對(duì) ChatGPT 能耗的新研究,,指出其能耗水平可能遠(yuǎn)低于此前的普遍認(rèn)知,。之前一個(gè)被廣泛引用的數(shù)據(jù)表明,ChatGPT 回答一個(gè)問(wèn)題需要消耗約 3 瓦時(shí)的電量,,這一數(shù)字是谷歌搜索的 10 倍,。然而,Epoch AI 的研究人員通過(guò)分析 OpenAI 最新的默認(rèn)模型 GPT-4o 發(fā)現(xiàn),,ChatGPT 的平均查詢能耗約為 0.3 瓦時(shí),,低于許多家用電器的能耗水平。
Epoch AI 的數(shù)據(jù)分析師約書(shū)亞?尤在接受采訪時(shí)提到:“與使用普通電器,、調(diào)節(jié)室內(nèi)溫度或駕駛汽車相比,,ChatGPT 的能耗并不算什么?!彪S著 AI 行業(yè)快速發(fā)展,,其能耗問(wèn)題和對(duì)環(huán)境的影響成為公眾關(guān)注的焦點(diǎn)。上周超過(guò) 100 個(gè)組織聯(lián)合發(fā)表公開(kāi)信,,呼吁確保新的 AI 數(shù)據(jù)中心不會(huì)過(guò)度消耗自然資源,,避免依賴不可再生能源。
約書(shū)亞?尤表示,,他之所以開(kāi)展這項(xiàng)分析,,是因?yàn)榇饲暗难芯看嬖谶^(guò)時(shí)的問(wèn)題。例如,,得出 3 瓦時(shí)能耗估計(jì)的研究報(bào)告假設(shè) OpenAI 使用的是較老,、效率較低的芯片來(lái)運(yùn)行其模型。他表示:“很多公眾討論都正確地認(rèn)識(shí)到 AI 在未來(lái)幾年將消耗大量能源,,但并沒(méi)有準(zhǔn)確描述當(dāng)前 AI 的能耗情況,。”
盡管 Epoch AI 的 0.3 瓦時(shí)數(shù)據(jù)是一個(gè)估算值,,因?yàn)?OpenAI 尚未公布足夠的細(xì)節(jié)來(lái)進(jìn)行精確計(jì)算,,但這一研究仍然具有重要意義。該分析并未考慮 ChatGPT 的圖像生成或輸入處理等額外功能所消耗的電量,。尤也承認(rèn),,帶有長(zhǎng)文件附件等“長(zhǎng)輸入”的 ChatGPT 查詢可能會(huì)比普通問(wèn)題消耗更多的電量。
尤預(yù)計(jì),,ChatGPT 的基礎(chǔ)能耗未來(lái)可能會(huì)增加,。他指出,AI 將變得更加先進(jìn),,訓(xùn)練這些 AI 可能需要更多的能源,,未來(lái)的 AI 可能會(huì)被更頻繁地使用,并且處理更復(fù)雜、更多的任務(wù),。此外,,OpenAI 和整個(gè) AI 行業(yè)的關(guān)注點(diǎn)也在向推理模型轉(zhuǎn)移。與 GPT-4o 等能夠近乎即時(shí)響應(yīng)的模型不同,,推理模型需要花費(fèi)數(shù)秒甚至數(shù)分鐘來(lái)“思考”答案,,這一過(guò)程會(huì)消耗更多的計(jì)算能力,從而導(dǎo)致更高的能耗,。
尤表示,,推理模型將越來(lái)越多地承擔(dān)舊模型無(wú)法完成的任務(wù),并為此生成更多的數(shù)據(jù),,這都需要更多的數(shù)據(jù)中心支持,。盡管 OpenAI 已經(jīng)開(kāi)始推出更節(jié)能的推理模型,如 o3-mini,,但目前來(lái)看,,這些效率提升似乎不太可能抵消推理模型“思考”過(guò)程以及全球 AI 使用量增加所帶來(lái)的額外能耗需求。
聯(lián)播+ 10月28日,,二十屆中央政治局以“建設(shè)文化強(qiáng)國(guó)”為題進(jìn)行第十七次集體學(xué)習(xí)。
2024-10-31 13:17:47聯(lián)播+|總書(shū)記為何要求答好這一“融合命題”