最近,非营利组织Epoch AI的研究揭示了OpenAI的聊天机器人平台ChatGPT的实际能耗情况,结果显示其能耗远低于之前的预估。据一些报道,ChatGPT回答一个问题大约需要3瓦时的电力,但Epoch AI的研究认为这一数据被高估了。研究显示,在使用OpenAI最新默认模型GPT-4o时,平均每个查询仅消耗约0.3瓦时的电力,这一数字甚至低于许多家用电器的能耗。
Epoch AI的数据分析师Joshua You指出,传统上对AI能耗的担忧并未准确反映当前情况。早期的3瓦时估算主要基于一些过时研究和假设,当时假设OpenAI使用的是效率较低的芯片。尽管公众对AI未来的能耗有合理担忧,但目前的情况并没有清晰认识。
然而,You也承认,Epoch的0.3瓦时数据仍是一个近似值,因为OpenAI并未公开详细的能耗计算数据。此外,这项分析也未考虑一些附加功能带来的能耗,如图像生成或输入处理。对于较长的输入查询,如包含大量文件的查询,You表示这类查询的能耗可能会更高。
尽管目前的能耗数据较低,You预计未来的能耗仍可能上升。他提到,随着AI技术的进步,训练这些模型的能量需求可能会增加,未来的AI也可能承担更复杂的任务,从而消耗更多电力。
与此同时,AI的基础设施正在快速扩展,这将导致巨大的电力需求。例如,据Rand公司的报告,预计在未来两年内,AI数据中心可能需要几乎全部加利福尼亚州2022年的电力供应。到2030年,训练一个前沿模型的能耗将达到相当于八个核反应堆的电力输出。
OpenAI及其投资合作伙伴计划在未来几年内在新AI数据中心项目上投入数十亿美元。随着AI技术的发展,行业的关注也开始转向推理模型,这些模型在处理任务时更具能力,但也需要更多的计算能力和电力支持。
对于关心自己AI能耗的人来说,You建议可以减少使用频率,或选择计算需求较低的模型进行使用。
划重点:
🌱 ChatGPT的平均能耗为0.3瓦时,远低于早期估算的3瓦时。
🔌 AI能耗的增加主要与未来的技术进步和更复杂任务的处理有关。
🏭 OpenAI计划在未来几年投入巨额资金扩展AI数据中心,以满足日益增长的电力需求。
暂无评论