为什么人工智能聊天机器人使用如此多的能量?

AI2026-01-14 17:42:41 毕爱策

近年来,ChatGPT大受欢迎,近2亿用户每天向应用程序中注入总计超过10亿条提示。这些提示似乎是凭空完成请求。

但在幕后,人工智能(AI)聊天机器人正在使用大量能源。2023年,用于训练和处理AI的数据中心占美国用电量的4.4%。在全球范围内,这些中心约占全球能源消耗的1.5%。随着人工智能需求的增长,这些数字预计将飙升,到2030年至少翻一番。“就在三年前,我们甚至还没有ChatGPT,”阿姆斯特丹自由大学新兴技术可持续发展研究员、致力于揭露数字趋势意外后果的平台Digiconomist的创始人亚历克斯·德·弗里斯-高说。“现在我们正在谈论一项将占全球数据中心用电量近一半的技术。”

但是是什么让人工智能聊天机器人如此耗能呢?答案在于人工智能聊天机器人的大规模。密歇根大学的计算机科学家莫沙拉夫·乔杜里说,特别是人工智能的两个部分消耗了最多的能量:训练和推理。

相关内容:为什么电会发出嗡嗡声?

为了训练人工智能聊天机器人,大型语言模型(LLM)被赋予了巨大的数据集,这样人工智能就可以学习、识别模式并做出预测。德弗里斯-高说,总的来说,人工智能训练有一种“越大越好的信念”,即接受更多数据的更大模型被认为能做出更好的预测。

“所以当你试图进行训练时,会发生什么,现在的模型变得如此之大,以至于它们不适合单个图形处理器;它们不适合单个服务器,”乔杜里告诉现场科学。注册我们每周的《生活的小秘密》时事通讯,在它们出现之前获得最新的谜团online.To给人一种规模感,德弗里斯-高的2023年研究估计,一台英伟达DGX A100服务器需要高达6.5千瓦的功率。训练LLM通常需要多台服务器,每台服务器平均有8个图形处理器,然后运行数周或数月。总的来说,这消耗了大量的能量:据估计,训练OpenAI的GPT-4需要50吉瓦时的能量,相当于为旧金山供电三天。

推理也会消耗大量能量。这是人工智能聊天机器人从它所学到的东西中得出结论并从请求中生成输出的地方。尽管经过训练后运行LLM需要的计算资源要少得多,但由于向人工智能聊天机器人发出的请求数量庞大,推理是能源密集型的。

OpenAI表示,截至2025年7月,ChatGPT的用户每天都会发送25亿条提示,这意味着会使用多台服务器对这些请求做出即时响应。这还不包括其他广泛使用的聊天机器人,包括谷歌的双子座。代表们表示,双子座很快将成为用户访问谷歌搜索时的默认选项。

“所以即使在推理中,你也不能真正节省任何能量,”乔杜里说。“这不是真正的海量数据。我的意思是,模型已经很庞大了,但是我们有大量的人在使用它。”

像乔杜里和德弗里-高这样的研究人员现在正在努力更好地量化这些能源需求,以了解如何减少它们。例如,乔杜里有一个ML能源排行榜,跟踪开源模型的推理能源消耗。

然而,其他生成型人工智能平台的具体能源需求大多是未知的;谷歌、微软和Meta等大公司对这些数字保密,或者提供的统计数据很少深入了解这些应用程序对环境的实际影响,德弗里斯-高说。这使得很难确定人工智能真正使用了多少能源,未来几年的能源需求将是多少,以及世界能否跟上。然而,使用这些聊天机器人的人可以推动更高的透明度。这不仅可以帮助用户在自己的人工智能使用中做出更负责任的能源选择,还可以推动更强有力的政策来追究公司的责任。

“数字应用程序的一个非常基本的问题是影响从来都不透明,”德弗里斯-高说。“政策制定者鼓励披露,以便用户可以开始做某事。”

© 版权声明

相关文章

暂无评论

暂无评论...