据《纽约客》杂志报道,OpenAI的热门聊天机器人ChatGPT每天可能要消耗超过50万千瓦时的电力,以响应用户的大约2亿个请求。
相比之下,美国家庭平均每天使用约29千瓦时的电力。将ChatGPT每天的用电量除以普通家庭的用电量,可以发现ChatGPT每天的用电量是家庭用电量的1.7万多倍。
听起来很多,但如果生成式人工智能被进一步***用,耗电量可能会更多。
例如,根据荷兰国家银行(Dutch National Bank)数据科学家亚历克斯·德弗里斯(Alex de Vries)在可持续能源期刊《焦耳》(Joule)上发表的一篇论文中的计算,如果谷歌将生成式A技术整合到每次搜索中,它每年将消耗约290亿千瓦时的电量。据《纽约客》报道,这比肯尼亚、危地马拉和克罗地亚等国一年的用电量还要多。
“人工智能是非常耗能的,”德弗里斯说,“每个人工智能服务器的耗电量已经相当于十几个英国家庭的总和。所以这些数字很快就会增加。”
然而,估计蓬勃发展的人工智能行业消耗多少电力是很难确定的。据the Verge报道,大型人工智能模型的运行方式存在相当大的差异,而推动人工智能繁荣的大型科技公司并没有完全公开他们的能源使用情况。
然而,在他的论文中,德弗里斯提出了一个基于英伟达(Nvidia)公布的数据的粗略计算。这家芯片制造商占据了图形处理器市场约95%的份额。
德弗里斯在论文中估计,到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时相当于10亿千瓦时)。
“到2027年,人工智能的用电量可能占全球用电量的0.5%,”德弗里斯说,“我认为这是一个相当重要的数字。”