快科技3月11日消息,据国外媒体报道,ChatGPT为了响应用户请求,每天可能要消耗超过50万千瓦时的电力,大约是美国家庭平均用电量的1.7万多倍。

50万千瓦时是什么概念呢,美国商业用电一度约为0.147美元,约1.06元人民币,相当于一天电费53万元,一年光电费就要花2亿元。

而如果生成式AI进一步发展,耗电量还可能会更多,有研究估计,到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时=10亿千瓦时)的电力。

英伟达CEO黄仁勋在公开演讲中指出,AI未来发展与光伏和储能紧密相连。

“AI的尽头是光伏和储能!我们不能只想着算力,如果只考虑计算机,我们需要烧掉14个地球的能源”,黄仁勋表示。

特斯拉CEO马斯克也提出类似看法,AI在两年内年将由“缺硅”变为“缺电”,而这可能阻碍AI的发展。

OpenAI的创始人山姆·奥特曼也表示:“未来AI的技术取决于能源,我们需要更多的光伏和储能。”

友情提示

本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!

联系邮箱:1042463605@qq.com