危险的人工智能:“芯片荒”未解而“电力荒”又至

生成式人工智能带来了许多创新,但也伴随着处理性能和功耗方面的高昂成本,如果生成式AI被进一步采用,耗电量可能会更多。随着人工智能的突飞猛进,对芯片的需求急剧增加,进而带动了电力需求的激增。“电荒”会否真的发生?

人工智能(AI)的崛起已是不争的事实,但《纽约客》(The New Yorker )的一篇新报道揭示了一个潜在的隐性成本:它对电力的巨大需求。由 OpenAI 开发的流行聊天机器人 ChatGPT 每天要处理 2 亿次用户请求,耗电量高达 50 万千瓦时。相比之下,美国家庭平均每天使用约29千瓦时的电力,也就是说,ChatGPT每天的用电量是普通家庭用电量的1.7万多倍。

生成式人工智能带来了许多创新,但也伴随着处理性能和功耗方面的高昂成本,如果生成式AI被进一步采用,耗电量可能会更多。所以,很多人正在担心,随着人工智能的突飞猛进,“电荒”会否真的发生。特斯拉CEO马斯克就曾预言,未来两年内将由“缺硅”变为“缺电”,而这可能阻碍人工智能的发展。在他看来,电力短缺可能会造成严重后果,就像最近缺芯阻碍科技和汽车行业一样。听起来很多,但如果生成式人工智能被进一步采用,耗电量可能会更多。

根据荷兰国家银行(Dutch National Bank)数据科学家亚历克斯·德弗里斯(Alex de Vries)在可持续能源期刊《焦耳》(Joule)上发表的一篇论文中提出了一个基于英伟达(Nvidia)公布的数据的粗略计算。这家芯片制造商占据了图形处理器市场约95%的份额。德弗里斯估计,到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时相当于10亿千瓦时),人工智能的用电量可能占全球用电量的0.5%。这显示了AI技术对电力资源的巨大需求。并且,如果谷歌将其应用于所有搜索,每年的电量消耗将达到惊人的290亿千瓦时。这个电量足以匹敌肯尼亚、危地马拉和克罗地亚三国的年总发电量。

“人工智能是非常耗能的,”德弗里斯说,“每个人工智能服务器的耗电量已经相当于十几个英国家庭的总和。所以这些数字很快就会增加。”然而,估计蓬勃发展的人工智能行业消耗多少电力是很难确定的。

随着人工智能技术的发展,对芯片的需求急剧增加,进而带动了电力需求的激增。根据美国Uptime Institute的预测,到2025年,人工智能业务在全球数据中心用电量中的占比将从2%增加到10%。此外,据the Verge报道,大型人工智能模型的运行方式存在相当大的差异,而推动人工智能繁荣的大型科技公司并没有完全公开他们的能源使用情况。

经济学人最新发稿称:包括超级计算机在内的高性能计算设施,正成为能源消耗大户。根据国际能源署估计,数据中心的用电量占全球电力消耗的1.5%至2%,大致相当于整个英国经济的用电量。预计到2030年,这一比例将上升到4%。

仅从量的方面看,根据不完全统计,2020年全球发电量中,有5%左右用于计算能力消耗,而这一数字到2030年将有可能提高到15%到25%左右,也就是说,计算产业的用电量占比将与工业等耗能大户相提并论。

根据国际能源署(IEA)最近的一份报告,包括人工智能服务和加密货币在内的全球数据中心的用电量可能从2022年的460太瓦时飙升至2026年的1050太瓦时。1太瓦时相当于10亿千瓦时,也就是10亿度电。目前,全球人工智能和互联网的运行依赖约8000个数据中心,其中美国、欧洲和中国分别约占33%、16%和10%。预计这些地区数据中心的数量未来都将大幅增长。美国超过三分之一的电力需求增长将来自扩建的数据中心,数据中心用电量占美国总用电量的比例将从2022年的4%跃升至2026年的6%。欧盟预计该地区数据中心的用电量将从2022年的略低于100太瓦时上升到2026年的近150太瓦时。仅爱尔兰数据中心的用电量就可能从2022年占全国总用电量的17%增加到2026年占全国总用电量的32%。

据银河研究院的报告,数据中心耗电量巨大,电能是数据中心最大成本项之一,电费支出占运营 成本比例超过 50%。全球数据中心用电量 2.71 万亿 kWh,占据全球总用电量的比重为 8.0%2030 年中国数据中心用电量约 1.27 万亿 kWh,占据中国总用电量的比重为 9.8%;2035 年中国数据中心用电量约 2.9 万亿 kWh,占据中国总用电量的比重为 17.57%,全球数据中心用电量 6.19 万亿 kWh,占据全球总用电量的比重为 15.8%。

人工智能除了耗电量惊人,同时还非常耗水

一个超大型数据中心每年耗电量近亿度,生成式AI的发展使数据中心能耗进一步增加。因为大型模型往往需要数万个GPU,训练周期短则几周,长则数月,过程中需要大量电力支撑。数据中心服务器运行的过程中会产生大量热能,水冷是服务器最普遍的方法,这又导致巨大的水力消耗。有数据显示,GPT-3在训练期间耗用近700吨水,其后每回答20-50个问题,就需消耗500毫升水。

水资源消耗方面,硅片工艺需要“超纯水”清洗,且芯片制程越高,耗水越多。生产一个2克重的计算机芯片,大约需要32公斤水。制造8寸晶圆,每小时耗水约250吨,12英寸晶圆则可达500吨。台积电每年晶圆产能约3000万片,芯片生产耗水约8000万吨左右。充足的水资源已成为芯片业发展的必要条件。2023年7月,日本经济产业省决定建立新制度,向半导体工厂供应工业用水的设施建设提供补贴,以确保半导体生产所需的工业用水。

而长期来看,生成式AI、无人驾驶等推广应用还将导致芯片制造业进一步增长,随之而来的则是能源资源的大量消耗。

从计算的本质来说,计算就是把数据从无序变成有序的过程,而这个过程则需要一定能量的输入。人工智能之所以会带来巨大的能耗问题,与人工智能实现智能的方式密切有关。可以看见,人脑计算是一种完全不同的计算方式,就是所谓的“超维计算”。即模仿人类大脑的运算方式,利用高维数学空间来执行计算,以实现更高效、更智能的计算过程。

 

【声明】本文由 思谋新闻组 发布,所涉及言论仅代表作者观点,若有侵权或违规信息,请联系我们处理。除非另有说明,可自由分享(转载)本文内容,但必须保持署名、涉及商业用途应获得原作者授权。
网址引用: 思谋新闻组. 危险的人工智能:“芯片荒”未解而“电力荒”又至. 思谋网. https://www.scmor.com/view/9836.
(6)
思谋新闻组的头像思谋新闻组网站团队

相关阅读