在当今时代,人工智能(AI)的迅猛发展已经成为一个不可忽视的现象。随着AI技术的不断进步,其对能源的需求也日益增加,引发了广泛的讨论和担忧。许多人担心AI的能耗问题可能会成为制约其发展的瓶颈。这种担忧并非空穴来风,正如技术创业者、前工程师凯尔·科比特在社交媒体上所指出的,AI的能耗问题已经成为一个实实在在的难题。
AI能耗问题的严峻性
AI的能耗问题,尤其是在大型模型训练过程中,显得尤为突出。以微软工程师训练GPT-6为例,他们需要将分布在不同地区的H100芯片通过高速网络连接起来,以应对单个地区电网无法承受的电力需求。据科比特称,如果将超过10万块H100芯片部署在同一个地区,电网将面临崩溃的风险。
根据网站公布的数据,每块H100芯片的峰值功率为700W,10万块H100芯片的峰值功率可达7000万W,相当于一座小型核电站的全部输出。这还只是芯片本身的能耗,如果再加上服务器和冷却设备的能耗,集中部署在一小片区域的耗电设施将给电网带来巨大压力。
AI能耗与其他产业的比较
尽管AI的耗电量看似巨大,但与加密货币和传统数据中心相比,仍有差距。2022年全球数据中心、人工智能和加密货币的耗电量达到460TWh,占全球能耗的近2%。国际能源署(IEA)预测,在最糟糕的情况下,到2026年这些领域的用电量将达1000TWh,与整个法国的用电量相当。
英伟达在AI服务器市场中占据约95%的份额,2023年供应了约10万块芯片,每年耗电量约为7.3TWh。2022年加密货币的能耗为110TWh,与整个法国的用电量相当。这些数据表明,虽然AI的能耗问题不容忽视,但相较于其他行业,其能耗仍然较低。
冷却能耗的挑战
数据中心的能效通常用PUE(功率使用效率)来评估,即消耗的所有能源与IT负载消耗的能源的比值。理想情况下,PUE值越接近1,表明数据中心浪费的能源越少。根据UptimeInstitute的报告,2020年全球大型数据中心的平均PUE约为1.59,这意味着数据中心的IT设备每消耗1度电,其配套设备就消耗0.59度电。
在数据中心的额外能耗中,绝大部分应用于冷却系统。一项调查研究显示,冷却系统消耗的能量可达数据中心总能耗的40%。随着芯片更新换代,单台设备的功率增大,数据中心的功率密度不断提升,对散热提出了更高的要求。
能效比的改进与政策响应
通过改进数据中心设计,可以大幅减少能量的浪费。不同数据中心的能效比差异很大,UptimeInstitute报告显示,日本已经把PUE降到了1.46,而在美国仍有超过十分之一的数据中心PUE超过2.19。世界各国正在采取措施,敦促数据中心实现节能减排的目标。
例如,欧盟要求大型数据中心设立余热回收设备;美国政府注资研发更高能效的半导体;中国政府也出台措施,要求数据中心从2025年起PUE不高于1.3,并将可再生能源使用比例逐年上调,到2032年达到100%。
科技公司面临的挑战
随着加密货币和AI的发展,各大科技公司的数据中心规模不断扩大。据国际能源署统计,在2022年美国拥有2700座数据中心,消耗了全国用电量的4%,并预测这一比例到2026年将达到6%。随着美国东西海岸用地越发紧张,数据中心逐步向中部地区转移,但这些二线地区原有的产业并不发达,电力供应可能无法满足需求。
一些技术公司尝试摆脱电网的束缚,直接从可再生能源购买电能,但这种用电方式和新建数据中心都需要巨大的投资。因此,科技公司在节流难开源更难的背景下,需要寻求更高效、更环保的能源解决方案,以应对日益增长的能耗挑战。
AI能耗问题是一个复杂且多维的挑战,涉及技术、经济和政策等多个方面。尽管目前AI的能耗相对于其他行业来说并不算高,但随着AI技术的发展和应用范围的扩大,如何平衡能耗与效率,将是未来AI发展中需要重点关注的问题。
本文来自作者[shyfzc]投稿,不代表艺帆号立场,如若转载,请注明出处:https://vip.shyfzc.com/zixue/202412-25544.html
评论列表(4条)
我是艺帆号的签约作者“shyfzc”!
希望本篇文章《全球能源危机的前奏 AI技术电力消耗激增 (全球能源危机现状)》能对你有所帮助!
本站[艺帆号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览:在当今时代,人工智能,AI,的迅猛发展已经成为一个不可忽视的现象,随着AI技术的不断进步,其对能源的需求也日益增加,引发了广泛的讨论和担忧,许多人担心AI的能耗问题可能会成为制...