随着人工智能(AI)技术的快速发展,其能耗问题逐渐成为公众和业界关注的焦点。本文旨在详细分析AI能耗的现状、挑战以及可能的解决方案。
AI能耗的规模和影响已经引起了广泛的讨论。根据前工程师凯尔·科比特在社交媒体上的表述,训练GPT-6这类先进AI模型所需的算力极大,以至于微软工程师不得不搭建IB网络,将分布在不同地区的H100芯片连接起来,以避免在单一地区部署超过10万块H100芯片而导致电网崩溃。据图库版权图片网站公布的数据显示,每块H100芯片的峰值功率为700W,10万块芯片的峰值功率高达7000万W,相当于一座小型或中型发电厂的全部输出。这一数字不仅包括了芯片本身的能耗,还需要考虑到服务器和冷却设备的能耗,这些都对电网构成了巨大压力。
《》的报道进一步指出,AI的日耗电量可能超过50万千瓦时。尽管这个数字已经相当惊人,但与加密货币和传统数据中心相比,AI的耗电量仍然较小。全球数据中心、人工智能和加密货币的耗电量在2022年达到了460TWh,占全球能耗的近2%。国际能源署(IEA)预测,到2026年,这些领域的用电量可能达到1000TWh,与整个德国的用电量相当。
数据中心的能效是AI能耗问题中的关键因素。数据中心的能效通常用PUE(能源效率比)来评估,即消耗的所有能源与IT负载消耗的能源的比值。全球大型数据中心的平均PUE约为1.59,表明数据中心的IT设备每消耗1度电,其配套设备就消耗0.59度电。数据中心的额外能耗中,绝大部分应用于冷却系统,冷却系统消耗的能量可达数据中心总能耗的40%。随着芯片更新换代,单台设备的功率增大,数据中心的功率密度不断提升,对散热提出了更高的要求。
为了减少能耗,世界各国正在采取措施。例如,欧盟要求大型数据中心设立余热回收设备;美国政府注资研发更高能效的半导体;中国政府也出台措施,要求数据中心从2025年起PUE不高于1.3,并将可再生能源使用比例逐年上调,到2032年达到100%。
科技公司在用电方面面临节流难开源更难的挑战。随着加密货币和AI的发展,数据中心规模不断扩大,消耗的电能也随之增加。据国际能源署统计,2022年美国拥有2700座数据中心,消耗了全国用电量的4%,并预测这一比例到2026年将达到6%。随着美国东西海岸用地越发紧张,数据中心逐步向中部地区转移,但这些地区原有的产业并不发达,电力供应可能无法满足需求。一些技术公司尝试摆脱电网的束缚,直接从运营者购买电能,但这需要大量的投资和新建设施。
AI能耗问题是一个复杂且多维的挑战,涉及到技术发展、基础设施建设和能源政策等多个方面。未来,随着技术的不断进步和政策的逐步完善,我们有望找到更有效的解决方案,以平衡AI发展与能源消耗之间的关系。
本文来自作者[shyfzc]投稿,不代表艺帆号立场,如若转载,请注明出处:https://vip.shyfzc.com/zixue/202412-25899.html
评论列表(4条)
我是艺帆号的签约作者“shyfzc”!
希望本篇文章《揭秘AI如何加速能源危机 AI技术的全球电力消耗现状 (ai的小技巧)》能对你有所帮助!
本站[艺帆号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览:随着人工智能,AI,技术的快速发展,其能耗问题逐渐成为公众和业界关注的焦点,本文旨在详细分析AI能耗的现状、挑战以及可能的解决方案,AI能耗的规模和影响已经引起了广泛的讨论,根...