TechInsights 对 2025 年至 2029 年期间全球电力消耗总量为 153,000 TWh 进行了基准测量,数据来源于美国能源信息署。
该研究公司估计,人工智能加速器将在同一时间段内消耗全球 2318 TWh 的电力,占全球电力消耗的 1.5%。
该测量基于每块 GPU 使用 700W 的功率,这是 Nvidia 旗舰 Hopper GPU 的功耗。Nvidia 即将推出的 GPU 名为 Blackwell,速度更快,但功耗为 1,200W。
TechInsights 的假设仅包括芯片消耗的电量,不包括用于生成 AI 的存储、内存、网络和其他组件的测量。
TechInsights 分析师欧文·罗杰斯 (Owen Rogers) 在一份研究报告中表示:“考虑到对 GPU 容量的巨大需求,以及需要投入这些昂贵资产才能带来回报,如此高的利用率是可行的。”
绿色还是非绿色?
麦肯锡人工智能调查显示,65% 的受访者打算采用生成式人工智能。
为了满足需求,云提供商和超大规模企业正在投资数十亿美元来扩大 GPU 容量。微软依靠 Nvidia GPU 来运行其 AI 基础设施,而 meta 将拥有一个相当于“近 600,000 个 H100”GPU 的计算环境,该公司表示。
据 TechInsights 称,2023 年 Nvidia 的 GPU 出货量约为 376 万块,高于 2022 年的约 260 万块。
去年,Gartner 对电力消耗做出了更为激进的预测,称人工智能“可能消耗全球 3.5% 的电力”。Gartner 的方法尚不明确,但可能包括网络、存储和内存。
人工智能竞赛的特点是企业提供最快的基础设施和更好的结果。在商业领域实施人工智能的热潮已经扰乱了长期以来的企业可持续发展计划。
微软、谷歌和亚马逊正在斥资数十亿美元建设配备 GPU 和 AI 芯片的大型数据中心来训练和服务更大的模型,这增加了电力负担。
成本挑战
罗杰斯在研究报告中指出,虽然服务器的采购价格为2万美元,但企业需要考虑不断增长的电力成本以及电网面临的挑战。
数据中心的设计也需要满足人工智能的电力需求。这一需求可能取决于电网容量和备用电源容量的可用性。
能源供应商也有责任为人工智能时代做好准备,建立电力基础设施,包括发电站、太阳能发电场和输电线路。
“如果需求无法满足,能源供应商将采取市场化方式管理产能——即提高价格以减少消耗——而不是削减产能。同样,这可能会给人工智能技术的用户带来成本影响,”罗杰斯说。
美国政府的首要目标是到 2035 年实现 100% 清洁能源,这将减轻电网负担。这也将为更多 AI 数据中心打开大门。
能源的有效利用
人工智能消耗的电力反映了加密货币挖矿给电网带来负担的早期趋势。根据美国能源信息署2 月份发布的一份报告,加密货币挖矿约占美国电力消耗的 2.3%。
然而,能源行业观察人士一致认为,与比特币挖矿相比,人工智能可以更高效地利用能源。
Nvidia 的 AI 重点还在于高效能源利用。为了降低功耗,Nvidia 的 GPU 采用了自己的芯片技术。该公司正在将 Hopper 上的空气冷却改为液体冷却。
Nvidia 超大规模和 HPC 计算业务副总裁兼总经理 Ian Buck 在上个月的一次投资者活动中表示:“这里的机会是帮助他们通过固定兆瓦数据中心以尽可能低的成本获得最大性能。”
HPC 提供商、AI 和可持续性
最近举行的 ISC 24 超级计算会议的小组成员嘲笑 Nvidia,声称其 1000 瓦 GPU 是“可持续的”。
政府实验室还表示,过去 GPU 和直接液体冷却比 CPU 提供了更好的性能扩展。
劳伦斯利弗莫尔国家实验室正在建造即将问世的 2 百亿亿次浮点超级计算机 El Capitan,它将冷却压力增加到 28,000 吨,另外还增加了 18,000 吨,并将当前和未来系统的电源提高到 85 兆瓦。
LLNL 首席技术官 Bronis de Supinski 在分组讨论会上表示:“El Capitan 核电站的发电量将低于 40 兆瓦,大约为 30 兆瓦,但这已经是很大的电能了。”
他承认 El Capitan 超级计算机可能不被认为是环保的,但也应该关注在性能和功率范围内取得的成果。例如,如果超级计算机解决了气候问题,那么它所消耗的能量可能是值得的。
“一台 30 兆瓦的超级计算机?我不会告诉你这是一种可持续资源,但它可以大大解决我们想要解决的社会问题,”德苏宾斯基说。
实验室也在转向可再生能源和液体冷却。例如,液体冷却“可节省约 50% 的冷却能源”,LRZ 主席 Dieter Kranzlmüller 在 ISC 24 会议上表示。
可持续计算环境也在考虑碳补偿、捕获和再利用废热、以及再利用材料。