人工智能的蓬勃发展,如同雨后春笋般涌现,却也悄然吞噬着巨大的能量。如今,我们终于对人工智能的“能量胃口”有了更清晰的认识。
哈佛大学陈曾熙公共卫生学院和加州大学洛杉矶分校菲尔丁公共卫生学院的研究团队,对美国2132个数据中心进行了深入分析,涵盖了全美78%的数据中心。这些数据中心,如同巨型“服务器农场”,是人工智能模型训练和运行的“能量引擎”。每一次我们与ChatGPT等模型互动,都意味着数据中心需要消耗大量的能量,不仅用于服务器运行,更用于冷却这些“发热”的机器。
自2018年以来,美国数据中心的碳排放量已翻了三倍。截至2024年8月的12个月内,数据中心排放了1.05亿吨二氧化碳,占美国总排放量的2.18%。相比之下,美国国内商业航空的碳排放量约为1.31亿吨。数据中心消耗了美国约4.59%的能源,这一比例自2018年以来已翻了一番。
尽管难以精确量化人工智能在数据中心能源消耗中的具体份额,但随着人工智能技术的快速发展,其“能量足迹”正在迅速扩大。从网站托管到云存储,数据中心承担着多种任务,而人工智能模型的训练和运行,无疑是其中最“耗能”的部分。
“人工智能的能量消耗正在快速增长,”能源创新智库高级研究员埃里克·吉蒙表示,“虽然我们对人工智能的指数级增长感到兴奋,但其商业化应用仍处于早期阶段,在效率优化和芯片技术方面还有很大的提升空间。”
值得注意的是,数据中心的能源来源也存在着“碳排放”问题。由于许多数据中心位于煤炭产区,例如弗吉尼亚州,其能源的“碳强度”比全国平均水平高出48%。研究发现,美国95%的数据中心位于能源碳排放强度高于全国平均水平的地区。
加州大学洛杉矶分校菲尔丁公共卫生学院助理教授、论文作者法尔科·巴加利-斯托菲解释说,除了地理位置因素,数据中心对能源的需求也导致了“碳排放”问题。数据中心需要全天候运行,而煤炭等传统能源能够提供稳定的电力供应,而风能和太阳能等可再生能源则存在间歇性问题。此外,政策和税收优惠以及当地居民的反对,也会影响数据中心的选址。
人工智能领域正在发生着重大转变,这将导致其碳排放量大幅增加。人工智能模型正从简单的文本生成器,如ChatGPT,向更复杂的图像、视频和音乐生成器发展。这些“多模态”模型目前仍处于研究阶段,但这一趋势正在加速发展。
OpenAI于12月9日发布了其视频生成模型Sora,其网站因大量用户涌入而无法正常运行。谷歌的Veo和Meta的Movie Gen等竞争模型尚未公开发布,但如果它们效仿OpenAI的做法,这些模型可能会很快面世。Suno和Udio等音乐生成模型正在快速发展,尽管面临着诉讼,英伟达上个月也发布了自己的音频生成器。谷歌正在开发其Astra项目,这是一个能够与用户实时对话的视频人工智能助手。
“随着我们向图像和视频领域扩展,数据量呈指数级增长,”论文第一作者、比萨大学和IMT卢卡人工智能博士生、哈佛大学访问学者吉安卢卡·圭迪表示,“再加上人工智能的广泛应用,碳排放量将很快大幅增加。”
研究人员的目标之一是建立一个更可靠的系统,以便更准确地了解数据中心的能源消耗情况。由于数据来源分散,这一任务并不容易。他们已经建立了一个门户网站,展示了全美数据中心的碳排放数据。该数据管道旨在为未来监管数据中心排放提供信息,预计未来几年数据中心的碳排放量将大幅增加。
“环保和可持续发展社区以及科技巨头将面临越来越大的压力,”哈佛大学数据科学倡议主任、哈佛大学教授、论文合著者弗朗西斯卡·多米尼奇表示,“但我预测,未来四年内不会出现相关监管措施。”