AI的尽头是能源吗 能耗挑战与未来方向
AI的尽头是能源吗
无论是否支持人工智能的发展,我们都不能忽视其能耗问题。有人担心AI发展过快会对能源市场和环境造成冲击,也有人担忧能源产业进步缓慢会成为AI发展的瓶颈。AI的尽头是能源吗!
随着AI的普及,其在能耗中的占比将逐年提升。为此,AI研发企业纷纷投资能源供应。谷歌宣布购买Kairos Power建造的小型模块化反应堆生产的电力,微软则与星座能源公司达成协议,重启三里岛核电站1号反应堆并购买未来20年的电能。OpenAI首席执行官山姆·奥特曼也在今年年初投资了核聚变技术。
然而,新的趋势正在出现。多位业界人士表示,可以通过软硬件技术的提升以及宏观布局优化来降低AI的能耗,使能源利用更加高效。更重要的是,AI的进步方向不一定更大更强,一些小而美的模型正悄然登场。
关于AI的耗电量,一篇报道指出ChatGPT每日耗电量或超50万千瓦时,相当于1.7万个美国家庭的能耗。但也有观点认为这些估算过于夸张。尽管如此,我们可以进行一些定性讨论。例如,在算法层面,训练阶段比推理阶段能耗更高。清华大学电子工程系主任汪玉团队测试了不同算力芯片的单卡推理功耗,发现推理阶段的功耗基本在300W-500W之间,而训练阶段的功耗则高达400W-700W。未来推理功耗有望进一步下降。
大模型训练过程中还存在容错相关的额外能耗开销。Llama 3-405B在为期54天的训练期间共发生了466次任务中断,约78%由硬件问题引起,实际算力利用率只有38%左右。不过,从应用场景上看,用户推理请求的调用频率更高,即使单次调用能耗低,总能耗也可能相当可观。
随着技术完善,日常使用AI推理的单次能耗有望下降。上海数珩信息科技创始人张继生介绍,通过模型压缩、剪枝、量化等技术可以提高AI系统性能并降低能耗。清华电子院能源电子中心主任李中阳强调,算力与新能源供电特性匹配是关键,这需要AI前沿技术的支持。
总体上,关于AI能耗的讨论主要基于模型体量、显卡功率、计算时长等参数进行估算,这使得讨论尤为困难。研究者呼吁改变这种不透明的现状,实现信息透明,以追究各方的环境责任并推动节能研究。
数据中心的能耗问题同样复杂。国际能源署报告显示,2022年全球数据中心、比特币和AI消耗的电能占全球用电量的2%,达到460 TWh。预计到2026年,全球数据中心总能耗将达1000 TWh。数据中心内部冷却系统和服务器能耗最高,各占数据中心能耗的40%。随着数据中心规模扩大,冷却系统的能耗日益增加,同时也会导致耗水量上升。AI的尽头是能源吗!
对于新成立的数据中心,在设计上改进可以缓解这些问题。液冷技术比风冷技术更划算,且能减少淡水消耗。从宏观角度看,AI的环境影响不仅与耗电量有关,还与电能来源密切相关。发展清洁低碳能源并在基建层面规划有助于让AI更加环保。多位业界人士提到,数据中心应靠近发电厂,以实现算电耦合,减少电能传输和存储过程中的损耗。
然而,在东西部发展不均衡背景下,在西部建设数据中心面临人才缺乏和维护困难的问题。AI计算需要大量数据,如果计算需求离数据中心太远,数据传输成本就会非常高。因此,尽管西部地区建设了不少数据中心,但使用效率仍不及东部的超算中心。
AI对绿电稳定性的要求也提出了挑战。风电、水电和光伏容易受季节影响,而核电作为稳定且环保的能源选项,是未来数据中心选址的趋势。长远来看,可控核聚变技术的突破或许是支撑AI大规模发展的关键。
在气候议题紧迫的情况下,AI的发展与节能减排目标之间的矛盾显得尖锐。有学者担忧,短期内AI增长造成的硬件需求增加必然会增加能耗和碳排放。但也有观点认为,AI能够成为应对气候变化的得力助手,并且一些应用已经落地。
人工智能的能耗问题牵涉多个层面,气候问题更是如此。无论行业还是个人,我们有许多途径可以推动改变。
免责声明:本文章由会员“极目新闻”发布如果文章侵权,请联系我们处理,本站仅提供信息存储空间服务如因作品内容、版权和其他问题请于本站联系