- +1
“AI一下”的耗电量,够你吹多久空调?
讨论 AI 耗电高,不是斤斤计较,这背后是不折不扣的能源问题。
根据国际能源署(IEA)发布的《电力 2024——到2026年的分析与预测》,2022年数据中心、人工智能(AI)和加密货币行业的全球电力消耗占比为2%,预计到2026年将翻倍至1000太瓦时以上。
中科院计算所助理研究员程大宁接受澎湃新闻采访时表示,根据调研,未来算力会向着更大规模、更快互联、更小化发展。这有两方面的原因:一方面是现在模型的规模越来越大,需要更大算力和更大规模的显存才能支撑,另一方面,边端设备的智能化需要更低功耗,更快速度的部署,边端设备数量多,因此需求量也很大。而智能化设备已经成为生活中重要的一部分,未来推理会是更大的算力需求点。
程大宁还提到,从业内数据来看,国内一线大模型的运营成本中,电费占到了总成本的 50% 以上。
AI 如果一直这么耗电,普通人什么时候才能用上便宜的 AI 呢?要知道,GPT-4 的月费足足要 20 美元,文心一言的单月购买价格也要约 60 元。更多的 AI 工具开始选择按使用量付费。有报道称,因 AI 绘画而扬名的初创公司 Stable Diffusion 已无力负担天价算力账单。
从总量上看,AI 耗电量不断攀升无法避免,但科技公司也在想办法减少 AI 这只“吃电怪兽”带来的影响。
一条路是减小它的胃口,可以通过优化算法提高效率,给模型做量化、剪枝都是减少计算量的方法,因此也能减少电量消耗。另一方面,科技公司也在下注新型能源,OpenAI 的CEO,Sam Altman 就投资了一家核聚变初创公司。英伟达 CEO 黄仁勋则更乐观,他认为如果算力进步足够快,就不需要太过在意能耗。
回收热能的策略也很重要。根据上海交通大学算力中心的估计,回收热能可以减少算力中心碳排放4850吨/年,其中余热回收占950吨。优刻得乌兰察布数据中心的使用案例显示,利用算力热能功能可以节约50%左右的电费成本。
常言道,出来混总是要还的。AI 吃了这么多电修炼自己,除了吐出热能,还能不能还我们一个新能源的未来呢?时间会告诉我们答案。
至少现在,在找 AI 闲聊前,得先掂量一下它的夸张耗电量。
参考资料:
《藏在 AI 背后的“吃电狂魔”》 - 雪豹财经社:
https://www.36kr.com/p/2725525783520512
《1 次训练用电 2.4 亿度,AI 为什么那么耗电?》 - 返朴:
https://mp.weixin.qq.com/s/VPnzuzUWSOw2coA0uz7ETQ
《一句黄仁勋没说的话,火了》 - 36 氪:
https://36kr.com/p/2687714777493126
《算力的尽头其实是电力?》 - 腾讯研究院:
https://m.huxiu.com/article/2861503.html
- 报料热线: 021-962866
- 报料邮箱: news@thepaper.cn
互联网新闻信息服务许可证:31120170006
增值电信业务经营许可证:沪B2-2017116
© 2014-2024 上海东方报业有限公司