<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Energy on John Chen's blog</title><link>https://andy1314chen.github.io/tags/energy/</link><description>Recent content in Energy on John Chen's blog</description><generator>Hugo</generator><language>zh-cn</language><copyright>转载请注明出处</copyright><lastBuildDate>Sat, 25 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://andy1314chen.github.io/tags/energy/index.xml" rel="self" type="application/rss+xml"/><item><title>把算力送上天（一）：电力瓶颈</title><link>https://andy1314chen.github.io/posts/2026/04/%E6%8A%8A%E7%AE%97%E5%8A%9B%E9%80%81%E4%B8%8A%E5%A4%A9%E4%B8%80%E7%94%B5%E5%8A%9B%E7%93%B6%E9%A2%88/</link><pubDate>Sat, 25 Apr 2026 00:00:00 +0000</pubDate><guid>https://andy1314chen.github.io/posts/2026/04/%E6%8A%8A%E7%AE%97%E5%8A%9B%E9%80%81%E4%B8%8A%E5%A4%A9%E4%B8%80%E7%94%B5%E5%8A%9B%E7%93%B6%E9%A2%88/</guid><description>&lt;h2 id="从一个反常的数字说起"&gt;从一个反常的数字说起&lt;/h2&gt;
&lt;p&gt;2025 年 11 月，国际能源署（IEA）发布了当年的《世界能源展望》。报告里有一行字：&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;2025 年全球在&lt;strong&gt;数据中心&lt;/strong&gt;上的投资预计达到 &lt;strong&gt;5,800 亿美元&lt;/strong&gt;，&lt;strong&gt;首次超过&lt;/strong&gt;全球&lt;strong&gt;石油供应&lt;/strong&gt;投资的 5,400 亿美元。[1]&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;IEA 执行主任 Fatih Birol 在发布会上说了一句挺有画面感的话：&amp;ldquo;那些说&amp;rsquo;数据是新石油&amp;rsquo;的人会注意到，这个数字已经超过了花在石油供应上的 5,400 亿——这是现代经济正在变化的生动一例。&amp;quot;[1]&lt;/p&gt;
&lt;p&gt;我不是 AI 信徒。我也不太相信&amp;quot;每一轮技术革命都会改变世界&amp;quot;这种话，类似的话过去十年我听过很多次。但这个数字摆在那儿不好绕过去：人类第一次在&lt;strong&gt;让机器算东西&lt;/strong&gt;这件事上花的钱，超过了在&lt;strong&gt;把石油从地下抽出来&lt;/strong&gt;这件事上花的钱。&lt;/p&gt;
&lt;p&gt;大模型正在真正成为和水电煤气石油一样的基础设施。&lt;/p&gt;
&lt;p&gt;石油供应链是上个世纪工业文明的主动脉。数据中心超过它，不是说石油不重要了，而是说有另一条动脉在以肉眼可见的速度胀粗。这条动脉的血液，叫做电。&lt;/p&gt;
&lt;p&gt;这篇文章想把这件事讲清楚：&lt;strong&gt;AI 不是在消耗算力，AI 在消耗电&lt;/strong&gt;。而地球上的电，正在以各种你想不到的方式告急。&lt;/p&gt;
&lt;h2 id="ai-吃电到底多凶"&gt;AI 吃电到底多凶&lt;/h2&gt;
&lt;p&gt;先给几个数字建立地基。&lt;/p&gt;
&lt;p&gt;2024 年，全球数据中心消耗的电量约为 &lt;strong&gt;415 TWh（太瓦时）&lt;/strong&gt;，占全球总用电量的约 1.5%。听起来不多。但 IEA 在 2025 年的电力专题报告里预测，到 &lt;strong&gt;2030 年这个数字会翻倍到 945 TWh&lt;/strong&gt; 左右，其中&lt;strong&gt;加速器类数据中心&lt;/strong&gt;（也就是跑 AI 的那种）的用电量将增长约 &lt;strong&gt;四倍&lt;/strong&gt;。[2]&lt;/p&gt;
&lt;p&gt;945 TWh 是什么概念？大致相当于&lt;strong&gt;日本全国一年的用电量&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;把镜头拉到单次交互的尺度会更直观。Epoch AI 在 2025 年 2 月的一份测算里给出：一次&lt;strong&gt;短输入&lt;/strong&gt;的 GPT-4o 查询大约消耗 &lt;strong&gt;0.3 Wh&lt;/strong&gt;。[3] 这点电量相当于一个 LED 灯泡亮几分钟，单独看完全可以忽略。&lt;/p&gt;
&lt;p&gt;问题出在量上。OpenAI 2025 年 7 月披露 ChatGPT 每天处理 &lt;strong&gt;25 亿次查询&lt;/strong&gt;，按单次 0.3 Wh 折算，光这一家产品的推理侧平均功率就在 &lt;strong&gt;31 MW&lt;/strong&gt; 左右——相当于一座小城一天的用电负荷。[4] 而这只是一次&amp;quot;短输入&amp;quot;的估算；如果算上长上下文（10k token 以上会升到 2.5 Wh）和推理模型（o1、o3 这类，token 量约是普通模型的 2.5 倍），实际数字只多不少。（注：以上为基于短输入的保守估算，真实单次能耗因多轮对话、长上下文等因素普遍更高）&lt;/p&gt;</description></item></channel></rss>