TA的每日心情 | 怒 2025-8-7 11:56 |
|---|
签到天数: 1132 天 [LV.10]大乘
|
后来想了想,我让龙虾爬了一个分析全球AI数据中心建设和运营成本的报告,内容如下:3 ?" \0 [3 S, T; H
6 q) T4 F' _$ ^8 M9 P
一、总体分析框架与核心结论8 ~$ ^' ?8 V! X
1.1 分析框架概览: T: _0 Q# k3 _# R; ?' @
拆分维度
& j3 g0 h- c& P7 a. d8 J8 p: G4 _& B4 k1 W( S
阶段:
5 R9 D/ \+ e2 V: T( z6 y建设期(CAPEX):土地/建筑、供电与配电、制冷、IT 硬件(GPU/TPU/加速卡)、网络与其他基础设施
3 k# t' ]" e- P5 F3 J, ^* L% }运营期(OPEX):电力、水、运维人员、场地/托管、维护与更新、网络带宽等% m6 o- g! Y" x
区域:
( u0 H" h4 i @" Z; t+ c6 I& b中国、美国、欧洲、中东(以海湾地区/UAE 为代表)
/ S4 ?2 j" {) a技术方案:* R+ x3 W0 C E# V' {: {
NVIDIA(H100 / H200 / B200 / GB200 NVL72 等)0 f6 T5 H! x- k3 H2 M" z, T/ H5 b
Google TPU(v5e/v5p/Trillium 等)- F9 ~- N& K* p$ E4 p
中国芯片:华为昇腾 910B / 910C 系列、阿里平头哥真武 810E(PPU)
3 ^3 A6 z$ v( }1 f8 O* u" b9 W算例基准
! L' ?; E3 ? [1 _9 t- j' Q! c- n4 G; j' l, o
以400 MW 级 AI 数据中心为统一标尺(与 ChinaTalk BOTEC 分析保持一致)[1]:
$ L0 Q Y2 `$ O) N, g9 Y; Q" J9 u' b其中 IT 有效功率约 360 MW:GPU/AI 加速约 312 MW,CPU/存储约 48 MW6 m+ _9 a Q( @& b6 ~
PUE 假设约 1.11(高效液冷场景)[1][29]3 a2 I2 |' E# J/ a
时间窗口:3–5 年运营期(与行业 TCO 分析和硬件折旧相匹配)[28]9 h( M5 ?- ]6 J3 k" { h: y
关键指标
0 g* y9 ~$ E' t8 E4 \
' s) X; m, F2 b8 Y: K$/MW 建设成本(含/不含 IT 硬件)8 Z g9 b3 z3 y* b* s! ~
$/kWh 电力成本、L/kWh 水耗
' K, X! [# ^, N8 D5 j$/token 或 $/百万 token 的综合成本
: q8 t. k6 R8 Z9 c) qToken-per-watt / Joule-per-token 作为能效基准[17][18][26]2 S+ G, m) R t5 Y$ i
项目 IRR/回收期、吨位级 TCO 对比(自建 vs. 云租)
6 J8 U* M P- e+ e# Y1.2 高层结论(供决策快速参考)
8 {+ V0 d% K+ Y6 a; B- f建设成本:AI 数据中心相对传统云数据中心成本翻倍
1 _7 c' l9 L1 ]3 U& C# W* i- {+ R0 }# L2 c
传统云数据中心壳体+机电平均约 $10.7M/MW (2025),预计 2026 升至约 $11.3M/MW[2][41]。2 Q, I2 m* \, X9 \; H* W
AI 优化数据中心(高功率密度 + 液冷)壳体+机电可高达 $20M/MW 甚至更高[41]。
4 L8 S; C/ W- w/ \# S( F按 Accenture/Soben 研究,传统云 DC 为 $8–10M/MW,而 GW 级 AI 数据中心可达 $17M/MW(仅壳体+机电,不含 GPU)[3]。
5 d* ]2 h6 f# p! d. X1 C# }区域 CAPEX:中东≈中国 < 美国≈欧洲 < 高端 AI 园区
* l* V* b5 J; g2 t: W- ^) ~+ ]9 u. T
2 X" V7 |0 b1 F+ G/ O/ M中国:$5.5–6.5M/MW,400 MW 约 $2.4B[1][13]
1 l! j1 N8 N. x6 J+ A- s美国:$8–12M/MW,400 MW 约 $4.0B[1]( ] O) N; p. Z7 ?, ~/ r" O
欧洲:接近全球平均 $10.7–11.3M/MW[2][41]
: Q0 e. X1 K2 X7 F R6 Y中东(UAE Stargate 5 GW):总投资超 $30B,约 ≥$6M/MW[20]
1 M1 V/ u9 }2 p" J) c: y6 l) o3 S结论:中国与中东的壳体+机电 CAPEX 明显低于美国/欧洲,同等规模下节省约 30–40% 构筑成本。
6 j7 S" ~. u3 `2 a5 NOPEX:电价与人工决定区域优势+ r# ^, b4 `: t& K5 u/ _9 R. N
. y+ k( q* N& B; K4 S* g x8 c电价(2025–2026 工商业大致区间):
0 h& B+ A: }2 T中国:约 0.8–1.1 元/kWh ≈ $0.08–0.11/kWh,部分算力基地可通过长协拿到 ≈3 美分/kWh[12][73]
# t \& h3 V: D" n7 m美国:工业用电约 $0.085–0.09/kWh[44]
. @ ]; N! K. k& e% Q* a# _& x欧洲:非居民平均 €0.19/kWh ≈ $0.20+/kWh[45]: @+ [0 x' z2 `$ v, j2 z" u# v
中东/UAE:工业用户 $0.07–0.13/kWh[47]* _: x; {$ t5 d2 G( I
人工:
0 y I# Z& k& P3 n1 a8 f/ [中国数据中心运维:约 $22k/人/年
7 x! ]8 i: P* T美国数据中心运维:约 $120k/人/年[1]% G/ B5 u3 L/ o$ {4 d) Z
结论:电价上中国西部/北部与中东有显著优势,人工成本上中国远低于美欧。6 r7 r' P3 G# i! z- B
能耗与每 token 能源成本:能效差异远大于电价差异# q& a( [! O6 q1 ^ {% J7 \9 w
% f" i, R: k2 m, b; fIEA:2022 全球 DC+AI+加密耗电 460TWh,2026 可能至 620–1050TWh[86][90];AI 专用服务器约 90TWh 量级[30][90]。
7 B3 f8 l U3 ?3 A; V' U大规模 LLM 推理能耗估算:H100 集群训练 GPT-3 175B 约 2.46–3.63 J/token(训练)[10][16];经推理优化后,Inference 端典型可做到 0.4–1.0 J/token 级别[17][26]。
& M' `$ t& r4 u( \1 b将 token 能耗约化为统一口径:
4 P+ O: _1 J6 C; t' _粗略取 1 J/token = 2.78×10⁻⁴ Wh/token。若电价为:' f: E% \" S2 p* H' ~
中国 0.3 元/kWh ≈ $0.042/kWh:电费 ≈ 1.17×10⁻⁸ $/token ≈ $0.0117/百万 token
% s" S0 d' T8 D: R, t美国 $0.30/kWh(题设):电费 ≈ 8.34×10⁻⁸ $/token ≈ $0.0834/百万 token
' S7 m% R5 A9 U$ F$ I, [5 o9 t对比:OpenAI GPT‑4.1 / GPT‑5.2 系列对外 API 输出侧价格 $8–168/百万 token[62],电费占比 远低于 1%,真正决定成本差异的是硬件 TCO 和利用率,而非电价本身。
9 C5 _9 Z2 Z' D- c/ F0 l不同芯片方案的核心差异9 v* Z) @$ L6 e" K9 ?" V+ h# v
# O3 p# [' u6 j2 P$ E( u9 J# `& f+ SNVIDIA Blackwell/B200 & GB200 NVL72:
. U' c( n, s- Q i Y: T# ?单 B200 GPU 峰值 ~4.5 PFLOPS FP4/FP8,功耗 600–1000W[68][69]。" r/ r" E8 U* T3 a o$ k0 U
GB200 NVL72 整机架售价约 $3.0–3.35M,72 GPU[34][69],GPU 约占整个 AI 数据中心总 CAPEX 的 39% 左右[36]。8 P: _! r2 s6 E g2 }
Google TPU v5e/v5p/Trillium:) P8 j: e2 x4 r) X& A9 ]
TPU v5e 8 芯推理:约 2,175 tokens/s(Llama2‑70B,INT8)[67];功耗显著低于 H100,同负载下能耗可降约 5 倍[67][52]。
+ K+ b3 p1 N( r2 j4 T2 Z; UGoogle 内部披露 TPU v5 能效约为 H200 的 1.46×,Trillium/TPU v7 更高(约 2× 甚至以上)[52][65]。* u& R; ~9 x# G/ G+ \% R
华为昇腾 910B:5 X! T& L7 V) e' S* ]& e& w! O
FP16 算力 320–376 TFLOPS,INT8 640 TOPS,TDP ≈ 310W[80][81][82];能效接近甚至超过 A100,在长序列推理上 token-per-watt 可超 H200[71]。( b8 v7 j6 b: P; I( U
单芯片成本约 5 万元人民币 ≈ $7k[60],显著低于受限版本 H20/H100。
0 m, S9 Q8 |3 Y阿里平头哥真武 810E(Zhenwu PPU):0 w+ U. j* [" W) E- E" t
96GB HBM2e、700 GB/s 互联带宽[59][111],功耗约 400W 级别[102],整体性能对标 NVIDIA H20/A800,并已形成万卡集群部署[59][111]。
6 f: r* s7 ^+ C结论:
( U+ q$ M: V' N# a% f; K- r能效(tokens/J 或 tokens/W)排序大致为:Google TPU v7/Trillium > NVIDIA B200/GB200 > TPU v5e/H200 ≈ 华为 910B ≈ 阿里真武 > H100/A100。2 G9 L/ ~: `) h8 C; [3 p, [
单芯片/整机价格排序:华为/平头哥 < TPU 自用成本(Google 内部) < NVIDIA 公版(H100/B200/GB200)。
' b, X" _7 Q: @. H9 V& z. y0 y对中国市场,在算力性能足够的前提下,昇腾 + 真武 方案的 CapEx/每 token 成本有 30–60% 的价格优势。) L( U5 w7 `8 T
自建 vs 云租的 TCO 与 token 成本0 d; k( p' ]# X( t' P' N' A! K
, E9 ~3 t- ~- C, d- [6 T/ M5 h- H) S9 z
LenovoPress 对 8×H100/H200/B200/B300 本地 vs AWS/Azure/GCP 的 5 年 TCO 对比[28]:7 n5 B: c0 {+ p5 K K' I K3 k! D
8×B300(Config D)自建 5 年 TCO ≈ $1.01M;& Q. e; P5 y* e
等价 AWS p6‑b300.48xlarge(24/7)5 年 ≈ $6.24M,节省 83.8%。4 f* }6 l4 [$ Y- E$ o/ @1 r6 e
8×H100(Config A)自建对 Azure On‑Demand,回本点约 2,720 小时(~3.7 个月),对 1/3/5 年保留分别约 4,423/6,800/7,591 小时(~6/9.3/10.4 月)[28]。; e! b2 {: S! R& s, h4 A6 p! ~
Token 成本对比示例(LenovoPress 场景)[28]:, h4 ^# h& h/ Y! ]2 }% T: E0 j
Llama‑70B 推理,8×H100 本地:约 $0.11/百万 token! [+ g6 M; f6 R8 @/ R1 r
vs Azure H100 On‑Demand:$0.89/百万 token → 自建 ~8× 便宜。
4 j/ d2 G0 e! Y! V同样 70B 模型,自建 vs GPT‑5 mini API(约 $2/百万 token):自建便宜约 18×。1 X6 _8 E6 P* {0 z, `6 L
Llama‑405B,8×B300 自建:$4.74/百万 token,AWS B300 On‑Demand:$29.09/百万 token → 节省 ~84%。1 c/ o+ Q% G& d: E
结论:7 a1 l5 Z6 F" K) _
高利用率、长周期推理负载下,自建 AI 数据中心的每百万 token 成本可比公有云或高端闭源 API 低 1–2 个数量级。
" P6 n, b9 `% `- Q$ i: e$ z2 s5 n& jToken 电费占比极低,自建 vs 云租的差异几乎全部来自 硬件折旧 + 云溢价 + 运维与利用率。3 j: j6 p0 ~) V7 m
二、建设期成本分布:区域对比
; L% i5 z" g+ h+ [0 D以下重点讨论 壳体+机电(不含 GPU) 与 全栈(含 GPU) 两层。
2 @/ \9 i% r" }4 s4 b
( t/ F6 ~$ n) m3 ^0 a2 B+ @/ u2.1 全球/通用结构(以 1 MW 为单位)
; V7 ?" }9 h9 c# Z+ H9 g& [- A3 P综合 JLL、ConstructElements 等[2][41][40]:% W- J2 C4 Q+ k) d* R/ d- g
! P! v; t- D3 ]* H0 n4 L& V- O! \
壳体+机电(Shell & Core)
( D4 T5 `/ q5 U" A+ n$ ]1 E
$ d9 l5 t3 P1 G) a全球传统 DC 平均(2025):$10.7M/MW,2026 约 $11.3M/MW[2][41]) J# A' c' |- l1 S; l D' B
其中按成本构成[40]:
& p0 O) F2 m l+ y+ l# T0 y电力系统(变电、配电、UPS、母线等):40–50%
$ j- x, h- n: i8 R s5 G D9 P机械与冷却(冷机、冷却塔、管路、CRAC/液冷):15–20%/ z" U# O: K2 ]3 [" O# D a
建筑与土地、结构:约 15–20%
6 R% f8 p, S+ k' o其他(消防、安防、楼宇管理等):约 10–15%
1 P* m! q* Q# f5 u* t, uIT 内装与 AI 基础设施(不含芯片)
8 a2 h6 n, |5 y6 ?, Q P6 g, o! J ^" |8 J' d7 _9 e
高密 AI 集群内部装修(高密布线、机架、液冷板/浸没舱等)会在每 MW 额外增加 $25M/MW 量级[40],对 GW 级园区影响巨大。; p0 g# M5 H+ m6 f
GPU/加速卡硬件 CAPEX
" O- a" U: w6 D
2 p) ]6 M5 o3 V多数分析认为 GPU 占 AI 数据中心总 CAPEX 的 30–40%,其中 NVIDIA 单家毛利约等于整个行业 CAPEX 的近三成[36]。. d& Z; k f! W1 h
2.2 中国 vs 美国 vs 欧洲 vs 中东:1 MW 建设 CAPEX, {3 ~ F2 C9 V* g
结合 ChinaTalk、JLL、UAE Stargate 等[1][2][20][13](仅壳体+机电):3 n; r( `5 `3 C* ~/ J) A& R& a( ?" q
+ _& N# h5 V) {区域 典型建设成本(壳体+机电,$M/MW) 备注" p4 ] @4 X, n" y' x0 l
中国 $5.5–6.5M/MW 以西部算力基地为主,400MW ~ $2.4B[1][13]
- y) Y6 n- G3 h# V' J9 p美国 $8–12M/MW 典型超大算力园区 400MW ~ $4.0B[1]& Q2 G+ s; e! f5 H
欧洲 $10.7–11.3M/MW 接近全球平均,部分核心城市更高[2][41]+ Y. j, Y) z; X* J8 D, x$ n
中东 ≥$6M/MW UAE 5GW Stargate >$30B → ≥$6M/MW[20]
6 X6 g5 y: _4 |0 }结论:
; Z7 w0 J1 L& M8 f* K) o) n2 R' V2 Q0 @( t+ a3 N5 D7 _
单位 MW 壳体+机电 CAPEX:中国 ≈ 中东 < 美国 < 欧洲。& ~( q" e: X$ g+ W" E! u
若考虑土地、电网接入和许可周期,中东(特别是 UAE/沙特)在电力可得性和政府补贴方面往往优于欧洲,趋近美国甚至中国。2 W) Q- L+ c7 h9 `
2.3 引入 GPU 后的全栈 CAPEX(以 400MW 集群为例)
& ~0 v: O( v4 J! V以 ChinaTalk 的 400MW NVIDIA GB200 NVL72 集群为例[1]:, a. P0 Z1 V9 _! }8 Z; F8 i
* @& t7 O% b! P' D& O假设:PUE=1.11,电力侧 400MW,中约 360MW 投入 IT;
5 r8 i! s% x# [% zGPU 配置:' J2 m. c) T( Y# D/ H7 Q2 y
有效 312MW 用于 GB200 NVL72,约可容纳 2,154 racks(每 rack 144 GPUs,对应功耗 ~145kW/rack);* L* z; T& B I9 p$ j) k
每 rack 成本 ≈ $3.0–3.35M[34][69];
0 W5 O! H4 P3 o- PGPU 总 CAPEX ≈ $6.5–7.2B 量级(ChinaTalk 抽样约 $5.6B 略保守[1])。
* M) G) X: f1 ~# d与不同区域壳体+机电组合:7 n/ B) n2 U8 `- D- z
+ h" \: Q1 G8 a$ z% }) Q以中值估算: @3 \8 z' D7 y/ { ]; |
* J8 ]/ J4 M$ k$ K9 J4 F中国 400MW:壳体+机电 $2.4B + GPU $5.6B ≈ $8.0B# z% h' k* c$ w& J
美国 400MW:壳体+机电 $4.0B + GPU $5.6B ≈ $9.6B# K& _) z& U1 A* I6 h3 Q' U4 q: n( A
欧洲 400MW:壳体+机电 $4.5B + GPU $5.6B ≈ $10.1B
- n$ P) ^' B2 ~4 q, Q+ |3 H中东 400MW:壳体+机电 $2.4–2.8B + GPU $5.6B ≈ $8.0–8.4B( T y; l/ N" T- h
可见:: X r* ~1 ?( r3 f
8 q/ C+ n6 {$ ~, kGPU 成本在各区域大致相同,决定区域 CAPEX 差异的主要是壳体+机电与土地/电力接入。
$ Q2 H' }3 p4 S8 J3 u相比美国/欧洲,中国和中东可在 400MW 级别节省约 $1.6–2.1B CAPEX,这对 IRR 有直接影响。
5 U7 h& z+ }) j; J* S6 I+ c三、运营期成本结构与区域对比
+ `: a5 U# `; f9 _3.1 通用 OPEX 结构(高密 AI DC) C- J' u3 E$ _
结合 ConstructElements、IEA、Microsoft/Google 披露[40][86][103][104]:
6 }3 R' N6 M$ Y2 x: V" f. z# G" P* P9 u- b& F5 E1 j
电力:约占总 OPEX 的 20–30%(传统 DC),对于 AI DC 因 GPU 负载密度提升,可达 30–40%。
3 G) y5 Z$ g& Q冷却与水资源:
' l' T1 H" r7 G1 Y/ v2 a能耗:传统风冷约占总功耗 30–40%[39];液体冷却可将 IT 与制冷合并大幅降 PUE 至 1.1 左右[29][115]。
5 g+ c) m5 H+ I" M, X+ _水耗:典型 DC 约 1.9 L/kWh 水用量[105],每日用水可达 300,000–5,000,000 加仑 规模[100][101]。) b+ |0 i% e) f+ Y7 P# @% O5 K
人工:视地区而定,在中国/印度/东南亚占比 5–10%,在美欧可达 15–20%。+ E+ ~( U8 E A
托管/物业与维护:
. ~5 n- \ u3 s S1 ^( G& ~托管:高密机架约 $1,500/机架/月,标准机架约 $600/月[40][28];9 }" {( M+ B. |2 f8 P
硬件维护:LenovoPress 模型中按设备价 12%/年[28]。
/ s6 j! F# @0 a2 [$ q* X3.2 区域差异(以 400MW / 3 年期为例)
3 a1 a! S8 L) G5 L3 E- ^使用 ChinaTalk 的电费与人工估算[1]:$ A6 h; E: Q6 i6 s" K* @
3 }9 M! ]5 x4 V0 r电费(3 年) – 假设 GPU 利用率 60%,IT 360MW,PUE=1.11:1 [- q4 ?# Z) b
中国:约 $0.06/kWh → 3 年电费 ≈ $350M% p* j# m6 E- A. o
美国:约 $0.09/kWh → 3 年电费 ≈ $600M3 }$ d$ h/ ]3 e0 k# ], n1 P; h. d
中东:约 $0.07–0.10/kWh → $400–550M1 g2 _2 ^" ~- P+ _: m& o9 s. C
欧洲:约 $0.20/kWh 以上 → 电费 > $1B(显著劣势)
$ f, w) y' x, @" ~2 T$ Z水费(3 年) – 以 MS Fairwater 站点 280 万加仑/年为参照[1][103]:5 E6 S+ H6 P9 s1 v* K2 P1 n9 F
美国水价约 $5.18/千加仑,中国约 $2.57/千加仑[1]
: J+ U8 r' M$ I# b/ y三年水费级别:$ B) D2 X0 Q1 W, N8 ]- b
美国:$40k+& d3 t& ~% N5 m" f8 Y
中国:$20k+
* D- P7 t2 Y; _% N/ i, H结论:水费是数量级上可忽略的小项,真正的约束是水资源总量与选址,而非成本。
; d4 U6 P/ g6 s3 O$ i% q人员成本(3 年) – 假设 500 名全职运维:
. a. s" i! n. W" G: b美国:500 × $120k × 3 = $180M+6 H3 z4 y0 j! Q' Q; [1 Q' c: m
中国:500 × $22k × 3 = $33M+
9 `6 ]# ?" A4 k5 ?6 J! z差异约 $150M,规模与 3 年电费差不多,是中美间第二大成本差异来源。
; {5 a/ s1 M8 @整体 OPEX 粗算(3 年) – 400MW 场景下:9 A; D+ u4 M1 R. k
/ o- _! }$ ?6 u2 d3 r [项目 中国 美国
: B, a/ B( t$ q% Z电费 $350M $600M, X5 H5 e( m& l' z) ~- ]
水费 <$0.05M <$0.05M
3 b, Z* i- O5 m0 k" x人员 $33M $184M
) m6 [5 F- G4 d; s0 t其他维护/托管 同比例估算,地区差异主要体现在人工与地价
4 y5 J1 @ G+ z$ D结论:
8 g) O: z2 \6 Y2 C
: W2 m* O: W* i: p3 P) y7 m V就 3 年期而言,中国与中东在 电价+人工 两项合计可比美国/欧洲节省 数百百万美元级,与整体 CAPEX(数十亿美元)相比不算决定性,但对净现值和现金流有实质贡献。$ W" c: i3 r% \' \2 u c) k
对大模型服务商而言,更核心的是 GPU TCO 与 token 单价之间的剪刀差,而电价更多影响“边际利润率”而非“能不能赚钱”。5 e0 ?: w7 q) r
四、基于 token 的成本与利润推演" y+ g* Q; w0 A) m4 ?
4.1 能源维度的 token 成本(题设 0.3 美元 vs 0.3 元)
) m; Z/ C3 s' o) B1 j; ^统一假设:
( c) W4 r8 P" J6 h- [, t( f& P8 M# j& G3 m
典型大模型推理能耗:约 1 J/token(考虑 FP8/BF16 优化、Batch=256–512 时的能耗甜点[26][17][18])% d6 Y" R& e" y5 n" `/ {' M
1J = 2.78×10⁻⁴ Wh → 每个 token 约 2.78×10⁻⁴ Wh+ W9 Q! k" F' F& v/ w2 V
1 百万 token:278 Wh = 0.278 kWh* x6 U( V# S4 O9 K6 @, p2 _: Y
场景 A:美国电价 $0.30/kWh, t' i. `" Z0 S! f
电费/百万 token = 0.278 kWh × $0.30/kWh- `# P/ W9 P! H3 }, E
≈ $0.0834 / 百万 token$ s/ E/ T$ X; w) o8 [
场景 B:中国电价 0.3 元/kWh ≈ $0.042/kWh8 G% V7 d6 p4 s+ M4 `
电费/百万 token = 0.278 kWh × $0.042
, t o8 r- @' ^8 j# I/ z( U≈ $0.0117 / 百万 token" X1 y3 ~' Q. r. ^# U- T
对比当前 API 价格(OpenAI 2026Q1)[62]7 e9 U3 q. l% h4 y [+ y7 y5 l
以输出侧为主(成本最敏感):# A3 w0 n( d6 I) h* @1 c
5 z2 K' Z2 q1 L
模型 输出价 ($/百万 token)
+ O6 O5 H+ j1 H/ R6 K2 R- EGPT‑5.2 $14% B7 G; i: k2 k: s! A2 \
GPT‑5.2 Pro $1682 `5 g) h" A1 ]; q. s' {# c8 x
GPT‑4.1 $8, z3 v" ^2 \; B T+ ~% ~* ^% y, a: S% b
GPT‑4o $108 w0 m- b$ G/ k$ B6 _% ^7 P, a
GPT‑4o mini $0.60% ~9 \! m: V( W
则:
1 N5 w3 @( H2 g+ G D, W; J6 M0 v! M) c9 k" k( E0 v
在美国 $0.30/kWh 的极端高电价下,电费占 GPT‑4o mini 收入的 ~14%(0.083/0.60),占 GPT‑4o 仅 0.8% 左右。5 V3 ]+ D) U" L W* q
在中国 0.3 元/kWh 下,电费占 GPT‑4o mini 收入的 ~2%,占 GPT‑4o 的约 0.1%。
/ x! ?2 b9 o/ ?! Z相比之下,GPU 折旧+云溢价+开发/运维成本才是主导。4 a' m/ e% I% l: e& ~; g3 R J
结论:
" V3 ~- B3 O$ [- A* L- Y即便在“美国 $0.30/kWh vs 中国 0.3 元/kWh” 的极端对比下,每百万 token 电力成本差异约 $0.07,与主流 API 价格($0.6–$168/百万 token)相比仍属“小数点后两位”的影响。区域电价主要调节“利润率边际”,而不会改变“项目能否盈利”的结论。
P1 F) l9 H- ?/ F; Z
) B9 \1 J2 c' C, M8 ^1 I4.2 全成本 per token:自建集群视角(基于 LenovoPress TCO)3 M3 N1 A2 l' _/ O5 F) i
以 LenovoPress 的 8×H100 Config A 为例[28]:7 ^# t1 a" E3 L! c+ S' Z1 D1 {' o
. x! s# ^# X% i5 年摊销下,8×H100 本地推理 70B 模型:
2 @; f' r& Y3 t z6 \; o小时综合成本(CapEx摊销+Opex):$12.08/h$ r, i- Z9 q$ O- B
吞吐:30,576 tokens/s → 每小时 ≈ 110M tokens
1 P6 [2 H( d; n: G/ j成本/百万 token ≈ 12.08 / 110 ≈ $0.11/M token
: T5 r6 _+ N& }! J电费在其中的占比:
2 U. L; \; y1 oOpex 6.37$/h 中电力+冷却约 $0.87/h[28]
1 j. F: I1 Q$ T k2 {+ c* `4 @* w' {电费/百万 token ≈ 0.87 / 110 ≈ $0.0079/M token
7 t$ P% C& G2 M* E% n6 @电费占 总 token 成本 ~7% 左右。
8 O" }; u! l. k' S/ e' u若将美国电价从 ~$0.12/kWh 提高到 $0.30/kWh,则电费约增 2.5 倍,对总 token 成本影响约 +10–15%。" t6 W8 ^: h& B( u( \2 _
若迁至中国西北 0.3 元/kWh 或中东低价长协,电费可再降 40–60%,总 token 成本再降低约 5–10%。
' h4 {/ |$ y3 @# C6 t% u4 j$ t4 Q& I) T W6 O) @7 [# w1 G
因此:
/ t# @ L% X! a3 W: q9 O, b+ C6 _ F5 b4 V& E" s
在自建集群场景下,电价对 token 成本有可见但非决定性的影响(变化量级在 ±10–20%)。) U3 E5 `( V6 F" p8 q
在云租和 API 模式下,电价影响则被进一步摊薄,绝大多数利润被云厂商的溢价和 GPU 供应链吸走。
# \) C* U/ F8 W" u& V* r五、不同芯片方案的建设与运营成本对比
% F8 F! f6 n! h3 X' i+ p- ^5.1 NVIDIA 方案(H100/H200/B200/GB200)
7 m/ [3 F6 e6 C" t; gCAPEX:% s, m$ ]- ]8 ?% Q% b0 m
/ P- J7 k2 L8 gH100:单卡市价 $25k–35k,8 卡服务器约 $250k+(Lenovo 配置价 $250k 左右)[9][28]。
, M8 ~. z# I. I( B$ FH200:显存提升,单卡价更高,8 卡节点约 $280k[28]。 k4 M' Z! A% L- G0 V% I( s
B200:Blackwell 代 GPU,8 卡服务器约 $338k[28]。
% J* C. Z0 X: `2 C( {6 CGB200 NVL72:; T9 a$ r$ |6 X, s
每 rack 带 72 GPU + 36 Grace CPU,售价约 $3.0–3.35M[34][69]。
' }6 [& Y( H& ?0 E$ f- s冷却系统每 rack 额外 $50–56k[35]。
" s$ G3 @2 t% ^ R( i2 K7 G9 p在 400MW 场景中,GPU 总 CAPEX 约 $5.6–7B,占总体 CAPEX 近 40%。
3 w! g* ]' j7 ^9 l4 @ MOPEX & 能效:0 e) x; ^) S# U2 y
) ?/ ]1 e6 V6 I
单 GPU 功耗:
, G j: z2 c* M2 l" hH100:TDP 700W;集群实际单 GPU 含服务器/网络开销可到 ~1,500W[16]。
* K: g7 c5 R* `% w4 PH200:功耗类似或稍高,但性能/W 提升[9][10]。6 I8 Q7 R; I! H2 b) h. u( M) j/ f ]
B200:标称 1,000W TDP,但实测约 600W 左右[68][69]。: v2 C7 y5 e- g( G5 i& t5 ]
Token 性能:7 c" P9 A1 e8 M: T( o! n j
B200:官方推理基准中,可达 60,000 tokens/s/GPU 级别(gpt‑类模型)[68]。
\% k2 t/ i: I+ m! q; \NVIDIA 的优势:
" d5 E J S- ]
8 z% z' s( l% W' g4 [( p软件栈成熟(CUDA/TensorRT‑LLM),易于榨干硬件性能,batch 与多 GPU 并行调度成熟 → 在同等 PUE 与模型条件下可达更高 tokens per Watt。, U# q1 O8 Q1 M% `% r. g" E8 v
但硬件价格与毛利极高,从 TCO 角度,“谁买单 GPU 溢价”是关键——云厂商多半将成本转嫁给 API 用户。
& q' S4 ]: R+ A! E5 I5 e5.2 Google TPU 方案
/ a; E# p/ f7 d8 RCAPEX:
! O4 d4 W& D5 W, f1 _
6 w0 j6 z+ \) t( O5 x1 E+ o单 TPU v4 定价约 $3.22/芯片小时,v5/v6 在云端按实例小时定价对外[52][54]。
& T$ d+ d* F. B+ gGSR 估算:TPU 的出厂 ASP 约 $4,500–5,000/片(Google 内部成本)[54]。
6 M4 ?' h+ w) H6 h8 TPU v5e 实例约 $11/h,而 8×H100 云价可高达该数值的 5–10 倍[52][54]。
4 t8 t9 v2 i/ C- R+ _7 n* E能效:
r6 p, ^* w1 b8 F4 k# G( m3 F" m& ?
TPU v5e vs H100:
! @; L z3 `! i( O2 g, d+ G2 J同级推理场景下,8×TPU v5e ≈ 2,175 tokens/s(Llama2‑70B,INT8)[67],H100 需更高功耗才能匹配。
7 d9 W9 s8 J! }" k- d# j) B测试表明 v5e 功耗约为 H100 的 1/5 左右[67][52]。+ w. N: b% K9 `) l( y/ ?: w% w# T
新一代 Trillium/TPU v7:
0 a/ u+ w2 L" J: z' [能效比 TPU v5p 提升 ~67%,对 H200 或 B200 整体上能实现 2–3×性能/W 优势[52][65]。4 E5 G( Y- H! d5 C
Google 方案的特点:+ B: _, i( ?0 d) H$ K0 x
$ {3 X0 m+ {$ _ @5 j5 N( P自用闭环——Google Cloud + TPU + Gemini,利润来自整体云栈,而非单个芯片;8 @% G" [+ K) S
对外公布的 API 价格较为激进,TPU 方案在 tokens/W 与 tokens/$ 上具有显著优势,尤其在内部工作负载。
1 b) W3 {4 q+ c9 O, ]$ @5.3 华为昇腾 910B / 910C 方案
# b. W b8 }; H( k7 C& TCAPEX:
: @& d! i/ C1 }1 m% \" a0 Q: o) C! B( S. T
单 910B 芯片成本约 50,000 元人民币 ≈ $7k[60];910C 约 110,000 元[60]。7 R* h- Y! _- |, U" N, F, [
与 A100 对比:; e) G S( E/ `# e2 A2 N4 W/ j# c
FP16 算力 320–376 TFLOPS,功耗 310W,性能接近甚至略高于 A100(400W)[80][81][82]。
$ }# l2 s' t$ U- @+ ~4 b& ^市场报道中,NVIDIA H20 在中国售价约 10 万元/片,而 910B 更便宜 30–40%[61][72]。, N' V: X& {- H. {4 c
使用昇腾构建类似 400MW 级别集群,总 GPU CAPEX 相较 NVIDIA 可节省 30–60%,视集群规模与供货条件而定。& ^+ a% G1 J7 ]8 x; Y# X( Q
OPEX & 能效:7 I! L- [! K. ?+ h: w, ^8 K
! e* f2 X h' ?3 D1 a2 f910B 功耗 310W,FP16 320–376 TFLOPS → 性能/W 与 A100/H20 接近或更优[80][81][82]。* x2 L8 E$ `9 j$ Y3 b/ b5 R: x; L; `
部分推理 benchmark 显示,长上下文(>4k token)推理时,910B 在 tokens-per-watt 上可超过 H200[71]。* h5 t# ~" u8 q7 L2 L
在中国电价(0.3–0.4 元/kWh)环境下,昇腾方案在 TCO/tokens 维度有明显优势,但生态与软件栈仍在追赶 CUDA。
( ~+ W6 L. P. i9 O6 x5.4 平头哥真武 810E(PPU)方案! i# I7 C' H) Z; n; N
CAPEX:
0 O8 a2 Y/ y, A' U/ G3 S% y* t& u, L. @( m& S( m6 y$ K
技术参数:# r; j+ [5 y8 l$ \( X& w0 D
96GB HBM2e,片间互联带宽 700GB/s,自研 ICN 互联,PCIe 5.0 ×16,400W 功耗级别[59][102][111]。 b5 @4 }, u* C1 [0 y. g8 O. ]
性能:官方宣称整体性能超过 A800 与主流国产 GPU,与 NVIDIA H20 大致相当,升级代际可逼近/超过 A100[59][110]。
& m2 k. y9 R0 ^8 d1 Z7 p9 i2 K. B价格:
$ j; s/ |! {: V未公开详细单价;多个媒体报道指出“单位算力成本可下降 ~40%”,与英伟达 H20 有 3–4 成价差[74][112]。
+ C$ z- M7 Q' y& }1 R7 j3 r结合国内报道:% Z8 G( L& O# F) [
2025 年出货量数十万片,已在阿里云实现多个万卡集群部署,服务 400+ 客户[59][111]。/ m9 g4 F+ i( c, a$ t7 Z( ?$ a
数量规模与生态成熟度迅速提升,使得 真武+昇腾 成为中国公有云/算力租赁的主力基础。
5 n+ i. o" R, ^! T5 L& }OPEX & 能效:& A" f: {+ Q/ ^6 X* e1 b5 [' k
! f' s4 s# A. A- @$ T400W TDP、96GB HBM2e,使其在 高上下文、RAG、大模型训练+推理一体化场景 中具有良好性能/能效平衡;$ O O! O4 g' o8 W* W$ W
在中国低电价 + 低人工成本环境下,真武方案可将 AI 推理服务的综合 token 成本进一步压缩 —— 对标 NVIDIA H20,本地算力提供商可在保持 ~8–9 成性能的前提下降价 30–40% 仍保持毛利[74][112]。
) J' t/ C8 _, z/ U% B六、综合比较与策略建议; |* y7 S5 O3 R' N' j5 o9 i% K
6.1 区域维度:在哪里建 AI 数据中心?
# O7 \3 X3 P5 p纯经济性(TCO/tokens)排序(假设无政策/合规约束):
' e$ T/ x6 k( s0 N/ z7 l3 ^& N! D
0 s* f2 s H9 \' {% w& X中国西部/北部(电价低、人力低、建设成本低)
& e6 l8 H$ \1 m0 H中东(UAE/沙特)(电价中等偏低、土地与电力可得性好、政策支持)
3 }: M- A/ P1 x9 q6 p3 X1 G) |美国电价低但人工高;东海岸/加州电价上涨压力大
6 i" {, ], Z" M6 ]) q- f- \, b欧洲电价高、审批严格,但接近高价值企业客户和数据主权要求1 D; Y! o& K% d5 D
若以“美国 $0.30/kWh vs 中国 0.3 元/kWh”极端场景比较:
% Q0 k2 b" l& F& V7 s3 N; x5 |0 r% P% P0 W$ {% q, X' ~
纯电费/百万 token 差异:约 $0.083 vs $0.012 → 差别 ~$0.07/M tokens;! y/ n% x7 L' ?/ w! o
对比 API 价格:差异对整体利润率的影响远小于是否使用 NVIDIA vs 国产芯片、自建 vs 云租的差异;
7 A; B$ u3 ~; f3 f% o但在极高利用率的 自建超级集群 场景,电价仍然能在 5 年 TCO 上带来 10–20% 的边际优化,是选址决策的重要考虑。
' o8 i! o% s- Z% r& P4 L' Y6.2 技术栈维度:选哪家芯片/云栈?7 Q& g" C. E8 r
若目标是全球最优 tokens/$ 且不受出口管制:
2 ^) ?( a( d2 t b$ n2 Z6 O$ n
; e* B$ |; `- k# h# \3 sGoogle TPU v7/Trillium + 自建 on-prem:性能/能效与成本的综合最优,但前提是可以直接获得 TPU 硬件与软件栈授权(现实中仅限 Google 内部和极少数大客户)。' s) u4 g$ A: B! L& G
若在美国/欧洲,能自由采购 NVIDIA:& ]- J( D1 O: d& m
7 u/ s0 n$ y) H& ^5 C短中期内,NVIDIA B200/GB200 NVL72 仍是最佳实践:2 z* J% m& P i1 ]) h1 W7 j3 a$ _
成熟的软件栈与生态,极高的 tokens/s/GPU;
' ?3 S$ V$ {4 N在云厂商/超大规模自建模式下,配合液冷与 PUE~1.1,可取得较低的 token 成本;
# W6 E" ^6 m h* {- H( U( @但要谨慎评估 GPU CAPEX≈总投资 40% 的集中风险。/ P, Y! A$ z3 n4 V2 g
若在中国或存在出口管制约束:
* m t+ W1 X8 M! d0 F% I7 B. d5 r1 {
昇腾 910B/910C + 平头哥真武 810E 是现实可行的主力组合:
9 j+ J" U& F; N% `9 H0 \, g: C性能上已能覆盖大部分 GPT‑4 类推理需求;
. ?& F* M9 E" y6 X5 o单片成本显著低于 H20/H100,集群 CAPEX 明显更友好;
) B: G& w& f7 t0 G) z7 u( f$ d4 X软硬件全栈国产(CANN + MindSpore + 通义/Qwen 等),可避免制裁风险;4 ^( y* `. l$ `4 {7 ^$ a% ~
建议配合:4 t7 ^4 k! h4 p& x
高效液冷(PUE~1.1)、' {6 S# o% }4 t( U5 K" u
大 batch、路由(浅层任务走小模型/低成本芯片)、5 w F3 k, r* K' X @
强量化(FP8/INT4)与分层缓存策略,进一步摊薄 token 成本。& a0 D) T& K, E5 j/ n% g
长远看,“tokens-per-watt / PCE” 取代单纯 PUE/FLOPS 成为核心 KPI:7 M$ v" X8 L6 H( |. a
4 R! U' k% C& C8 w: Q$ c数据中心运营者应从“PUE 1.5→1.1”的设施思维,转向“每瓦输出多少有价值 token”的AI 工厂思维[29][118];8 l7 ?4 V6 }- ]
这意味着:% m, E1 ^/ x) o$ w$ \3 }+ x% N+ E
优先选择 更高 tokens/J 的芯片架构(例如 TPU v7、B200、后续国产芯片);
1 a5 v; T8 O) H- H# t4 n精细化调优 batch size、路由策略、CoT 深度,将“energy-per-token”作为最优先指标来优化[17][26]。
- E% t$ F5 @, R+ H6.3 针对你关心的具体问题的简要回答- ~& M, P% o: N. |. `% k0 n3 l
AI 数据中心建设 vs 运营成本的大体比例?0 C$ Y, N& S+ `! q1 X4 v; C
# J: ?% I8 u$ X% Q/ n
在 5 年期 TCO 视角下,CAPEX(尤其 GPU)约占总成本 50–70%,运营成本(电力+冷却+人工+维护)约 30–50%。
0 a" `; k, g5 Z: R- q, R+ X) m其中 GPU 自身 CAPEX 占到总 CAPEX 的 30–40%[36]。
! O" e9 m: i" K; z9 f( M3 ~3 \中国、美国、欧洲、中东的成本结构区别?
2 a7 n q( i' i5 l& \+ B3 `! _/ y) p4 t
建设期: d7 y2 |2 V% k/ t
中国/中东的壳体+机电成本明显低于美欧(约 5–7 vs 8–12 vs 10–11M $/MW)[1][2][20]。' ]- ~$ @& f2 h, d J
运营期:' D/ G" i7 D; a8 O" V: L
电价:中东 ≈ 中国西部 < 美国平均 < 欧洲
0 I# J: y2 D2 ]/ C" M0 s人工:中 国 ≪ 美 欧,中东居中。
" r k4 h# u1 y, V- F在美国 $0.3/kWh 与中国 0.3 元/kWh 下 token 成本与利润率?
% [8 A+ n# S0 }9 }# `' a! R# P1 S# [; F* y9 C. m
对于典型 1 J/token 推理负载:
' A* {2 m! s6 n; H8 D4 h美国 $0.30/kWh:电费约 $0.083/M token0 u- X% p6 o$ N5 C7 k
中国 0.3 元/kWh:电费约 $0.012/M token
) G+ j+ N& [* t. S对比 OpenAI 等对外价格($0.6–168/M token),电费无论在中国还是美国都只是利润表里的“小头”,主导因素是 GPU TCO 和平台溢价。7 s1 c3 O$ @. v& f' |
不同技术方案(NVIDIA / Google / 昇腾 / 平头哥)的建设与运营成本谁更有利?
7 t: ?! D0 B8 W0 y" [$ B7 F" w* g" h' y7 y6 N
在可获得 TPU 的前提下:Google TPU v7 在 tokens/W 和 tokens/$ 上最优;5 h0 C: ], H" k. j& V
全球通用方案:NVIDIA Blackwell 全家桶(B200/GB200)+ 液冷,但 CAPEX 巨大;* s4 X2 ^4 r A5 Q8 A% q
中国/被管制市场:昇腾 + 真武 是当前最有经济性与可持续性的路线,综合来看能把 token 成本压到 NVIDIA 方案的 40–70%。 |
评分
-
查看全部评分
|