TA的每日心情 | 擦汗 2026-3-17 22:01 |
|---|
签到天数: 1133 天 [LV.10]大乘
|
沙发

楼主 |
发表于 2026-2-26 21:43:21
|
只看该作者
后来想了想,我让龙虾爬了一个分析全球AI数据中心建设和运营成本的报告,内容如下:# ~. t$ S. \) |+ q9 R
$ b' ]5 P0 C& B+ Q* _1 B
一、总体分析框架与核心结论( a$ _( w1 }6 |9 O
1.1 分析框架概览& Y a4 t5 l2 E8 L2 R1 Y
拆分维度
4 a( T6 R1 y: _* D& r& D8 T9 p' ?+ O+ o5 G4 w6 I) W1 y& L, h
阶段:. D; W. a% n$ z
建设期(CAPEX):土地/建筑、供电与配电、制冷、IT 硬件(GPU/TPU/加速卡)、网络与其他基础设施
. Q2 k6 b% H& i( _' m运营期(OPEX):电力、水、运维人员、场地/托管、维护与更新、网络带宽等
$ x' \( x4 N: i' Q+ y- t区域:* w& Q* y8 R2 _# n( {
中国、美国、欧洲、中东(以海湾地区/UAE 为代表)2 x7 ~ p% A, P) \
技术方案:: O8 n' ]+ c) V6 |- H( W5 {2 `
NVIDIA(H100 / H200 / B200 / GB200 NVL72 等)
$ p: b; z3 [: `Google TPU(v5e/v5p/Trillium 等)4 f2 ]( M0 ^1 [% C! B7 U3 D/ K
中国芯片:华为昇腾 910B / 910C 系列、阿里平头哥真武 810E(PPU)7 ^7 p ~% B5 w
算例基准5 h+ W |8 C. c
3 g, E/ F! L! ^以400 MW 级 AI 数据中心为统一标尺(与 ChinaTalk BOTEC 分析保持一致)[1]:
: A' v4 h5 C& e3 g其中 IT 有效功率约 360 MW:GPU/AI 加速约 312 MW,CPU/存储约 48 MW
: q1 e$ ^ C. L3 v4 RPUE 假设约 1.11(高效液冷场景)[1][29]
" ~& ?1 S! h; g6 w时间窗口:3–5 年运营期(与行业 TCO 分析和硬件折旧相匹配)[28]* |1 R7 o6 |8 d
关键指标
) R+ F! O- [* p H% n" u2 T; ]% L' Y: y) c
$/MW 建设成本(含/不含 IT 硬件)2 Z$ p: V2 D5 f' U9 t: C
$/kWh 电力成本、L/kWh 水耗
' r/ y6 k3 P% Q; Q- U$/token 或 $/百万 token 的综合成本
p- I1 K5 o t3 R* VToken-per-watt / Joule-per-token 作为能效基准[17][18][26]
- u% m2 f( c& [# k4 Z项目 IRR/回收期、吨位级 TCO 对比(自建 vs. 云租)
- ?2 y" p4 { i, L1.2 高层结论(供决策快速参考)
# A: C: n" u+ @9 Q" i) o/ t建设成本:AI 数据中心相对传统云数据中心成本翻倍3 h. z. S3 z H
* w0 O5 y2 ~. l) @* x传统云数据中心壳体+机电平均约 $10.7M/MW (2025),预计 2026 升至约 $11.3M/MW[2][41]。
* Q& |& `" X; E$ rAI 优化数据中心(高功率密度 + 液冷)壳体+机电可高达 $20M/MW 甚至更高[41]。
- q; G) [+ h, l# f2 u+ Y按 Accenture/Soben 研究,传统云 DC 为 $8–10M/MW,而 GW 级 AI 数据中心可达 $17M/MW(仅壳体+机电,不含 GPU)[3]。6 h" m" u8 @5 C8 ~
区域 CAPEX:中东≈中国 < 美国≈欧洲 < 高端 AI 园区
; B# O, N$ l! n8 d% k8 t
4 T# O$ X/ m7 U" p2 i% n0 J中国:$5.5–6.5M/MW,400 MW 约 $2.4B[1][13]
: L7 ^/ ~ |. f1 r. \) j/ P5 b美国:$8–12M/MW,400 MW 约 $4.0B[1]
, R+ B& k* ?) x, j& }% [1 L欧洲:接近全球平均 $10.7–11.3M/MW[2][41]1 C8 r& X" E/ k e& ~
中东(UAE Stargate 5 GW):总投资超 $30B,约 ≥$6M/MW[20]
' r0 x$ y2 I8 t结论:中国与中东的壳体+机电 CAPEX 明显低于美国/欧洲,同等规模下节省约 30–40% 构筑成本。
0 s; m& F' q2 y7 X6 I3 }OPEX:电价与人工决定区域优势
4 B7 w, W9 S* F- X' ~# @9 s0 p6 i' V1 l. {6 E
电价(2025–2026 工商业大致区间):
+ |7 P2 `0 Z1 y% D& C$ B中国:约 0.8–1.1 元/kWh ≈ $0.08–0.11/kWh,部分算力基地可通过长协拿到 ≈3 美分/kWh[12][73]% ?# q' ]0 {: D( X4 _% D2 G W
美国:工业用电约 $0.085–0.09/kWh[44]0 X0 X5 C D0 E$ t
欧洲:非居民平均 €0.19/kWh ≈ $0.20+/kWh[45]
0 O+ |& y f5 Q1 o! `中东/UAE:工业用户 $0.07–0.13/kWh[47]. N7 z8 T* M6 d" Y9 k Y
人工:! T; ]' j/ g/ D/ w
中国数据中心运维:约 $22k/人/年( g( A) i; ~0 [
美国数据中心运维:约 $120k/人/年[1]
+ D+ u) ~+ J# ?" I; m, d结论:电价上中国西部/北部与中东有显著优势,人工成本上中国远低于美欧。
6 D8 w: k" u# N0 }4 R8 N( ?# w4 Z能耗与每 token 能源成本:能效差异远大于电价差异
4 d! a# c; D; z$ l3 B V0 e. t/ v. J, e3 `$ Z
IEA:2022 全球 DC+AI+加密耗电 460TWh,2026 可能至 620–1050TWh[86][90];AI 专用服务器约 90TWh 量级[30][90]。
5 P& s* p F. U( e+ B: S% |8 W( H大规模 LLM 推理能耗估算:H100 集群训练 GPT-3 175B 约 2.46–3.63 J/token(训练)[10][16];经推理优化后,Inference 端典型可做到 0.4–1.0 J/token 级别[17][26]。& ^+ K* W. ^$ x
将 token 能耗约化为统一口径:
: z0 G0 ]6 }5 d( u# i5 z2 a粗略取 1 J/token = 2.78×10⁻⁴ Wh/token。若电价为:5 d" ]: t9 p/ C6 h0 w
中国 0.3 元/kWh ≈ $0.042/kWh:电费 ≈ 1.17×10⁻⁸ $/token ≈ $0.0117/百万 token d: [2 h. N( u# V, Z' F
美国 $0.30/kWh(题设):电费 ≈ 8.34×10⁻⁸ $/token ≈ $0.0834/百万 token
5 T1 \6 M9 I7 C! ~# V对比:OpenAI GPT‑4.1 / GPT‑5.2 系列对外 API 输出侧价格 $8–168/百万 token[62],电费占比 远低于 1%,真正决定成本差异的是硬件 TCO 和利用率,而非电价本身。
1 q2 Q' H8 z+ b5 V: B不同芯片方案的核心差异* ^( y2 C7 l, |- r
" K( n: c3 d6 Y; t, K
NVIDIA Blackwell/B200 & GB200 NVL72:3 o9 T( z8 h% z! P, q
单 B200 GPU 峰值 ~4.5 PFLOPS FP4/FP8,功耗 600–1000W[68][69]。6 V# U2 S7 F" F" e6 l5 w8 Y. |
GB200 NVL72 整机架售价约 $3.0–3.35M,72 GPU[34][69],GPU 约占整个 AI 数据中心总 CAPEX 的 39% 左右[36]。$ [; U7 v7 B! K
Google TPU v5e/v5p/Trillium:
5 R/ i" A8 k6 d5 A- G( j: p# JTPU v5e 8 芯推理:约 2,175 tokens/s(Llama2‑70B,INT8)[67];功耗显著低于 H100,同负载下能耗可降约 5 倍[67][52]。; J& @; k8 x8 f9 @6 Q8 L
Google 内部披露 TPU v5 能效约为 H200 的 1.46×,Trillium/TPU v7 更高(约 2× 甚至以上)[52][65]。
5 g! [' Q1 U9 d9 D/ ]! v华为昇腾 910B:, C0 w/ D! u9 d& O$ s
FP16 算力 320–376 TFLOPS,INT8 640 TOPS,TDP ≈ 310W[80][81][82];能效接近甚至超过 A100,在长序列推理上 token-per-watt 可超 H200[71]。
3 E4 o1 A( w7 n+ g3 m7 H单芯片成本约 5 万元人民币 ≈ $7k[60],显著低于受限版本 H20/H100。. c- l8 G5 B p# w0 s: x& X# t" w
阿里平头哥真武 810E(Zhenwu PPU):
7 `* t$ g! ?/ y5 B3 o5 s96GB HBM2e、700 GB/s 互联带宽[59][111],功耗约 400W 级别[102],整体性能对标 NVIDIA H20/A800,并已形成万卡集群部署[59][111]。% t( V. Z n9 q4 Z+ z+ S
结论:
7 g, b. R& n" e: R; ^能效(tokens/J 或 tokens/W)排序大致为:Google TPU v7/Trillium > NVIDIA B200/GB200 > TPU v5e/H200 ≈ 华为 910B ≈ 阿里真武 > H100/A100。
. F* ^, p( |4 c( H$ n" d单芯片/整机价格排序:华为/平头哥 < TPU 自用成本(Google 内部) < NVIDIA 公版(H100/B200/GB200)。
; `7 A9 y& l2 P$ E9 A+ {- _, h对中国市场,在算力性能足够的前提下,昇腾 + 真武 方案的 CapEx/每 token 成本有 30–60% 的价格优势。
% t6 }/ F- J7 i/ C( z' g自建 vs 云租的 TCO 与 token 成本
. d1 k0 I/ T% j/ W$ j6 o; w0 K& @' }, d$ H/ I
LenovoPress 对 8×H100/H200/B200/B300 本地 vs AWS/Azure/GCP 的 5 年 TCO 对比[28]: {( g# M; A6 w3 }2 B; T5 s) L6 f" ~
8×B300(Config D)自建 5 年 TCO ≈ $1.01M;8 |2 H" Q8 O7 e5 [; p
等价 AWS p6‑b300.48xlarge(24/7)5 年 ≈ $6.24M,节省 83.8%。3 c$ J( a4 T3 x4 C: k. ]% k
8×H100(Config A)自建对 Azure On‑Demand,回本点约 2,720 小时(~3.7 个月),对 1/3/5 年保留分别约 4,423/6,800/7,591 小时(~6/9.3/10.4 月)[28]。) c5 v* E! Y2 C% e
Token 成本对比示例(LenovoPress 场景)[28]:' v3 g0 G1 p" R% j1 P0 b
Llama‑70B 推理,8×H100 本地:约 $0.11/百万 token
/ P$ b5 o$ T+ `# z0 cvs Azure H100 On‑Demand:$0.89/百万 token → 自建 ~8× 便宜。
# m1 S7 b Y, n8 u0 p1 J% v- f同样 70B 模型,自建 vs GPT‑5 mini API(约 $2/百万 token):自建便宜约 18×。
2 `* N9 g; n2 U5 a5 K! u: ?( H9 |Llama‑405B,8×B300 自建:$4.74/百万 token,AWS B300 On‑Demand:$29.09/百万 token → 节省 ~84%。0 m9 Y" c7 c, a' T/ Z7 } h+ p
结论:! @* ?4 C# H+ L, d+ _* X
高利用率、长周期推理负载下,自建 AI 数据中心的每百万 token 成本可比公有云或高端闭源 API 低 1–2 个数量级。7 ^: b) a* Y) e+ C0 W4 m, M
Token 电费占比极低,自建 vs 云租的差异几乎全部来自 硬件折旧 + 云溢价 + 运维与利用率。2 j% J- @, z$ j* d
二、建设期成本分布:区域对比7 t6 j* s. D0 z# _1 s
以下重点讨论 壳体+机电(不含 GPU) 与 全栈(含 GPU) 两层。0 o3 R8 U. O/ V c+ y
& m% K" B) K) f: g _# y
2.1 全球/通用结构(以 1 MW 为单位)
$ v% {2 i. d8 T7 D综合 JLL、ConstructElements 等[2][41][40]:, R! M+ o& Z: I1 g& I4 U& V
/ \" f- |5 F% Y1 _0 s7 @
壳体+机电(Shell & Core)
6 y' g$ B, t# v7 I% o8 T, T; l; D/ l$ n% ?( J8 v' |/ E/ Z Y
全球传统 DC 平均(2025):$10.7M/MW,2026 约 $11.3M/MW[2][41]
0 q$ n9 S g$ K其中按成本构成[40]:! t+ i: `: A' M8 m
电力系统(变电、配电、UPS、母线等):40–50%
- n5 V" m$ A9 z5 W# o* H3 e/ o机械与冷却(冷机、冷却塔、管路、CRAC/液冷):15–20%9 n P; [, V' M# I, z
建筑与土地、结构:约 15–20%
" S! L1 j( {5 N4 N6 ^9 m0 [其他(消防、安防、楼宇管理等):约 10–15%
2 ^4 c2 N, j8 @7 E5 PIT 内装与 AI 基础设施(不含芯片)
9 n5 X1 |8 w3 K5 s
. J2 @* b+ I K; E( z# y0 R高密 AI 集群内部装修(高密布线、机架、液冷板/浸没舱等)会在每 MW 额外增加 $25M/MW 量级[40],对 GW 级园区影响巨大。
$ p2 B( w( F- {. ZGPU/加速卡硬件 CAPEX
$ D m. b( q- ^9 _- U; d1 R7 |: B+ y/ ], G# m) o) l5 {: v
多数分析认为 GPU 占 AI 数据中心总 CAPEX 的 30–40%,其中 NVIDIA 单家毛利约等于整个行业 CAPEX 的近三成[36]。
9 \+ i) f# o% o' d2.2 中国 vs 美国 vs 欧洲 vs 中东:1 MW 建设 CAPEX
7 ~1 w3 c- [7 N* i- n0 l* G结合 ChinaTalk、JLL、UAE Stargate 等[1][2][20][13](仅壳体+机电):
: N- N: P! ]2 P) _" P
. u% s4 Y3 x7 J区域 典型建设成本(壳体+机电,$M/MW) 备注1 ^! }% H1 H1 w! a# o
中国 $5.5–6.5M/MW 以西部算力基地为主,400MW ~ $2.4B[1][13]5 J' b5 H# C" H6 ]% e; A4 r! [8 | F
美国 $8–12M/MW 典型超大算力园区 400MW ~ $4.0B[1]
" s) b: Z9 H1 P6 ?4 d3 R1 i, G0 e+ b欧洲 $10.7–11.3M/MW 接近全球平均,部分核心城市更高[2][41]
2 u& r/ B6 |9 m$ F# e) G; l中东 ≥$6M/MW UAE 5GW Stargate >$30B → ≥$6M/MW[20]+ Y6 F% h0 f$ ]' I! }/ M& T/ N
结论:
/ C4 r6 M' s- |; T- d# O. f- P: S3 [4 d, T
单位 MW 壳体+机电 CAPEX:中国 ≈ 中东 < 美国 < 欧洲。& ?8 L' {, v" ], G4 P
若考虑土地、电网接入和许可周期,中东(特别是 UAE/沙特)在电力可得性和政府补贴方面往往优于欧洲,趋近美国甚至中国。
9 E6 o& `; i, h/ C' E( }) z5 P! I2.3 引入 GPU 后的全栈 CAPEX(以 400MW 集群为例). |' i, y& i0 o
以 ChinaTalk 的 400MW NVIDIA GB200 NVL72 集群为例[1]:
' `$ s, l9 p! t& a4 \) o6 y( D6 }, G0 O4 H
假设:PUE=1.11,电力侧 400MW,中约 360MW 投入 IT;7 ^4 K0 I, I9 P1 h
GPU 配置:
8 b O/ S& ^7 K0 b: j6 S! C有效 312MW 用于 GB200 NVL72,约可容纳 2,154 racks(每 rack 144 GPUs,对应功耗 ~145kW/rack);
+ `) V9 K* _" m1 h. M) P每 rack 成本 ≈ $3.0–3.35M[34][69]; M. K" m, @0 Y' {5 d2 y3 r6 U* m
GPU 总 CAPEX ≈ $6.5–7.2B 量级(ChinaTalk 抽样约 $5.6B 略保守[1])。: B; G9 N5 w' g. y# X
与不同区域壳体+机电组合:
- |$ S: X% U; ^- g1 U% j
9 W- d7 a8 p: s3 o0 N以中值估算:3 ^4 j6 J! @- o1 k3 C; U8 \
8 ?$ E* Z0 j* v2 K1 K; w V中国 400MW:壳体+机电 $2.4B + GPU $5.6B ≈ $8.0B
1 Y- a! s5 N6 s9 ~" e$ t; v美国 400MW:壳体+机电 $4.0B + GPU $5.6B ≈ $9.6B
3 C y# M% u5 R! C) ~- S欧洲 400MW:壳体+机电 $4.5B + GPU $5.6B ≈ $10.1B
3 F- N* z }) z6 y$ ?( t+ |中东 400MW:壳体+机电 $2.4–2.8B + GPU $5.6B ≈ $8.0–8.4B. A/ C( f. P3 z4 F
可见:
, l# D" Q, i6 Z( M
; S& [/ n: W0 @GPU 成本在各区域大致相同,决定区域 CAPEX 差异的主要是壳体+机电与土地/电力接入。
1 }2 h; ?5 N0 g6 J相比美国/欧洲,中国和中东可在 400MW 级别节省约 $1.6–2.1B CAPEX,这对 IRR 有直接影响。: _1 Q. M$ P9 D/ L, H/ k
三、运营期成本结构与区域对比
/ i7 w8 E4 m5 X% q7 o3.1 通用 OPEX 结构(高密 AI DC)
1 F; K" x8 e/ H" y2 p( P3 p结合 ConstructElements、IEA、Microsoft/Google 披露[40][86][103][104]:/ n8 @" H$ e0 j2 X: [: V4 m
' t: n2 u9 h% f2 _" ]% O# d* Z4 U, E电力:约占总 OPEX 的 20–30%(传统 DC),对于 AI DC 因 GPU 负载密度提升,可达 30–40%。
/ W+ H Q, |$ @" i0 h冷却与水资源:: T# l4 O9 D) i0 \7 N [2 e
能耗:传统风冷约占总功耗 30–40%[39];液体冷却可将 IT 与制冷合并大幅降 PUE 至 1.1 左右[29][115]。( _& C$ F- H* ?- e, j
水耗:典型 DC 约 1.9 L/kWh 水用量[105],每日用水可达 300,000–5,000,000 加仑 规模[100][101]。' X& W7 ^% f- b' H3 ]
人工:视地区而定,在中国/印度/东南亚占比 5–10%,在美欧可达 15–20%。
* g& ]+ c- V6 M9 Q" B托管/物业与维护:
]6 E$ [. o' X; |. U* O" C托管:高密机架约 $1,500/机架/月,标准机架约 $600/月[40][28];
7 L3 k* g) U: B( }5 H硬件维护:LenovoPress 模型中按设备价 12%/年[28]。7 k; J, X3 k& J: k) w" b9 c
3.2 区域差异(以 400MW / 3 年期为例)
: }) R% n! W/ `6 W, y使用 ChinaTalk 的电费与人工估算[1]:
" `$ y# ~+ M1 U1 n9 x) {4 N, `( n6 E* J2 B1 X
电费(3 年) – 假设 GPU 利用率 60%,IT 360MW,PUE=1.11:
7 [3 l, K6 r6 A% u U& W( w中国:约 $0.06/kWh → 3 年电费 ≈ $350M
! w7 h9 Z9 d, ?" X0 A7 V美国:约 $0.09/kWh → 3 年电费 ≈ $600M
' [; G- v% t* {1 n2 R0 [, T中东:约 $0.07–0.10/kWh → $400–550M
: }& } S2 w8 ?& K3 u9 V3 G' H5 L欧洲:约 $0.20/kWh 以上 → 电费 > $1B(显著劣势)* R; {) N* |5 j. {
水费(3 年) – 以 MS Fairwater 站点 280 万加仑/年为参照[1][103]:
! I6 A1 C/ s4 s美国水价约 $5.18/千加仑,中国约 $2.57/千加仑[1]
: J! c4 m9 J1 `" t7 F% {$ V" [4 G! E三年水费级别:
# V+ p5 J+ n4 @% l9 S3 R" i美国:$40k+
$ P7 o1 P+ C+ ]" C0 L6 M中国:$20k+/ f# N( x% e) [; s3 f" p
结论:水费是数量级上可忽略的小项,真正的约束是水资源总量与选址,而非成本。
/ {2 M' i1 T7 z* n人员成本(3 年) – 假设 500 名全职运维:
, |3 k" W& [- h t0 C& D$ [6 s美国:500 × $120k × 3 = $180M+2 F0 ]: s2 F e8 F- X9 k
中国:500 × $22k × 3 = $33M+
9 @- q" h" J, U6 P差异约 $150M,规模与 3 年电费差不多,是中美间第二大成本差异来源。( \8 @* Q! O. _9 ?! S
整体 OPEX 粗算(3 年) – 400MW 场景下:2 P: Y* n# D+ `/ `4 P+ `* a* [+ `
" E- m7 ?4 D) x: x+ |0 m5 H
项目 中国 美国
" }! V: l$ M8 j7 s# Z: H. e! g电费 $350M $600M
$ s) e3 k( d! B9 }& I! i; z水费 <$0.05M <$0.05M6 S# ]& B% I4 r3 _5 W9 @' h2 O
人员 $33M $184M
e. m0 X8 E+ p3 f! g" W/ P其他维护/托管 同比例估算,地区差异主要体现在人工与地价
8 b( `1 e. d3 |% A% X结论:
3 h2 D! s/ _0 x T% M+ F( q; o4 A# X# x# e; i& Z
就 3 年期而言,中国与中东在 电价+人工 两项合计可比美国/欧洲节省 数百百万美元级,与整体 CAPEX(数十亿美元)相比不算决定性,但对净现值和现金流有实质贡献。8 m0 f. m0 L* k. w
对大模型服务商而言,更核心的是 GPU TCO 与 token 单价之间的剪刀差,而电价更多影响“边际利润率”而非“能不能赚钱”。
/ }* x1 v7 J' Q$ l) i2 x/ c四、基于 token 的成本与利润推演
+ v5 s* I4 t: H+ O4.1 能源维度的 token 成本(题设 0.3 美元 vs 0.3 元)
6 a4 n) ?. p. ]' v7 ~* |2 e统一假设:
6 M% U3 V2 l9 w, L4 |. ~0 G4 T- F' q8 D1 Y
典型大模型推理能耗:约 1 J/token(考虑 FP8/BF16 优化、Batch=256–512 时的能耗甜点[26][17][18])
, j2 b" K( D( q/ h1J = 2.78×10⁻⁴ Wh → 每个 token 约 2.78×10⁻⁴ Wh
1 W1 v+ Z& q. j3 `. c. g& X$ U1 百万 token:278 Wh = 0.278 kWh6 {% X4 C9 s2 q& {
场景 A:美国电价 $0.30/kWh& b! j: j2 ]! E) p! S4 d" p6 ^, N
电费/百万 token = 0.278 kWh × $0.30/kWh
+ M; m3 _* l* [) Q6 Z3 \; g≈ $0.0834 / 百万 token8 x& u8 W" A. G
场景 B:中国电价 0.3 元/kWh ≈ $0.042/kWh
" X5 }+ A* j( }/ [电费/百万 token = 0.278 kWh × $0.042" J4 @/ d% U- I
≈ $0.0117 / 百万 token
3 T( g# ~( z' W3 h# H% y V* {. [对比当前 API 价格(OpenAI 2026Q1)[62]" V( g' o, o! l; o
以输出侧为主(成本最敏感):
6 J" z8 R( p, E" v: x# r7 g
# g+ m) D" V; g$ F模型 输出价 ($/百万 token)
1 N$ D; p1 l. OGPT‑5.2 $14" y7 A* u/ ^3 y: F
GPT‑5.2 Pro $1683 Y2 }" F' z4 G* X
GPT‑4.1 $8
$ k5 y$ z" O1 B+ I! q& l- BGPT‑4o $10- Q/ Y! E5 d/ v7 @& {8 ^0 z# X
GPT‑4o mini $0.60, d* S7 f3 h8 V: r+ W0 T* H" P7 z
则:% w, h2 k0 ~$ o5 e# j4 o' j
x* h D- a, E/ d8 q7 s; N在美国 $0.30/kWh 的极端高电价下,电费占 GPT‑4o mini 收入的 ~14%(0.083/0.60),占 GPT‑4o 仅 0.8% 左右。
5 O6 ~( s* l* Y在中国 0.3 元/kWh 下,电费占 GPT‑4o mini 收入的 ~2%,占 GPT‑4o 的约 0.1%。
$ I4 J) N! T Q& k) I相比之下,GPU 折旧+云溢价+开发/运维成本才是主导。
/ n2 l# G0 H& _ Y结论:
& M$ f0 W+ a2 t% Y/ n2 \, \8 w7 F即便在“美国 $0.30/kWh vs 中国 0.3 元/kWh” 的极端对比下,每百万 token 电力成本差异约 $0.07,与主流 API 价格($0.6–$168/百万 token)相比仍属“小数点后两位”的影响。区域电价主要调节“利润率边际”,而不会改变“项目能否盈利”的结论。/ S+ o) x, k' e+ Z
( N5 J, V1 B0 @. s! j9 Y+ j4.2 全成本 per token:自建集群视角(基于 LenovoPress TCO)
9 r: R7 t* t9 [- v4 Z3 E以 LenovoPress 的 8×H100 Config A 为例[28]:
. j/ q5 A8 i' p s" S6 I
& h: a. S C3 ?7 j) y- |5 年摊销下,8×H100 本地推理 70B 模型:; s n( i1 M+ P; f6 K5 S
小时综合成本(CapEx摊销+Opex):$12.08/h
1 l$ }! P$ F: f; U7 R! H吞吐:30,576 tokens/s → 每小时 ≈ 110M tokens
* T( m) b7 k5 {8 J成本/百万 token ≈ 12.08 / 110 ≈ $0.11/M token; e( H \6 @% P/ N z8 `# r
电费在其中的占比:6 W6 v2 i" p) q+ H, e, _' D; U8 I
Opex 6.37$/h 中电力+冷却约 $0.87/h[28]' @ h1 y4 @. ~0 I$ M
电费/百万 token ≈ 0.87 / 110 ≈ $0.0079/M token) Q# v2 A* M; w0 z4 U" ?0 q7 \4 w
电费占 总 token 成本 ~7% 左右。
6 i8 |# E' n7 F) \) _( B/ I H! d% r( e' `若将美国电价从 ~$0.12/kWh 提高到 $0.30/kWh,则电费约增 2.5 倍,对总 token 成本影响约 +10–15%。
; h t7 }/ l u7 U8 f; C9 V若迁至中国西北 0.3 元/kWh 或中东低价长协,电费可再降 40–60%,总 token 成本再降低约 5–10%。
8 r6 k+ W' E) h- s
3 h4 L) l, T) ^: q. r因此:
' K% v$ N& u+ p+ N* n0 L" K
$ X" q+ L2 g% a6 w在自建集群场景下,电价对 token 成本有可见但非决定性的影响(变化量级在 ±10–20%)。
; c5 Y% Q1 k3 c; s! r在云租和 API 模式下,电价影响则被进一步摊薄,绝大多数利润被云厂商的溢价和 GPU 供应链吸走。
) f3 D1 Z5 a0 k+ q五、不同芯片方案的建设与运营成本对比
& b+ k" `5 m6 t8 U5.1 NVIDIA 方案(H100/H200/B200/GB200)
9 Z: c* ^2 g. C( |/ q3 J) C8 Q2 xCAPEX:7 ~6 Y& @; p1 N" ?" J* v) X% _
3 Z& }. W6 r: d4 i6 V0 D d! C
H100:单卡市价 $25k–35k,8 卡服务器约 $250k+(Lenovo 配置价 $250k 左右)[9][28]。( s6 L. O+ [2 t6 e4 B
H200:显存提升,单卡价更高,8 卡节点约 $280k[28]。
2 B# A$ O$ b& w' c0 UB200:Blackwell 代 GPU,8 卡服务器约 $338k[28]。
3 Q: V7 S' [: [4 h7 r. WGB200 NVL72:9 `# N, J+ ?5 F+ ?, J# I
每 rack 带 72 GPU + 36 Grace CPU,售价约 $3.0–3.35M[34][69]。
2 [6 b9 k! v) p! M3 M5 P) v冷却系统每 rack 额外 $50–56k[35]。
: v1 i6 c3 Y: ?( L6 ^在 400MW 场景中,GPU 总 CAPEX 约 $5.6–7B,占总体 CAPEX 近 40%。
) w8 z5 q. A5 Q* XOPEX & 能效:
5 r# @ v+ T; Q* X- Z7 z
* T* j4 t; Y2 v# o- l8 B' \单 GPU 功耗:
% ]" j: W$ g* I( N8 \0 lH100:TDP 700W;集群实际单 GPU 含服务器/网络开销可到 ~1,500W[16]。
# ^/ z" @& R7 l& [ S" i6 |# Z5 oH200:功耗类似或稍高,但性能/W 提升[9][10]。
% k* W$ ]% ~5 z/ g7 N+ \, l; X- WB200:标称 1,000W TDP,但实测约 600W 左右[68][69]。
% b( ^# G/ Y% K0 g8 y4 dToken 性能:
3 |2 l6 z4 _8 l' ]( K4 Q& zB200:官方推理基准中,可达 60,000 tokens/s/GPU 级别(gpt‑类模型)[68]。9 M; R! f( {! L' [
NVIDIA 的优势:
1 K6 B8 ]( @9 I3 o) a" [. K* J3 T! ~
' D( s B( l- N1 m9 U2 |软件栈成熟(CUDA/TensorRT‑LLM),易于榨干硬件性能,batch 与多 GPU 并行调度成熟 → 在同等 PUE 与模型条件下可达更高 tokens per Watt。
. e; `) i; v; U但硬件价格与毛利极高,从 TCO 角度,“谁买单 GPU 溢价”是关键——云厂商多半将成本转嫁给 API 用户。; p2 U$ k* R% l; ~2 I' P1 F: J
5.2 Google TPU 方案
; @! x; Y( s! \) K) p6 C' F; rCAPEX:* F* }. Q! q- w, W, t' h; K
# \) U; H- b$ }& S: V1 z
单 TPU v4 定价约 $3.22/芯片小时,v5/v6 在云端按实例小时定价对外[52][54]。
6 h; U. C0 u6 @4 V3 z" l4 p/ ?. dGSR 估算:TPU 的出厂 ASP 约 $4,500–5,000/片(Google 内部成本)[54]。
6 Q% w; E2 v& m6 i% T7 R! u8 TPU v5e 实例约 $11/h,而 8×H100 云价可高达该数值的 5–10 倍[52][54]。
% b- Z& [& d L. Z9 S" g能效:
4 W$ m V, Y- b6 b* K0 t
: K% f( K1 O3 V6 ~& y+ lTPU v5e vs H100:7 d$ W( q, P7 I" c
同级推理场景下,8×TPU v5e ≈ 2,175 tokens/s(Llama2‑70B,INT8)[67],H100 需更高功耗才能匹配。0 P/ I9 t/ \# X
测试表明 v5e 功耗约为 H100 的 1/5 左右[67][52]。8 o- c( R/ V+ x4 w& j
新一代 Trillium/TPU v7:, a$ U, q/ a8 T6 V+ c
能效比 TPU v5p 提升 ~67%,对 H200 或 B200 整体上能实现 2–3×性能/W 优势[52][65]。 T5 j' L6 |8 l _7 V
Google 方案的特点:; ~, T0 r& j8 e/ [- l0 j& t
' m! [% c$ S: R, r# L4 x; H6 Y+ p自用闭环——Google Cloud + TPU + Gemini,利润来自整体云栈,而非单个芯片;4 g) T! p& Q- {- Y
对外公布的 API 价格较为激进,TPU 方案在 tokens/W 与 tokens/$ 上具有显著优势,尤其在内部工作负载。( D- N0 y6 u/ _7 y% n
5.3 华为昇腾 910B / 910C 方案
/ y* r4 e# G) A/ dCAPEX:
8 \- c) A k6 m8 T
" Q: q: b* q; w' ]单 910B 芯片成本约 50,000 元人民币 ≈ $7k[60];910C 约 110,000 元[60]。
. k- p* j- u( G( H7 L" D2 g+ ~- z与 A100 对比:0 v& E5 \( D' \0 Z& ?0 r
FP16 算力 320–376 TFLOPS,功耗 310W,性能接近甚至略高于 A100(400W)[80][81][82]。
7 e$ c) e- L6 P& q市场报道中,NVIDIA H20 在中国售价约 10 万元/片,而 910B 更便宜 30–40%[61][72]。
: l1 \3 O- I) u: ]* N! h( R$ B使用昇腾构建类似 400MW 级别集群,总 GPU CAPEX 相较 NVIDIA 可节省 30–60%,视集群规模与供货条件而定。
8 I3 s5 K- z# t; Z% pOPEX & 能效:* H5 K- ~8 ?" |9 w5 k! ?
2 e" r6 P+ A. U3 ?! Z& O3 y910B 功耗 310W,FP16 320–376 TFLOPS → 性能/W 与 A100/H20 接近或更优[80][81][82]。
. H. U& C& G1 n+ g部分推理 benchmark 显示,长上下文(>4k token)推理时,910B 在 tokens-per-watt 上可超过 H200[71]。" ~6 [6 Z6 i) @$ U* f" B5 Q
在中国电价(0.3–0.4 元/kWh)环境下,昇腾方案在 TCO/tokens 维度有明显优势,但生态与软件栈仍在追赶 CUDA。7 w( ?& Z# O: v( R% D" k( Z
5.4 平头哥真武 810E(PPU)方案2 Y- T0 L m; T
CAPEX:2 c# a1 ]! Q: Z7 ^ w; v( ~
- o$ V, p, i: f+ K6 B技术参数:
2 D" Y: E% E4 P8 P" p96GB HBM2e,片间互联带宽 700GB/s,自研 ICN 互联,PCIe 5.0 ×16,400W 功耗级别[59][102][111]。6 O/ ~! D2 r) W) E6 X3 e
性能:官方宣称整体性能超过 A800 与主流国产 GPU,与 NVIDIA H20 大致相当,升级代际可逼近/超过 A100[59][110]。
+ V9 l6 q! V8 p6 O/ ~价格:
! r, ]& P0 p. q. l+ E) j% I未公开详细单价;多个媒体报道指出“单位算力成本可下降 ~40%”,与英伟达 H20 有 3–4 成价差[74][112]。2 p- n. S' z9 K. y' a7 X! J
结合国内报道:- \4 ?5 B& ^( L% o/ E0 ]
2025 年出货量数十万片,已在阿里云实现多个万卡集群部署,服务 400+ 客户[59][111]。 _( ^: A4 ]# O {8 _' g
数量规模与生态成熟度迅速提升,使得 真武+昇腾 成为中国公有云/算力租赁的主力基础。8 N- k8 h/ [+ U- B9 H$ W, i
OPEX & 能效:
0 Q$ X# L% g( ]1 j$ w
3 p! @1 P1 y- U5 L: ~# t, U400W TDP、96GB HBM2e,使其在 高上下文、RAG、大模型训练+推理一体化场景 中具有良好性能/能效平衡;
6 m) G! W' H7 H0 _5 }4 b7 H- }' ]在中国低电价 + 低人工成本环境下,真武方案可将 AI 推理服务的综合 token 成本进一步压缩 —— 对标 NVIDIA H20,本地算力提供商可在保持 ~8–9 成性能的前提下降价 30–40% 仍保持毛利[74][112]。- n) K: F6 Q# X) x
六、综合比较与策略建议
% V) e) Y+ q& {1 s; T0 k/ G1 y; ~6.1 区域维度:在哪里建 AI 数据中心?* ?3 z( d- G8 W/ Y9 q' j$ R
纯经济性(TCO/tokens)排序(假设无政策/合规约束):
1 F, j- e$ y+ c5 A
. K1 t3 ]6 r* E8 l3 U. l# J中国西部/北部(电价低、人力低、建设成本低)( B: `5 R4 a: `1 y
中东(UAE/沙特)(电价中等偏低、土地与电力可得性好、政策支持)6 [2 ?) i: S6 T) ]% j
美国电价低但人工高;东海岸/加州电价上涨压力大: k" ^( A, i6 k: k1 t" f/ ]
欧洲电价高、审批严格,但接近高价值企业客户和数据主权要求
# _& _$ A$ [: g" U0 g$ i+ v若以“美国 $0.30/kWh vs 中国 0.3 元/kWh”极端场景比较:
1 N+ ^( {% u5 b& D9 B
6 d2 v4 \) {1 g, u8 W% P5 e纯电费/百万 token 差异:约 $0.083 vs $0.012 → 差别 ~$0.07/M tokens;! z3 M! \/ n% f# s) N
对比 API 价格:差异对整体利润率的影响远小于是否使用 NVIDIA vs 国产芯片、自建 vs 云租的差异;
7 J6 p) Q9 i& w* v1 N5 N但在极高利用率的 自建超级集群 场景,电价仍然能在 5 年 TCO 上带来 10–20% 的边际优化,是选址决策的重要考虑。' n3 l# S3 X- S4 Z+ b( X
6.2 技术栈维度:选哪家芯片/云栈?- O, Q) s& b: ]& L! n
若目标是全球最优 tokens/$ 且不受出口管制:8 E! \' N. k* }0 y3 v+ X
+ j. k/ {# z0 r9 ?7 P
Google TPU v7/Trillium + 自建 on-prem:性能/能效与成本的综合最优,但前提是可以直接获得 TPU 硬件与软件栈授权(现实中仅限 Google 内部和极少数大客户)。
, i3 x9 R# n/ `' p* |8 V4 Z4 ^* P若在美国/欧洲,能自由采购 NVIDIA:
7 a' L/ W' O6 F
; A3 [9 B6 f) L6 H; f; I短中期内,NVIDIA B200/GB200 NVL72 仍是最佳实践:
k/ | `, C5 W1 {* k成熟的软件栈与生态,极高的 tokens/s/GPU;
4 V. V+ B) S/ _8 I# b( T [在云厂商/超大规模自建模式下,配合液冷与 PUE~1.1,可取得较低的 token 成本;' m: r0 N# _8 k n- f
但要谨慎评估 GPU CAPEX≈总投资 40% 的集中风险。
# y$ O+ \, b/ i若在中国或存在出口管制约束:0 J/ g3 W* i8 i2 R$ P4 M
' N! i- F, k& a0 o昇腾 910B/910C + 平头哥真武 810E 是现实可行的主力组合:
) {; Z4 S$ T/ V$ Y9 {性能上已能覆盖大部分 GPT‑4 类推理需求;* V) y1 K8 N: R' |. W
单片成本显著低于 H20/H100,集群 CAPEX 明显更友好;$ |% q9 A: M' o& {2 g6 [
软硬件全栈国产(CANN + MindSpore + 通义/Qwen 等),可避免制裁风险;& S* `) b$ Z# a; }
建议配合:
- I4 t, G) ?0 u" `! d高效液冷(PUE~1.1)、
; k- z" C p$ L! L; x: Y* t大 batch、路由(浅层任务走小模型/低成本芯片)、" |* G( R; n9 ^7 Z/ Q: m% K# T
强量化(FP8/INT4)与分层缓存策略,进一步摊薄 token 成本。% p- I5 R/ N) S4 n" U2 K( h
长远看,“tokens-per-watt / PCE” 取代单纯 PUE/FLOPS 成为核心 KPI:& U W$ X4 {' W; L
/ P# y+ v. S. W; t; r% |' ]
数据中心运营者应从“PUE 1.5→1.1”的设施思维,转向“每瓦输出多少有价值 token”的AI 工厂思维[29][118];
6 k7 X. I, s9 }* v这意味着:+ S$ ?1 m% C" O2 x0 i
优先选择 更高 tokens/J 的芯片架构(例如 TPU v7、B200、后续国产芯片);
2 X, F5 ?% w O精细化调优 batch size、路由策略、CoT 深度,将“energy-per-token”作为最优先指标来优化[17][26]。5 R9 W% f8 C7 o* l0 b0 @. ]: O: k
6.3 针对你关心的具体问题的简要回答0 Z3 F2 C" n! {1 T, j% }
AI 数据中心建设 vs 运营成本的大体比例?
6 l5 M, B1 H+ f( M; s% X- g( f
4 H% X; f/ o! X* g* e在 5 年期 TCO 视角下,CAPEX(尤其 GPU)约占总成本 50–70%,运营成本(电力+冷却+人工+维护)约 30–50%。
+ P! Q. q3 ^4 b4 u5 `) e& |其中 GPU 自身 CAPEX 占到总 CAPEX 的 30–40%[36]。
/ o4 J: q( K0 C! x! n0 N% e0 U8 Y* z中国、美国、欧洲、中东的成本结构区别?+ K7 m: S I1 A/ g' d
4 a, ~5 T1 y, Z8 ]7 e
建设期:
' p! ^# `$ G7 _7 s) d" c2 j c! X/ @中国/中东的壳体+机电成本明显低于美欧(约 5–7 vs 8–12 vs 10–11M $/MW)[1][2][20]。8 J7 a8 n0 S* G! t
运营期:, {' I% V. x1 \0 F
电价:中东 ≈ 中国西部 < 美国平均 < 欧洲
' @0 e( d6 [; `# Y& w4 N6 E人工:中 国 ≪ 美 欧,中东居中。
. N* z# H; F) k- W3 [在美国 $0.3/kWh 与中国 0.3 元/kWh 下 token 成本与利润率?
. s8 |) v3 P- ~- u
8 \8 f) t3 e- n5 G7 m7 r0 ] C6 h7 N对于典型 1 J/token 推理负载:
4 X1 A) i- H* F- n+ z美国 $0.30/kWh:电费约 $0.083/M token% m2 U6 r) W- C" N9 T, `. r' M4 b
中国 0.3 元/kWh:电费约 $0.012/M token- |( } E' ^0 e# U5 L' x
对比 OpenAI 等对外价格($0.6–168/M token),电费无论在中国还是美国都只是利润表里的“小头”,主导因素是 GPU TCO 和平台溢价。1 M' Q3 n* |, ^$ R
不同技术方案(NVIDIA / Google / 昇腾 / 平头哥)的建设与运营成本谁更有利?) N6 p0 [; J2 Z Z( }
, M+ d0 D5 l; U# G' o4 B: K; G0 ]
在可获得 TPU 的前提下:Google TPU v7 在 tokens/W 和 tokens/$ 上最优;0 p8 h8 P" R5 e5 e3 }6 ~
全球通用方案:NVIDIA Blackwell 全家桶(B200/GB200)+ 液冷,但 CAPEX 巨大;- X5 m7 ~5 Z' P" {$ F% e/ A# z0 o n
中国/被管制市场:昇腾 + 真武 是当前最有经济性与可持续性的路线,综合来看能把 token 成本压到 NVIDIA 方案的 40–70%。 |
评分
-
查看全部评分
|