TA的每日心情 | 擦汗 4 天前 |
|---|
签到天数: 1133 天 [LV.10]大乘
|
沙发

楼主 |
发表于 2026-2-26 21:43:21
|
只看该作者
后来想了想,我让龙虾爬了一个分析全球AI数据中心建设和运营成本的报告,内容如下:0 H. j4 V' G; v/ `3 ]3 {0 E: z
% ?1 Y6 p% o' T9 ~# Y0 P" o4 }
一、总体分析框架与核心结论" X& T- l1 F# n1 |
1.1 分析框架概览
3 N& V/ {6 N( b拆分维度7 o2 `: m- J0 ~5 x
C! J, g3 `! T5 P+ x
阶段:
7 x) H# _" o/ d* q$ H& n7 I. Q+ O建设期(CAPEX):土地/建筑、供电与配电、制冷、IT 硬件(GPU/TPU/加速卡)、网络与其他基础设施. f: D4 t2 S' v) h' W! U d, \
运营期(OPEX):电力、水、运维人员、场地/托管、维护与更新、网络带宽等/ R' ~- I! U+ Z5 u! p
区域:" v) c' P! w' e
中国、美国、欧洲、中东(以海湾地区/UAE 为代表)
/ E3 e' ~1 c8 J6 s技术方案:; Q" s' h0 z/ a/ c
NVIDIA(H100 / H200 / B200 / GB200 NVL72 等); L. s P; I: f# k
Google TPU(v5e/v5p/Trillium 等)
( E% w6 x% Y; _$ g中国芯片:华为昇腾 910B / 910C 系列、阿里平头哥真武 810E(PPU)7 s5 Z. V, C# @
算例基准* p# o A5 X" Y" b* O: `9 c6 b) \
$ w+ a+ s4 [+ r- A I, c6 N以400 MW 级 AI 数据中心为统一标尺(与 ChinaTalk BOTEC 分析保持一致)[1]:
2 u, {" X M1 a( N* B其中 IT 有效功率约 360 MW:GPU/AI 加速约 312 MW,CPU/存储约 48 MW
% ?* {7 s6 R: _5 J# B3 K: |! sPUE 假设约 1.11(高效液冷场景)[1][29]
6 N7 L5 m/ l5 W4 q- `' J* V时间窗口:3–5 年运营期(与行业 TCO 分析和硬件折旧相匹配)[28]
' E0 B8 Q' K$ N5 n关键指标3 {0 H3 H+ U$ c @' c
J2 f$ Z- Z/ |, K- h
$/MW 建设成本(含/不含 IT 硬件)
6 a2 B9 K" A8 X6 |+ ?! F$/kWh 电力成本、L/kWh 水耗* f. c7 Z9 g6 y b! e) y# ]; p
$/token 或 $/百万 token 的综合成本
6 x- L. t/ |4 I' Z3 b6 qToken-per-watt / Joule-per-token 作为能效基准[17][18][26]4 d% I; I9 E2 M! H0 S
项目 IRR/回收期、吨位级 TCO 对比(自建 vs. 云租) D9 ]* S3 {9 s6 F; B
1.2 高层结论(供决策快速参考)0 v+ v9 E2 M- s0 N
建设成本:AI 数据中心相对传统云数据中心成本翻倍
0 t* a5 E2 p- F& f- V% ?" I1 B5 e$ q: G
传统云数据中心壳体+机电平均约 $10.7M/MW (2025),预计 2026 升至约 $11.3M/MW[2][41]。
7 M' j( r& H4 @9 R6 u6 kAI 优化数据中心(高功率密度 + 液冷)壳体+机电可高达 $20M/MW 甚至更高[41]。
; c6 l3 G# S2 \: _+ `$ O1 _按 Accenture/Soben 研究,传统云 DC 为 $8–10M/MW,而 GW 级 AI 数据中心可达 $17M/MW(仅壳体+机电,不含 GPU)[3]。: r% M7 ^7 {1 `5 x( T' c7 M
区域 CAPEX:中东≈中国 < 美国≈欧洲 < 高端 AI 园区
+ }3 R# J6 R) R4 c+ |
o" d$ _. |' t4 `# q中国:$5.5–6.5M/MW,400 MW 约 $2.4B[1][13]. h' `, u f! j7 ?3 M1 r
美国:$8–12M/MW,400 MW 约 $4.0B[1]
9 r3 k5 w; ^9 n8 B/ r" q欧洲:接近全球平均 $10.7–11.3M/MW[2][41]
6 S/ J# K5 [% V- Y. S8 ]4 _中东(UAE Stargate 5 GW):总投资超 $30B,约 ≥$6M/MW[20]! w" O' I( }1 Y# l' A: o V9 @
结论:中国与中东的壳体+机电 CAPEX 明显低于美国/欧洲,同等规模下节省约 30–40% 构筑成本。
% E8 s" g7 z, O+ SOPEX:电价与人工决定区域优势
: M$ p5 n5 E4 c/ M) ]' k) O0 B- z$ O2 W: F/ G
电价(2025–2026 工商业大致区间):0 `# T& q9 D$ j% l
中国:约 0.8–1.1 元/kWh ≈ $0.08–0.11/kWh,部分算力基地可通过长协拿到 ≈3 美分/kWh[12][73]
) K' r0 b2 v) n美国:工业用电约 $0.085–0.09/kWh[44]
8 j G5 l( j; Z欧洲:非居民平均 €0.19/kWh ≈ $0.20+/kWh[45]
' u, S9 P" }4 x) ?& [+ x& D中东/UAE:工业用户 $0.07–0.13/kWh[47]/ ]0 z8 g- H" H7 z$ ?% _
人工:6 r( x# P! h4 n% I. E8 p$ P/ Y9 N
中国数据中心运维:约 $22k/人/年
, v! n) a/ P( J, v& X- H7 g美国数据中心运维:约 $120k/人/年[1]
. c$ U# n, E6 M9 u. m/ E' [5 ~结论:电价上中国西部/北部与中东有显著优势,人工成本上中国远低于美欧。0 ?7 i* {! ~9 E* w
能耗与每 token 能源成本:能效差异远大于电价差异1 [+ u* R' _* b7 s$ S- \$ H7 K
- ?8 @% }! U5 G. bIEA:2022 全球 DC+AI+加密耗电 460TWh,2026 可能至 620–1050TWh[86][90];AI 专用服务器约 90TWh 量级[30][90]。$ \5 ~) v6 W+ g! }+ D
大规模 LLM 推理能耗估算:H100 集群训练 GPT-3 175B 约 2.46–3.63 J/token(训练)[10][16];经推理优化后,Inference 端典型可做到 0.4–1.0 J/token 级别[17][26]。
" ^* g) x- x* T; c* ]. I将 token 能耗约化为统一口径:: e7 ~( k: n5 e) f* b: n
粗略取 1 J/token = 2.78×10⁻⁴ Wh/token。若电价为:, b3 h' N$ A# P9 S$ s+ d% T6 t3 G v# Q
中国 0.3 元/kWh ≈ $0.042/kWh:电费 ≈ 1.17×10⁻⁸ $/token ≈ $0.0117/百万 token! s, C$ T l1 S& a7 w6 Z
美国 $0.30/kWh(题设):电费 ≈ 8.34×10⁻⁸ $/token ≈ $0.0834/百万 token
. d% B3 V' Q0 H) y2 s! B" @对比:OpenAI GPT‑4.1 / GPT‑5.2 系列对外 API 输出侧价格 $8–168/百万 token[62],电费占比 远低于 1%,真正决定成本差异的是硬件 TCO 和利用率,而非电价本身。
' y4 B- y. ^- [不同芯片方案的核心差异
$ E% I$ T5 s4 [ x2 J) T$ b; Z2 q' F1 N7 p
NVIDIA Blackwell/B200 & GB200 NVL72:& w# U( Q' V; U2 n) Q* N( v. v
单 B200 GPU 峰值 ~4.5 PFLOPS FP4/FP8,功耗 600–1000W[68][69]。3 f2 a6 F& K0 X" W) A5 D
GB200 NVL72 整机架售价约 $3.0–3.35M,72 GPU[34][69],GPU 约占整个 AI 数据中心总 CAPEX 的 39% 左右[36]。. [1 I: [2 Z0 R( G& M/ K
Google TPU v5e/v5p/Trillium:, ?8 I- k- u- t7 u
TPU v5e 8 芯推理:约 2,175 tokens/s(Llama2‑70B,INT8)[67];功耗显著低于 H100,同负载下能耗可降约 5 倍[67][52]。
! G+ \# ~0 G1 w/ n- ^1 u% e: U, oGoogle 内部披露 TPU v5 能效约为 H200 的 1.46×,Trillium/TPU v7 更高(约 2× 甚至以上)[52][65]。% h/ U6 l3 M0 J* u3 k
华为昇腾 910B:) w) L7 V1 V5 ]* i6 E4 A, s' Q3 K
FP16 算力 320–376 TFLOPS,INT8 640 TOPS,TDP ≈ 310W[80][81][82];能效接近甚至超过 A100,在长序列推理上 token-per-watt 可超 H200[71]。1 {% \" m* H( D( W
单芯片成本约 5 万元人民币 ≈ $7k[60],显著低于受限版本 H20/H100。0 f$ Z3 `" u2 r: Y0 W5 ^
阿里平头哥真武 810E(Zhenwu PPU):" z. y. ]! X& k4 I7 u7 l
96GB HBM2e、700 GB/s 互联带宽[59][111],功耗约 400W 级别[102],整体性能对标 NVIDIA H20/A800,并已形成万卡集群部署[59][111]。& {5 s7 h% F1 j3 T3 v# U. J
结论:
) c2 ?1 q9 Y4 F$ G u) F能效(tokens/J 或 tokens/W)排序大致为:Google TPU v7/Trillium > NVIDIA B200/GB200 > TPU v5e/H200 ≈ 华为 910B ≈ 阿里真武 > H100/A100。
( A; s) s7 |: m' y: W单芯片/整机价格排序:华为/平头哥 < TPU 自用成本(Google 内部) < NVIDIA 公版(H100/B200/GB200)。
$ O7 w: V4 _0 D' V9 o$ G+ F对中国市场,在算力性能足够的前提下,昇腾 + 真武 方案的 CapEx/每 token 成本有 30–60% 的价格优势。
( T0 M! |& d y! U自建 vs 云租的 TCO 与 token 成本5 N5 m7 T; s, E% J
. Z. ]: b& X9 l J
LenovoPress 对 8×H100/H200/B200/B300 本地 vs AWS/Azure/GCP 的 5 年 TCO 对比[28]:
! z: M$ i/ ]* F% _& T1 j; w8×B300(Config D)自建 5 年 TCO ≈ $1.01M;
% V. Y$ V0 t; t6 m等价 AWS p6‑b300.48xlarge(24/7)5 年 ≈ $6.24M,节省 83.8%。" Q0 f' h6 s* y* M u
8×H100(Config A)自建对 Azure On‑Demand,回本点约 2,720 小时(~3.7 个月),对 1/3/5 年保留分别约 4,423/6,800/7,591 小时(~6/9.3/10.4 月)[28]。2 d% ]' W% s" K1 G& I& e( t
Token 成本对比示例(LenovoPress 场景)[28]:
+ ^' p, y' ]$ s2 J* ?5 c9 Q$ [Llama‑70B 推理,8×H100 本地:约 $0.11/百万 token
4 a! B Q- h( T' {vs Azure H100 On‑Demand:$0.89/百万 token → 自建 ~8× 便宜。3 E& C) L5 c6 v8 e! E; P" M" J
同样 70B 模型,自建 vs GPT‑5 mini API(约 $2/百万 token):自建便宜约 18×。; T4 ~* O, a! b* Y
Llama‑405B,8×B300 自建:$4.74/百万 token,AWS B300 On‑Demand:$29.09/百万 token → 节省 ~84%。
# l: G: d$ H4 ~8 U. H0 f0 p9 ?" X& Q结论:
$ u: b: H% W4 F高利用率、长周期推理负载下,自建 AI 数据中心的每百万 token 成本可比公有云或高端闭源 API 低 1–2 个数量级。2 c& Q$ R. F5 D% H+ z
Token 电费占比极低,自建 vs 云租的差异几乎全部来自 硬件折旧 + 云溢价 + 运维与利用率。% o; Z4 }. F) J$ T8 I
二、建设期成本分布:区域对比
. w% L0 }* _7 j3 q% \- e以下重点讨论 壳体+机电(不含 GPU) 与 全栈(含 GPU) 两层。
& w9 ~2 H8 w, E! b; G0 Z; f1 t" H
2.1 全球/通用结构(以 1 MW 为单位)
" N5 E8 n7 i/ z$ o8 W' G综合 JLL、ConstructElements 等[2][41][40]:
, q$ l* t8 S r. F( N' X, F& _ I# G! m, S* j w
壳体+机电(Shell & Core)5 T: [& `. ]9 U* f. y
$ n. L6 |& i6 h5 J
全球传统 DC 平均(2025):$10.7M/MW,2026 约 $11.3M/MW[2][41]- q+ W7 e' f: r+ N& i+ u! Q0 ~
其中按成本构成[40]:8 W# A0 G' r) _4 B8 f
电力系统(变电、配电、UPS、母线等):40–50%
* J" ~. G' N% r机械与冷却(冷机、冷却塔、管路、CRAC/液冷):15–20%2 ~4 y+ p/ i6 f A1 {& M/ T5 d s
建筑与土地、结构:约 15–20% c- b2 q" _6 r" C! W& y
其他(消防、安防、楼宇管理等):约 10–15%, Q' E" {( g- [( {% S
IT 内装与 AI 基础设施(不含芯片)3 m2 ~$ j. D, |9 z/ v" i3 u. y5 [- [
6 v' k$ T9 H+ y" S/ R4 Q高密 AI 集群内部装修(高密布线、机架、液冷板/浸没舱等)会在每 MW 额外增加 $25M/MW 量级[40],对 GW 级园区影响巨大。
- {! K2 f- S& I0 M6 [GPU/加速卡硬件 CAPEX
# i5 I) ~, A' e; p( a. `, n* b& R- I9 D1 Y0 Y* B0 _
多数分析认为 GPU 占 AI 数据中心总 CAPEX 的 30–40%,其中 NVIDIA 单家毛利约等于整个行业 CAPEX 的近三成[36]。
. ?9 g; L$ Q" \1 f. Q' I( Y2.2 中国 vs 美国 vs 欧洲 vs 中东:1 MW 建设 CAPEX9 ]' a& _4 k1 q5 e
结合 ChinaTalk、JLL、UAE Stargate 等[1][2][20][13](仅壳体+机电):
7 _7 \' X9 N2 e; A
/ z3 I; M7 f5 G7 @- Q8 Z- n5 [& C5 ~区域 典型建设成本(壳体+机电,$M/MW) 备注
% B+ m9 R: y+ B5 r1 P. X6 R中国 $5.5–6.5M/MW 以西部算力基地为主,400MW ~ $2.4B[1][13]
4 i. F+ j/ }5 X美国 $8–12M/MW 典型超大算力园区 400MW ~ $4.0B[1]2 v0 ~0 q; u* b; d4 t
欧洲 $10.7–11.3M/MW 接近全球平均,部分核心城市更高[2][41]9 y o4 H5 s# U
中东 ≥$6M/MW UAE 5GW Stargate >$30B → ≥$6M/MW[20], S; W& ?: ^/ R6 e
结论:
/ H5 S/ L: {& F* s3 Q- H; I$ U8 b
4 ~ u. k3 V& t( N单位 MW 壳体+机电 CAPEX:中国 ≈ 中东 < 美国 < 欧洲。2 X. R% ~4 u& K( j
若考虑土地、电网接入和许可周期,中东(特别是 UAE/沙特)在电力可得性和政府补贴方面往往优于欧洲,趋近美国甚至中国。
' ?, k+ u1 r f/ I: c2.3 引入 GPU 后的全栈 CAPEX(以 400MW 集群为例)' y; S0 R/ z$ o; e
以 ChinaTalk 的 400MW NVIDIA GB200 NVL72 集群为例[1]:
- ?+ W$ h3 V/ o, M6 ?* |2 l. i
% c' T) [' _9 F# Z1 r, ]) ^$ A假设:PUE=1.11,电力侧 400MW,中约 360MW 投入 IT;
& e* P" u. s4 h: [1 k$ ^GPU 配置:) N3 H2 c0 f3 I- [8 f1 B
有效 312MW 用于 GB200 NVL72,约可容纳 2,154 racks(每 rack 144 GPUs,对应功耗 ~145kW/rack);+ V7 i/ i) k$ J8 h
每 rack 成本 ≈ $3.0–3.35M[34][69];
; r6 {" L- h' M9 o9 NGPU 总 CAPEX ≈ $6.5–7.2B 量级(ChinaTalk 抽样约 $5.6B 略保守[1])。
8 k* ]( s* w1 T" C9 b与不同区域壳体+机电组合:* `. x: H8 }) g9 s. u9 Y
3 S7 l0 f, O% t/ _# N以中值估算:
4 l2 U' Q' \: {$ u" _& j, N4 Z4 y' i. l! ^
中国 400MW:壳体+机电 $2.4B + GPU $5.6B ≈ $8.0B: D) c) m2 X' h& [- D6 q) R' _( u
美国 400MW:壳体+机电 $4.0B + GPU $5.6B ≈ $9.6B
. Z6 @% ~, v4 J! W% G* {8 g2 ^欧洲 400MW:壳体+机电 $4.5B + GPU $5.6B ≈ $10.1B' ~% w3 n' v0 @3 e
中东 400MW:壳体+机电 $2.4–2.8B + GPU $5.6B ≈ $8.0–8.4B
* A0 K+ _; O5 Y可见:
9 a5 q1 U5 b% ^; y6 q. Q
6 i3 o5 y3 a; c( z' p; }1 ^GPU 成本在各区域大致相同,决定区域 CAPEX 差异的主要是壳体+机电与土地/电力接入。0 R6 [4 Y& D8 e% v" t W* d
相比美国/欧洲,中国和中东可在 400MW 级别节省约 $1.6–2.1B CAPEX,这对 IRR 有直接影响。
/ F/ R) Y! U4 |9 w5 D# z三、运营期成本结构与区域对比; L, Z: A4 W4 S9 i5 A* p6 C: u
3.1 通用 OPEX 结构(高密 AI DC)
" J$ |; p G4 g) [& g# f W结合 ConstructElements、IEA、Microsoft/Google 披露[40][86][103][104]:
; U+ I3 B( g: I& m9 m! e* T# Y! D% y3 e2 e. y/ w, O( R6 [, h
电力:约占总 OPEX 的 20–30%(传统 DC),对于 AI DC 因 GPU 负载密度提升,可达 30–40%。, J. m* P6 G q5 o( v
冷却与水资源:
/ Q# o: @0 D3 i4 L5 Q能耗:传统风冷约占总功耗 30–40%[39];液体冷却可将 IT 与制冷合并大幅降 PUE 至 1.1 左右[29][115]。+ ?: F2 T: }: O# n& R/ q5 `. H4 P" a
水耗:典型 DC 约 1.9 L/kWh 水用量[105],每日用水可达 300,000–5,000,000 加仑 规模[100][101]。
/ Y$ n6 s5 X9 l人工:视地区而定,在中国/印度/东南亚占比 5–10%,在美欧可达 15–20%。
0 x& S$ R4 j, t7 Z7 F8 e+ T托管/物业与维护:; l3 u- q+ c- _
托管:高密机架约 $1,500/机架/月,标准机架约 $600/月[40][28];2 T- I+ K1 i. T O4 l: U; A( {
硬件维护:LenovoPress 模型中按设备价 12%/年[28]。) f1 n& `8 j& G; s& e e
3.2 区域差异(以 400MW / 3 年期为例)# I6 }( | [( e: |) f, I ~: ~4 G7 n7 z# |
使用 ChinaTalk 的电费与人工估算[1]: n1 F1 K0 Y9 U! V" u! v8 I- _- U
0 f. \; @6 d- J |电费(3 年) – 假设 GPU 利用率 60%,IT 360MW,PUE=1.11:) J$ o8 y$ F8 Y2 S
中国:约 $0.06/kWh → 3 年电费 ≈ $350M
6 D; ^! J, l9 F# Z7 O美国:约 $0.09/kWh → 3 年电费 ≈ $600M) @0 s6 [9 E2 t0 ?7 [
中东:约 $0.07–0.10/kWh → $400–550M
9 L! H1 V6 e* _% m欧洲:约 $0.20/kWh 以上 → 电费 > $1B(显著劣势)
O9 _) e Q2 G+ R/ m水费(3 年) – 以 MS Fairwater 站点 280 万加仑/年为参照[1][103]:
. @$ |4 l; O" @: `1 x W美国水价约 $5.18/千加仑,中国约 $2.57/千加仑[1]* X' i, [# M V: {
三年水费级别:/ q% x3 y" A/ u! }1 h0 \. B
美国:$40k+6 v, Z3 _( _! ]$ S
中国:$20k+2 f5 Y; H! P6 I; S4 r+ l" h: k
结论:水费是数量级上可忽略的小项,真正的约束是水资源总量与选址,而非成本。
* e& v8 g. V( {' e, _/ p0 e! J人员成本(3 年) – 假设 500 名全职运维:* {' l% T3 Y7 V: v6 j+ h& L8 @9 D
美国:500 × $120k × 3 = $180M+
2 V. Y9 j* X' e) b6 V2 Y& J3 G中国:500 × $22k × 3 = $33M+. ~3 r$ n/ S3 P# ]) z, M
差异约 $150M,规模与 3 年电费差不多,是中美间第二大成本差异来源。) n1 O# k2 U; O; P8 m5 b
整体 OPEX 粗算(3 年) – 400MW 场景下:
3 F8 L* V/ j e
4 G; J% C0 I! o" j' ]8 u6 \3 N项目 中国 美国 a; t; }! n/ S$ w( Q
电费 $350M $600M& Y Z; M% l$ b) d \% H
水费 <$0.05M <$0.05M, g6 z' ?+ W+ c
人员 $33M $184M8 r) e( M1 g( O8 g R: K
其他维护/托管 同比例估算,地区差异主要体现在人工与地价
$ M+ n |' n+ C# Z7 c结论:
7 y! C/ B$ e+ X m$ V! F! O ~
# o4 [# v( {3 ~0 D% v9 ?就 3 年期而言,中国与中东在 电价+人工 两项合计可比美国/欧洲节省 数百百万美元级,与整体 CAPEX(数十亿美元)相比不算决定性,但对净现值和现金流有实质贡献。
# l! Z: b8 b, P对大模型服务商而言,更核心的是 GPU TCO 与 token 单价之间的剪刀差,而电价更多影响“边际利润率”而非“能不能赚钱”。
\3 Z( ?9 p/ [1 l四、基于 token 的成本与利润推演
" W0 B+ d( [9 U4 q4.1 能源维度的 token 成本(题设 0.3 美元 vs 0.3 元); [7 r: h% `" j9 j
统一假设:0 S* ?4 d) ~; Z" Y6 L4 ~( ^
4 O' C1 q1 O0 Z" _6 s8 y/ Z
典型大模型推理能耗:约 1 J/token(考虑 FP8/BF16 优化、Batch=256–512 时的能耗甜点[26][17][18])
$ u4 C9 w7 i: x' i1 ]9 v- L2 ~1J = 2.78×10⁻⁴ Wh → 每个 token 约 2.78×10⁻⁴ Wh- \4 z1 o, W; O2 a& K1 j
1 百万 token:278 Wh = 0.278 kWh5 N! k9 N2 Z' l# M- L
场景 A:美国电价 $0.30/kWh
: L: b" G! p1 z: c# G: M电费/百万 token = 0.278 kWh × $0.30/kWh: Z: ]; h: o$ \* k8 k; s5 e
≈ $0.0834 / 百万 token* D3 f0 X5 h9 v- v- ?6 W4 z. D
场景 B:中国电价 0.3 元/kWh ≈ $0.042/kWh
; }: v3 B2 _; r0 U电费/百万 token = 0.278 kWh × $0.042
0 w# [) P" a4 w; ^% ~/ E: W8 L≈ $0.0117 / 百万 token
2 _ f& |. l( i' J2 q# G/ c对比当前 API 价格(OpenAI 2026Q1)[62]
2 c' A, ~, |9 x7 U7 ?$ E以输出侧为主(成本最敏感):
4 C6 R" e& u' G) {, ~1 V/ q' ^7 k
模型 输出价 ($/百万 token)( F H- ]9 m% |; D2 q! e0 B
GPT‑5.2 $14
/ o F* t6 j. p4 T0 P% m; h+ NGPT‑5.2 Pro $168
" M- E; z) T, B6 \6 @GPT‑4.1 $8
: i# Q; h9 u0 q8 O a& [2 w- j: fGPT‑4o $10' u: h) F6 | V& F- `
GPT‑4o mini $0.60
; Y0 K1 @- h% p8 m& u/ C则:
$ s" M5 n6 h1 [8 M8 a3 Z+ p4 `" \+ y( h& ]9 ]7 Y& h7 G) n& U
在美国 $0.30/kWh 的极端高电价下,电费占 GPT‑4o mini 收入的 ~14%(0.083/0.60),占 GPT‑4o 仅 0.8% 左右。
! H( {( h: @& o+ `& v3 {" ^9 J在中国 0.3 元/kWh 下,电费占 GPT‑4o mini 收入的 ~2%,占 GPT‑4o 的约 0.1%。+ Y, W: C+ f$ H5 S& B
相比之下,GPU 折旧+云溢价+开发/运维成本才是主导。
' @( [" Y; k7 {5 e结论:
* D8 [. L2 `& I+ v! M即便在“美国 $0.30/kWh vs 中国 0.3 元/kWh” 的极端对比下,每百万 token 电力成本差异约 $0.07,与主流 API 价格($0.6–$168/百万 token)相比仍属“小数点后两位”的影响。区域电价主要调节“利润率边际”,而不会改变“项目能否盈利”的结论。
s3 g; _4 C3 A/ H( s% L5 z
5 d% b: S7 `, ?* A" |4.2 全成本 per token:自建集群视角(基于 LenovoPress TCO)
" V9 W% \+ \( w2 K* O/ g6 q以 LenovoPress 的 8×H100 Config A 为例[28]:! t6 y! f" a* D$ {( V
# O) O" G; m4 p5 年摊销下,8×H100 本地推理 70B 模型:1 l" [7 e" Q# G1 w7 k
小时综合成本(CapEx摊销+Opex):$12.08/h) [! f, H+ W Y8 r7 d2 |
吞吐:30,576 tokens/s → 每小时 ≈ 110M tokens2 Q K/ w3 D$ B
成本/百万 token ≈ 12.08 / 110 ≈ $0.11/M token# q' C0 p y7 \
电费在其中的占比:. w. N2 S' Y6 w6 u2 ?, |7 e6 ~
Opex 6.37$/h 中电力+冷却约 $0.87/h[28]# |, A" E6 D |( N9 a3 i
电费/百万 token ≈ 0.87 / 110 ≈ $0.0079/M token
' J5 N4 _5 b. C( m. M. w2 D" H电费占 总 token 成本 ~7% 左右。
* S* u2 c' L6 `若将美国电价从 ~$0.12/kWh 提高到 $0.30/kWh,则电费约增 2.5 倍,对总 token 成本影响约 +10–15%。+ }& [6 O" C) f( `
若迁至中国西北 0.3 元/kWh 或中东低价长协,电费可再降 40–60%,总 token 成本再降低约 5–10%。
' q/ i& N) r- ?; f, G3 L( b) O' o1 r0 q3 k j1 M4 U& g5 Y# V
因此:: N7 C3 W7 E# K5 ? Y7 Z) }/ s& y" |
+ Y; v' v) O9 _/ L- Y在自建集群场景下,电价对 token 成本有可见但非决定性的影响(变化量级在 ±10–20%)。1 ?) Z/ \7 w# w$ K% n. r
在云租和 API 模式下,电价影响则被进一步摊薄,绝大多数利润被云厂商的溢价和 GPU 供应链吸走。) P9 A% {( H: w6 \$ v9 J ^
五、不同芯片方案的建设与运营成本对比0 }8 q3 U. Z' [8 l
5.1 NVIDIA 方案(H100/H200/B200/GB200)
7 r2 `+ _6 }( c$ rCAPEX:0 s Z$ N- z0 `/ L$ u1 Y# S6 [
' }; J( V9 `/ l2 Z
H100:单卡市价 $25k–35k,8 卡服务器约 $250k+(Lenovo 配置价 $250k 左右)[9][28]。% `; A u, r6 H7 J2 Z
H200:显存提升,单卡价更高,8 卡节点约 $280k[28]。
! z! O m: f b" Z. _) pB200:Blackwell 代 GPU,8 卡服务器约 $338k[28]。
. o: x4 v3 T) a9 xGB200 NVL72:
; i: |/ V0 C" x每 rack 带 72 GPU + 36 Grace CPU,售价约 $3.0–3.35M[34][69]。
2 k$ X9 y2 B3 j9 i( x' y/ k! D冷却系统每 rack 额外 $50–56k[35]。7 H+ | i1 @4 J: B2 X0 W
在 400MW 场景中,GPU 总 CAPEX 约 $5.6–7B,占总体 CAPEX 近 40%。; c7 n5 {( |9 p' H1 g$ Z& L( S
OPEX & 能效:
/ W' ?" R' b, J$ d% \( v9 ~ h0 Q2 u7 G2 M1 J
单 GPU 功耗:
. u! P: H" X# W' X: ]( JH100:TDP 700W;集群实际单 GPU 含服务器/网络开销可到 ~1,500W[16]。+ P7 B: S0 t& s( | q) ~) i, \- I
H200:功耗类似或稍高,但性能/W 提升[9][10]。5 A4 B" r z, y5 w
B200:标称 1,000W TDP,但实测约 600W 左右[68][69]。
6 a3 U! N' G) D+ L% cToken 性能:
% X1 D! p* r8 v2 \, v# j9 eB200:官方推理基准中,可达 60,000 tokens/s/GPU 级别(gpt‑类模型)[68]。 Z& v$ v! d+ I. d5 ^/ V5 {
NVIDIA 的优势:* B* h9 u5 B; X& F2 c. o
. x* p1 S. q4 d
软件栈成熟(CUDA/TensorRT‑LLM),易于榨干硬件性能,batch 与多 GPU 并行调度成熟 → 在同等 PUE 与模型条件下可达更高 tokens per Watt。1 w4 N* i* r' E1 S+ \) f6 S1 Z/ [
但硬件价格与毛利极高,从 TCO 角度,“谁买单 GPU 溢价”是关键——云厂商多半将成本转嫁给 API 用户。 |2 a. I% h. r9 W5 C
5.2 Google TPU 方案% ^- L4 C0 t! ?- k$ z" l3 ?
CAPEX:/ v1 i+ C3 N# u& v
0 a/ S! r2 U# |) ^单 TPU v4 定价约 $3.22/芯片小时,v5/v6 在云端按实例小时定价对外[52][54]。! y" p, k- c/ N# b! q& Z5 v/ T# f
GSR 估算:TPU 的出厂 ASP 约 $4,500–5,000/片(Google 内部成本)[54]。- _) ]1 q% J3 l& E1 Z' F
8 TPU v5e 实例约 $11/h,而 8×H100 云价可高达该数值的 5–10 倍[52][54]。, |6 U# @: {% K
能效:
1 v$ I& t8 x: `# q$ M7 Q2 z, g& ~# r2 h( x0 h8 _4 V# W& w7 \+ p
TPU v5e vs H100:
/ p# {1 u7 B- F" N# x9 S, ?同级推理场景下,8×TPU v5e ≈ 2,175 tokens/s(Llama2‑70B,INT8)[67],H100 需更高功耗才能匹配。
9 M: h3 V# \1 g n测试表明 v5e 功耗约为 H100 的 1/5 左右[67][52]。7 P! [' i6 D1 {* y8 _
新一代 Trillium/TPU v7:
/ f6 u! O/ U& f3 s1 P/ k- i- G8 ?3 J+ I能效比 TPU v5p 提升 ~67%,对 H200 或 B200 整体上能实现 2–3×性能/W 优势[52][65]。
% Q0 G1 P/ S. d: H. KGoogle 方案的特点:
2 B$ h1 |" Z3 _) R) C3 `; ~1 v. Y, j0 L2 M" X* d; S7 T4 \
自用闭环——Google Cloud + TPU + Gemini,利润来自整体云栈,而非单个芯片;
: N0 S$ F; d% F( S6 D对外公布的 API 价格较为激进,TPU 方案在 tokens/W 与 tokens/$ 上具有显著优势,尤其在内部工作负载。6 T$ P( t$ U: A/ `, B4 y2 o# u
5.3 华为昇腾 910B / 910C 方案+ Y6 z4 ~8 E+ `6 B2 l
CAPEX:
+ v$ s* G( g2 b4 i, R8 w* A. P& Y- z
- ]! F2 Y$ M9 X' [9 z G- u单 910B 芯片成本约 50,000 元人民币 ≈ $7k[60];910C 约 110,000 元[60]。
3 ?( K, g' l% v6 Z- J与 A100 对比:: R: N2 o) _& [- I" K* B
FP16 算力 320–376 TFLOPS,功耗 310W,性能接近甚至略高于 A100(400W)[80][81][82]。
) s# @* {. h( ?* q+ o; T$ u市场报道中,NVIDIA H20 在中国售价约 10 万元/片,而 910B 更便宜 30–40%[61][72]。& l. u% i- g7 u3 n$ ?
使用昇腾构建类似 400MW 级别集群,总 GPU CAPEX 相较 NVIDIA 可节省 30–60%,视集群规模与供货条件而定。) e' f% c$ A( [" f9 E/ y
OPEX & 能效:
1 I/ k: |. r+ B: F0 \6 J2 w2 l0 z: c5 u# b0 e* k
910B 功耗 310W,FP16 320–376 TFLOPS → 性能/W 与 A100/H20 接近或更优[80][81][82]。 a( a+ J% ~; T& Y& Z6 v
部分推理 benchmark 显示,长上下文(>4k token)推理时,910B 在 tokens-per-watt 上可超过 H200[71]。
0 s+ r: y1 E8 `8 s6 Q; y在中国电价(0.3–0.4 元/kWh)环境下,昇腾方案在 TCO/tokens 维度有明显优势,但生态与软件栈仍在追赶 CUDA。
" G f% |9 P7 N8 b _- b& Z5.4 平头哥真武 810E(PPU)方案
f3 ]" w' D0 p0 _CAPEX:* b5 J1 X! M; n8 U+ K( A! |/ A
4 ~1 d* ^) i( @& u( Q$ ^: ]技术参数:' R# q6 K, r! m0 [
96GB HBM2e,片间互联带宽 700GB/s,自研 ICN 互联,PCIe 5.0 ×16,400W 功耗级别[59][102][111]。
# u3 o( D( o0 l性能:官方宣称整体性能超过 A800 与主流国产 GPU,与 NVIDIA H20 大致相当,升级代际可逼近/超过 A100[59][110]。
& u0 @; E; u, [4 s$ ]/ h价格:
& ~9 h$ p: n/ G% Q未公开详细单价;多个媒体报道指出“单位算力成本可下降 ~40%”,与英伟达 H20 有 3–4 成价差[74][112]。
5 b' K: }6 ^2 f5 M& x结合国内报道:
% j- P1 d" ^! F0 q2025 年出货量数十万片,已在阿里云实现多个万卡集群部署,服务 400+ 客户[59][111]。
6 j# j S4 |9 i; L数量规模与生态成熟度迅速提升,使得 真武+昇腾 成为中国公有云/算力租赁的主力基础。
& k; Z2 M9 z+ }$ DOPEX & 能效:
- Z h/ _% }6 K( s+ Y- I% L& q- B3 f- @( s5 b9 q8 u
400W TDP、96GB HBM2e,使其在 高上下文、RAG、大模型训练+推理一体化场景 中具有良好性能/能效平衡;
& E3 M2 R' X! [ X& D在中国低电价 + 低人工成本环境下,真武方案可将 AI 推理服务的综合 token 成本进一步压缩 —— 对标 NVIDIA H20,本地算力提供商可在保持 ~8–9 成性能的前提下降价 30–40% 仍保持毛利[74][112]。5 s/ V" R+ N% \
六、综合比较与策略建议
( |/ }# ?7 q( z) o" m! H |* E6.1 区域维度:在哪里建 AI 数据中心?
. Z5 j7 ~. P* _5 b, m- ], j纯经济性(TCO/tokens)排序(假设无政策/合规约束):
9 T$ s/ ~9 z6 D/ d
: R& v2 p! b1 \, v! S3 T& B& Y* A中国西部/北部(电价低、人力低、建设成本低)
. U6 J, v( y9 @! W中东(UAE/沙特)(电价中等偏低、土地与电力可得性好、政策支持)8 m! o" m, P I B
美国电价低但人工高;东海岸/加州电价上涨压力大: n0 l N" B3 Y( W c1 o
欧洲电价高、审批严格,但接近高价值企业客户和数据主权要求2 C- B) c" s7 v3 z
若以“美国 $0.30/kWh vs 中国 0.3 元/kWh”极端场景比较:
$ [- p) Z: T& H8 g8 d$ k! e# o2 b6 V4 [: r# _
纯电费/百万 token 差异:约 $0.083 vs $0.012 → 差别 ~$0.07/M tokens;
2 D3 p) Q8 e: e0 ]对比 API 价格:差异对整体利润率的影响远小于是否使用 NVIDIA vs 国产芯片、自建 vs 云租的差异;
# c# }7 ~' M, m2 o% ]" d- A但在极高利用率的 自建超级集群 场景,电价仍然能在 5 年 TCO 上带来 10–20% 的边际优化,是选址决策的重要考虑。9 E) @( C# b3 r+ u+ O& F& u( b" c* s
6.2 技术栈维度:选哪家芯片/云栈?7 h* W6 z, G' h
若目标是全球最优 tokens/$ 且不受出口管制:
- W, s; w( u, Z4 I7 E. W) p. j
Google TPU v7/Trillium + 自建 on-prem:性能/能效与成本的综合最优,但前提是可以直接获得 TPU 硬件与软件栈授权(现实中仅限 Google 内部和极少数大客户)。
1 n. T0 O! @* @( h Q! L9 R若在美国/欧洲,能自由采购 NVIDIA:$ c7 X* S* o p/ I
* s+ M2 `( c- A短中期内,NVIDIA B200/GB200 NVL72 仍是最佳实践:: y3 r* n% {% ~- L# |; C7 ^( N
成熟的软件栈与生态,极高的 tokens/s/GPU;
7 G) Q: j' l- S/ G: ]在云厂商/超大规模自建模式下,配合液冷与 PUE~1.1,可取得较低的 token 成本;+ s+ T( z/ d+ E% u5 r! T/ Y, M
但要谨慎评估 GPU CAPEX≈总投资 40% 的集中风险。
: c% b }( F( B, j若在中国或存在出口管制约束:
' ^/ H" ^2 s9 d( ? D
. i# [6 c( y3 q0 g/ j; }昇腾 910B/910C + 平头哥真武 810E 是现实可行的主力组合:
$ W2 q: y8 Q1 D% ]性能上已能覆盖大部分 GPT‑4 类推理需求;
3 h2 g) R3 A {+ {# g+ f2 M单片成本显著低于 H20/H100,集群 CAPEX 明显更友好;: |+ F* s0 A/ s9 d# S
软硬件全栈国产(CANN + MindSpore + 通义/Qwen 等),可避免制裁风险;6 J7 w& Z6 {$ k; Y( s" r: n( C: W
建议配合:
2 N/ P- a" E* W高效液冷(PUE~1.1)、( i; S( _, A* b5 O
大 batch、路由(浅层任务走小模型/低成本芯片)、: h: W2 V) Z: c0 P# ]4 S+ R7 q
强量化(FP8/INT4)与分层缓存策略,进一步摊薄 token 成本。5 A: e$ d' P' T% U8 g4 x$ n
长远看,“tokens-per-watt / PCE” 取代单纯 PUE/FLOPS 成为核心 KPI:
9 K* h% k2 z3 I( p' n- n
/ f# U, T f% v1 x. g6 H W. e数据中心运营者应从“PUE 1.5→1.1”的设施思维,转向“每瓦输出多少有价值 token”的AI 工厂思维[29][118];
5 x4 T l: A6 L4 M( a这意味着:
; p" @& j: q1 |, \7 C; B优先选择 更高 tokens/J 的芯片架构(例如 TPU v7、B200、后续国产芯片);
/ C/ C9 U6 H Z/ u+ k精细化调优 batch size、路由策略、CoT 深度,将“energy-per-token”作为最优先指标来优化[17][26]。
, {% \% ?$ t G% S- ^1 F7 I6.3 针对你关心的具体问题的简要回答
8 a: _2 e5 y1 m2 l1 T. OAI 数据中心建设 vs 运营成本的大体比例?0 j% l; J- ]1 s# A
: t# p* F9 A2 j. F% i* H在 5 年期 TCO 视角下,CAPEX(尤其 GPU)约占总成本 50–70%,运营成本(电力+冷却+人工+维护)约 30–50%。
1 F9 [: ~- i! ^( O6 x; y9 {其中 GPU 自身 CAPEX 占到总 CAPEX 的 30–40%[36]。
9 l' |& h) ^% u/ p. [$ ^2 ^! k2 Z$ `中国、美国、欧洲、中东的成本结构区别?
* {. z* K3 }. K7 S9 k, p
2 G+ Q4 P* a R: @建设期:
) j4 O, N" j+ F( c. I0 r中国/中东的壳体+机电成本明显低于美欧(约 5–7 vs 8–12 vs 10–11M $/MW)[1][2][20]。& V' s) H# r: f F5 l4 _6 J, n4 t
运营期:
# a( N, R& W: R) r% p5 h. E电价:中东 ≈ 中国西部 < 美国平均 < 欧洲
+ t' K( z- O0 O/ }; y. b) g$ b人工:中 国 ≪ 美 欧,中东居中。& I# f* h6 ]' O& i/ E2 s
在美国 $0.3/kWh 与中国 0.3 元/kWh 下 token 成本与利润率?
% X1 u* |0 X3 w0 w1 y3 F+ O/ ~7 M! e4 p+ a# s/ C
对于典型 1 J/token 推理负载:
# Z7 |7 U0 @$ ^( u O# c美国 $0.30/kWh:电费约 $0.083/M token
! a2 H- p; i5 S4 d! o中国 0.3 元/kWh:电费约 $0.012/M token" p( H6 w1 P3 c# N; q
对比 OpenAI 等对外价格($0.6–168/M token),电费无论在中国还是美国都只是利润表里的“小头”,主导因素是 GPU TCO 和平台溢价。# U0 i5 o$ ]& z( G: ~; V& X
不同技术方案(NVIDIA / Google / 昇腾 / 平头哥)的建设与运营成本谁更有利?
* p' V. d/ c- n& c
0 k; ~; u$ I$ a9 r* a# X+ W在可获得 TPU 的前提下:Google TPU v7 在 tokens/W 和 tokens/$ 上最优;
! n0 B6 G0 M7 x全球通用方案:NVIDIA Blackwell 全家桶(B200/GB200)+ 液冷,但 CAPEX 巨大;
& u& ~- x$ U W0 S- F% M* a5 e) x中国/被管制市场:昇腾 + 真武 是当前最有经济性与可持续性的路线,综合来看能把 token 成本压到 NVIDIA 方案的 40–70%。 |
评分
-
查看全部评分
|