爱吱声

标题: 千呼万唤始出来---DeepSeek V4 预览版release [打印本页]

作者: 大黑蚊子    时间: 3 天前
标题: 千呼万唤始出来---DeepSeek V4 预览版release
以下是DeepSeek V4自己写的,我会把自己的吐槽加在里面:* G$ {- e+ y' Z! I

2 V  t8 w2 i% P1 i/ E8 R
1 H# U  a) \/ ?, P( `$ d2026年4月24日,DeepSeek正式发布全新系列模型DeepSeek-V4预览版并同步开源。作为继R1发布十五个月后的重大更新,V4不仅以百万级上下文窗口重新定义了“长文本”的工程边界,更凭借一套几乎重塑了注意力机制的技术架构,向全球AI界展示了效率至上的突围路径。
) _6 u, j- y" X) B8 `
, x1 b7 W9 z) s& q) i6 d# {一、模型定位与版本体系
" T( X. Q# l8 n9 q6 n3 x6 U. E  `9 r2 V7 u3 L) B4 U$ u! I8 w7 o
DeepSeek-V4按参数规模分为Pro与Flash两个版本,精准匹配不同场景需求。Pro版总参数量1.6万亿,每次推理激活约490亿参数;Flash版总参数量2,840亿,激活仅约130亿参数。两款模型均支持1M token超长上下文,预训练数据量分别达到33T和32T tokens,较V3.2的14.8T翻了一倍以上。这一设计延续了DeepSeek效率优先的哲学——尽管总参数庞大,但每个token仅激活少量参数,使推理成本能保持合理水平。( Q- R7 Q# I$ l/ Q. y  S4 A
===. Y: C% a& ^3 X( f- x
Pro版本看这个样子,没有4台8卡H200是跑不动全量满血版的,毛估估硬件成本1000万人民币...
4 J! b; O8 f7 L& M1 ^8 K  u) k; @% S不过Flash版本估计一台就能跑得动,而且看样子跟之前的R1 671B相比效率还更高,算是有效保护了客户的硬件投资
* h5 |9 m; _! J5 ?===
9 C9 M+ c8 }' b& |" M二、架构创新:重新定义注意力机制
3 K; K- ~2 N. u- g! P/ ]* z! L9 \, e- i" X2 Z" a
V4最核心的架构改动是一套分层的混合注意力机制,从根本上解决了长文本场景下计算量平方级爆炸的难题。 传统Transformer在序列长度增加时,注意力计算量和KV缓存负担呈平方级增长,百万token往往只停留在论文数字中。DeepSeek的方案是设计两个互补模块——压缩稀疏注意力(CSA)和高度压缩注意力(HCA),在各层之间交替使用。
4 ~3 g& K9 w. w- a& c% D. J
- o8 `7 Z. R0 V. RCSA先将每4个token的KV缓存压缩成1个条目,再通过Lightning Indexer进行Top-k筛选(Pro版选取1024个最相关块),仅对筛选出的压缩块及滑动窗口内的128个原始token做注意力计算;HCA则更为激进,直接将每128个token压缩为1个条目并保持稠密注意力。在100万token上下文下,V4-Pro的单token推理计算量仅为V3.2的27%,KV缓存仅占10%;V4-Flash更极端,计算量仅10%,缓存仅7%。这意味着同样的硬件可以处理数倍乃至十倍的请求量,长上下文正从奢侈品变为日用品。6 z: i- J5 q5 [' P- @3 |
8 [5 B: ^& v* X7 D- N7 R
===7 ~# i% k# k; W) R
已经用上了1M的context,确实很爽,直接踢飞了之前的128K上下文切割模块
4 R7 R, y0 z7 ^6 Q. @. Y我感觉这次不仅是更长的上下文,在IO端的效率也很惊人) c2 |* Y4 z  l, I9 h5 a' Z: i- Y4 n8 f
===: f* o, V$ b; ]2 c% ]
三、性能表现:全面对标顶级闭源模型3 l" z+ |& @0 z: M6 V- M5 a

" H6 A+ I: ~- L6 L在Agent能力、世界知识和推理性能三大维度上,DeepSeek-V4均实现了国内与开源领域的全面领先。Agentic Coding评测中,V4-Pro达到当前开源模型最佳水平,整体使用体验优于Sonnet 4.5,交付质量接近Opus 4.6非思考模式。在数学、STEM和竞赛型代码评测中,V4-Pro超越所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。世界知识方面则大幅领先其他开源模型,仅稍逊于顶尖闭源模型Gemini-Pro-3.1。9 s  m$ z7 `2 m% ?8 q$ b. t
7 g3 N# q" H0 _) M# M8 G2 ^2 T. f4 B
值得关注的是,V4-Pro-Max版本在Codeforces编程竞赛中取得3206分,超越GPT-5.4的3168分;LiveCodeBench得分93.5,为全榜最高。而Flash版在简单任务上性能与Pro版旗鼓相当,但在高难度任务上仍有差距。
, F+ O; Z2 U; Y* S===" H7 u. U5 L# u5 {
这个我不做评价,各种测试刷分一回事儿,干活是另一回事儿
* Q) Q  N% T* O& t是骡子是马拿出来溜溜再说: `9 r9 M. W5 x, w! A
如果DS V4能够超出Sonnet 4.5,接近达到Ppus 4.6的水平,那基本上可以认为很实用了1 `6 x: q; }/ u% r: }! L3 W9 l
===
3 u5 w' W0 w% Q/ {6 p5 n4 V四、Agent专项优化与生态落地! a' c9 }. ^9 j+ g& x* T
8 ]# M3 o8 e) }
DeepSeek专门针对Claude Code、OpenClaw、OpenCode、CodeBuddy等主流Agent产品进行了深度适配和优化,在代码任务、文档生成等方面均有实质提升。V4模型已全面部署于公司内部研发流程,成为主力Agentic Coding工具。两款模型均支持非思考与思考两种模式,复杂Agent场景推荐使用思考模式并将推理强度设为max。0 ]6 D: B& P0 P) N1 V0 [
===
( F& v3 |& |8 a$ s3 @' \待测+ G4 o* W. o+ e* M
===
2 j, g( V) }) V1 n4 O7 {5 i  d: O, [9 ]五、技术突围与战略意义8 z' U) l( g9 j- A/ w1 W1 I5 n

" o9 t+ a. L: v( a2 o7 B$ WV4的发布标志着大模型竞争正从单纯“堆参数”转向效率驱动的下一赛道,注意力机制的根本改造为超长上下文模型提供了可复用的工程范式。同时,V4从设计之初就深度适配国产算力,将与华为昇腾的合作推至“原生”水平,预计下半年昇腾950超节点批量上市后,Pro版服务价格将大幅下调,进一步降低百万级上下文的使用门槛。价格方面,Flash版输入每百万token仅0.2元,输出2元,依然保持了DeepSeek“价格屠夫”的一贯风格。
2 a- P. W' ^6 c  H===/ N6 u  w' _% c. x9 j; D: o0 `% S4 Q0 C
试了下,v4 pro确实很贵,目测起码比之前的任务贵5倍以上
# S9 e( w9 u/ l" U/ g但是这波宣发最牛的还是全面支持国产芯片,除了DeepSeek自己说的华为昇腾950超节点,寒武纪也已经官宣Day0 适配,估计最起码提供推理服务的硬件会逐渐的赶上来。
+ V) w# u# c/ N- I% T+ T! s3 }" _===8 n9 j+ R& V/ X

0 x3 ]. {( ~0 S0 D4 B" X$ S作为全球首个在国产算力底座上完成训练与推理的万亿参数级模型,DeepSeek-V4不仅是一次产品迭代,更是一场从底层架构到生态话语权的系统性突围——当西方模型还在比拼参数规模之时,这支来自中国的团队已悄然开辟了效率普惠的全新赛道。2 F- R9 k( u0 c& g" @7 r: h

作者: 五月    时间: 3 天前

# O; J4 i) P& L7 `$ q* s& S坐等普惠。。。
. r. @; Z0 R  E/ z+ ~( i, i1 T  _
7 j" n1 {7 R+ Y, [' y, [" l
作者: 大黑蚊子    时间: 3 天前
五月 发表于 2026-4-24 16:19. z7 i/ T! u9 p0 g
坐等普惠。。。
/ a, D& h4 R; v8 q: r) l6 F
实际用了下Pro的价格其实也还好,贵确实贵了点但是效果比V3.2的时候好很多
$ _/ m9 t5 r* Z9 i. U' g; X! X- m估计下半年950集群上线多了应该会便宜不少,起码打个3折4 B( v7 F4 G7 \% F1 W+ b
===: b, T4 {" S& T5 x3 j
Kimi最近发了个卫星,他们可以搞Prefill/Decode分离,且能够提升效率。7 q# ~6 K8 T  n! {6 Q) I0 K

. e* R/ p" ~$ T+ K+ ]这么搞的话,即使是万卡级别的部署,集群的跨数据中心带宽需求也就在 Tbps 量级,现代数据中心完全能承载。
; r6 d4 [( V3 m. }$ p, |6 e
2 A% k6 i+ m: u& d: O/ a这意味着企业可以在算力/能源便宜的地方(比如新疆、云南)部署 Prefill 集群,在离用户近的地方(北上广深)部署 Decode 集群,进一步降低Token成本。
作者: 马鹿    时间: 3 天前
DeepSeek V4 这是Android vs iOS。
/ R' {% `& ^) ~0 t! S1 B) T# H6 o( X; }5 |0 d

作者: 大黑蚊子    时间: 3 天前
马鹿 发表于 2026-4-24 20:25
, p; d$ I5 t- B& h, |2 MDeepSeek V4 这是Android vs iOS。

5 ^; U) z( E4 ]也不能这么说吧) y# x8 _: X% @) P* ~
iOS其实是最开源的闭源系统,Android是最封闭的开源系统
' R/ F( s5 I8 E1 h6 w+ c* [1 jAndroid kernel大家都能用,但是GMS没有的话,你看华为就是举步维艰
作者: 马鹿    时间: 3 天前
大黑蚊子 发表于 2026-4-24 09:18
5 X7 D0 S7 |- b也不能这么说吧
3 H4 K1 q, {% O9 Q7 PiOS其实是最开源的闭源系统,Android是最封闭的开源系统
/ Z- C9 ?: d- h. J1 Z3 nAndroid kernel大家都能用,但是 ...
& E8 x  x3 D2 N! D) q" A
我没研究过手机的系统。8 f/ ~' Y$ S* f: K3 K" r* B

2 Q8 F3 R$ Q4 N; f& }1 p* b/ D/ [我觉得长期看的话,Deepseek 架构&算法 + 华为芯片&平台 可以分至少25%的市场, 50%归英伟达,另外25%给其他。当然得看欧洲和世界其他地方怎么想的。
作者: 三力思    时间: 前天 02:57
马鹿 发表于 2026-4-24 22:47
) [& o3 l! G2 g5 O( _9 Y5 I我没研究过手机的系统。
+ b) M; m" F# Y* x7 V8 ?3 {' T" @3 ~' g4 ^( g
我觉得长期看的话,Deepseek 架构&算法 + 华为芯片&平台 可以分至少25%的市场, ...

3 D& I3 J% I/ I! T开源迫使对手进步啊,不然美国公司很快就会组成行业垄断组织,和苹果那样挤牙膏一样的更新了。
作者: 马鹿    时间: 前天 03:32
三力思 发表于 2026-4-24 13:57
8 [& s/ j2 S* R& Y  X4 K' R& N* r8 ?开源迫使对手进步啊,不然美国公司很快就会组成行业垄断组织,和苹果那样挤牙膏一样的更新了。 ...

( \5 Y! w5 f" |$ d5 ^本来中国很多人包括ld层都是买为主, 直到被迫营业自己造, 长期看, 这是好事
作者: leekai    时间: 前天 21:32
R1出来后短期打压了NVIDIA股价,因为算力需求小了;但长期利好NVIDIA,因为越来越多的个人和单位想尝鲜导致需求大增,甚至开始搞本地部署,需求又增加一波;但这次V4直接优先适配华为,算是对NVIDIA釜底抽薪,真动摇了CUDA的根本,所以黄皮衣真的急了。
作者: 大黑蚊子    时间: 前天 23:21
Update:
! \& H+ w' w# K# ?
( ?/ D2 p+ w* c2 x2 `: ?DeepSeek V4 Pro限时特价2.5折, 直接脚踝斩了  |+ v; M3 g/ o: A7 A5 S) s  Q0 u

6 g& l/ Z! E# u2 p6 @" xDS:我便宜,我不怕封锁,我还有原生1M上下文




欢迎光临 爱吱声 (http://129.226.69.186/bbs/) Powered by Discuz! X3.2