|
|
DeepSeek放了个原子弹后,其他AI大模型厂家不甘落后,现在阿里也放出Qwen2.5 Max,相信还会有更多的。这是好事。不光中国的AI大模型还在继续放出来,美国也是,马斯克的xAI就刚放了Grok 3。
1 }0 b y$ `: u3 ~7 w. G
* i) f$ ]" _5 S+ J4 c0 I8 D- u6 _现在似乎还是在各家各显神通的阶段。随着越来越多的开源、免费使用AI大模型出现,是否有可能互相接入、集思广益?9 D+ k5 i* o1 P/ C
- G6 K) O" k& i; `) X
三个臭皮匠,顶个诸葛亮。相信AI也是一样。
" w8 V7 @# U: m1 Q/ M" e
. k7 i6 s1 e6 Y" L; ]每一个成功的AI大模型都有强项、弱项,而且强弱还可能是动态的,对每一个问题都有不同的表现。如果可以互相接入,在提出本身的AI解的时候,参考“友邻AI”的解,尤其参考对方的推理过程和数据来源,以判断各个模型解的相对可靠性,然后汇总。这样可能可以最大限度的集思广益,提高最终AI解的精确性和有用性。8 s0 A4 W3 x( Q" i( s+ J, K
' e$ Y, q* ^* n+ q这里肯定会有很多商业和法律的问题,但现在只考虑技术问题。从“责任”来说,负责集思广益的AI大模型“负最终责任”。8 {& \ U: T! k8 o
% e4 J; I5 X; }
人类也是这样的,听到伙伴的想法、办法更有道理,会加以采用。在采用的过程中,未必全盘照搬,而是融合进自己和第三方的合理因素,力求提出最优的最终解。集思广益的人也对最终解负责。* u+ C- ^0 ^, E1 `1 R# U' V
6 {0 q2 g9 ]) M( b4 G5 H! k
AI大模型还在军备竞赛中。DeepSeek开创了非常好的先例:不片面扩大模型,而是用更加精妙的模型设计和算法获得更多的智能。但“军备竞赛”的冲动相信不可避免,需要避免“递减效应”。越来越大的模型或许还能更加智能,但大家都在重复建设,似乎挺浪费的。8 h8 X9 G+ X+ O1 B' [9 k1 A4 u3 e
0 S y# F9 K# J& W, z这个设想靠谱吗?感觉上有点像更高层次的MoE? |
评分
-
查看全部评分
|