设为首页收藏本站

爱吱声

 找回密码
 注册
搜索
查看: 2383|回复: 9
打印 上一主题 下一主题

[科研心得] 生成式 AI 有没有推理能力?

[复制链接]

该用户从未签到

跳转到指定楼层
楼主
 楼主| 发表于 2024-10-18 23:36:23 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
本帖最后由 孟词宗 于 2024-10-18 23:37 编辑 & s6 {( E( D' E  T% c

( G- f& _1 l2 u讨论 AI 会不会产生自我意识的过程中,sleepyr 提到了这篇文章:AI推理能力大“翻车”!苹果最新论文:LLM只是复杂的模式匹配,而不是真正的逻辑推理/ n: ^6 o6 D* u) Y9 j
/ h% Z# M5 W% L( ?( t9 |
这篇文章设计的测验很有意思。从实验结果看,文章认为现在的所有通用生成式 AI 都不具有真正的推理能力。也就是说,AI 并不理解抽象的概念,而推理能力恰恰依赖抽象的概念。5 Z3 m. D% E& Q( V0 g
6 Y" ~* ^" i* U! k. v  C" ]7 w
最近俺也在玩 AI 推理方面的东西。下面是论文里的一个小实验,大家有兴趣的话可以玩玩。
4 u& Z' d* ^9 `) x
9 u* \) m2 W, q* R给 AI 的提示:Here is the rule of the game: If I enter A, then you return B; if I enter B, then you return C; so on and so forth.
4 P. c% r1 u2 x1 s) q! \1 g, N$ {9 Q! U
AI 回复表示理解了提示中的这个这个规则。于是有下面的实验:, V% T# L( p/ i
我:  A8 P& T+ S. G' c# V8 ^+ }
AI:  B- _  r2 k: f3 Y; R6 o: T* M
我:  B
; F$ o( ], ~4 p9 b0 R0 h9 vAI:  C! f# ?8 {$ }4 S; a9 m0 X3 |' P* w4 @
我:X- O8 i; u" a, R
. I6 w  }5 W2 [, J4 R
这里,不同的 AI 模型会有不同回答。有些 AI 会回答 Y 。有些则会说这不符合规则,所以无解。  很显然,回答是后者的把提示中的 "so on, so forth" 给吃掉了。然而,这并不代表 AI 没有推理能力,而可能只是语句处理模块不好。
3 r3 ?" D& R' q8 a$ M6 w+ [1 @8 Y; y' ?
真正的推理能力体现在后续实验。对于能够回答 Y 的AI 继续提问:
# ]' v% U" T' Z4 y/ F" Z我:Z* ~9 A% y/ O: Q0 J7 f

& I3 |5 F9 |3 X+ X1 {* G: r: }这下大多数的 AI 模型都冒烟了,有些回答说不合规则,有些回答说序列到头了没有答案。有意思的是两种回答:一种回答说 Z, 另一种则回答说 A。
( K! K- @6 C# ?  u) `6 o0 v5 k# f
而这四种回答,如果用来盲测人类,其实人类也会给出同样的四种答案。也就是说,就这个问题来看,如果盲测,提问者无法分别回答者是人类还是AI。换言之,能给出这四种答案的 AI 在这个小实验中通过了图灵测试。这显然不是那篇文章中说的排列组合或“复杂的模式匹配”能够做到的,而是真正的推理能力。% ?+ ?/ s8 Z/ f4 L0 ^4 W0 E4 r* u

4 o* Z9 Y7 w# N' h有意思的是训练程度越高的模型,越倾向于给出这四种答案。比较 Mistral, 狗屁通,Gemma, Llama, 通义千问等等大模型的不同版本,都是如此。这类似于人类的婴孩和成人之间的区别。相比于婴孩,成人除了脑部发育完全,更储备了更多的知识。# k9 x% i. `7 B1 @

4 [( b" R5 A+ ?( ~. l+ y至于这篇文章中说到的语序问题,非相关语句问题等等,前面说过,必须分清这是语句处理模块的问题还是真的是大模型本身的问题。毕竟,即使是人类“屡战屡败”和“屡败屡战”用的字数和字完全相同,但把语序换一下,意思就完全不同了。然而,你去问一个三岁小孩这两句话有何不同,三岁小孩可能会告诉你没啥不同。而问聊天狗屁通同样的问题,狗屁通则会说:
5 Z; U, Y, i3 k7 U  K! `5 M, }9 N
“屡战屡败”和“屡败屡战”这两句话虽然字面相似,但含义有所不同。$ u, {  w' G: l. u, C- w5 y+ C
/ @$ i% w2 W& c( C
1. **屡战屡败**:强调的是多次进行战斗,但每次都失败。这种表达往往暗示一种无奈或沮丧,强调了失败的频繁。# y: O" l6 l; y+ n9 m" h, L) Z
+ W( D  k, A  t1 W( [/ }
2. **屡败屡战**:则是指经历了多次失败,但仍然继续坚持战斗。这种表达更侧重于坚持和不放弃的精神,体现了勇气和韧性。  S' F, B4 @  u4 E
+ o) V. {9 |3 e. T
总的来说,前者更偏向于消极的失败感,而后者则传递出一种积极向上的拼搏精神。
6 Q. i9 F2 @) s$ k  r4 Y

评分

参与人数 4爱元 +28 收起 理由
pcb + 4
helloworld + 10
老票 + 10 涨姿势
唐家山 + 4

查看全部评分

  • TA的每日心情
    开心
    昨天 08:53
  • 签到天数: 3219 天

    [LV.Master]无

    沙发
    发表于 2024-10-19 09:02:34 | 只看该作者
    本帖最后由 唐家山 于 2024-10-19 18:52 编辑
    . a" L- _1 Y7 w; r2 |5 R
    ( f8 X4 F6 K5 F# |2 f推理能力也是分层的。交互式定理证明应该是最硬核的形式演绎推理了,在证明的过程中也分三种情况。第一种是直接照搬已有的证明,只在语法层进行修改,用于消解待证目标。第二种需要深入理解待证目标的语义信息,以及已有类似证明的语义信息,借鉴已有证明的构造模式,构造出符合要求的证明。第三种是还没有类似的证明,这种情况下需要从头开始,把大脑中的非形式证明,翻译成形式化的证明。+ c5 b) X5 N+ u/ E, j
    第一种可以认为是一种广义的模式匹配,目前大模型的水平处于这一层级。9 F. Q3 s1 `7 _! {2 c- z7 c
    如果大模型能够做到第二种,那就应该认为它有一定程度的演绎推理能力。
    . J* v% q5 ]+ J$ Z' O& O如果大模型能做到第三种,那它就已经具备了真正的演绎推理能力。

    评分

    参与人数 1爱元 +10 收起 理由
    helloworld + 10

    查看全部评分

    回复 支持 反对

    使用道具 举报

    该用户从未签到

    板凳
     楼主| 发表于 2024-10-19 09:14:42 | 只看该作者
    唐家山 发表于 2024-10-19 09:02
    : [- T9 @" F* k( D推理能力也是分层的。交互式定理证明应该是最硬核的形式演绎推理了,在完成证明的过程中也分三种情况。第一 ...
    # p) q; E& N) z- r' |; s# l! N: U  M
    yanei 刚才问: 有没有回答AA的 ?; ~8 [4 Q0 Y! c
    6 q( i2 e# p( ^+ ~9 H
    这在实验中已经考虑到的。输入 ZZ 得到 AA 8 G: r1 I2 t& i
    % T9 V$ E2 f( ]: _
    甚至输入 ABC,得到 BCD。 输入 XYZ, 得到 YZA。还可以输入 ABCD 得到 BCDE。 输入 ABCDE,得到 BCDEF  
    & K& A- G' Q; ^' n+ t2 f! e
    , @( ]. @% J0 J4 |6 p- k4 U打乱顺序输入 NBC, 得到 OCD。
      w+ X) m! l! a
    6 u7 `$ `! Y- S这些都是建立在只输入主贴原始规则的基础上的。5 H  _; q# n4 `# H( G  P0 u! n
    3 Y1 d2 ]- m3 M0 L1 H
    由此可见,在给予一定规则后,高度训练的 AI 是可以表现出类似“举一反三”的推理能力的。而这肯定不是什么模式匹配。
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    开心
    昨天 08:53
  • 签到天数: 3219 天

    [LV.Master]无

    地板
    发表于 2024-10-19 10:48:54 | 只看该作者
    本帖最后由 唐家山 于 2024-10-19 18:51 编辑 # S3 m& d* F# q" D5 W+ J1 h8 h
    孟词宗 发表于 2024-10-19 09:14
    1 \$ m8 k# I" a1 I' S2 _yanei 刚才问: 有没有回答AA的 ?# f( z8 D9 c% ~6 U; U

    " p" L  l) X* E: g$ _. p这在实验中已经考虑到的。输入 ZZ 得到 AA
    / ], O& a8 @- N5 ^; {: E3 o/ u
    " |2 w$ n% `: \$ W2 B; M; `
    看了一下你的这个实验。实验使用的符号集是有穷的。这种情况下,只是简单的枚举就可以搞定,谈不上什么演绎推理。Z后面可能是A,也可能是大模型从其他语料处学来的公共知识。$ A, ?$ n; `" F; Y/ V6 o
    一个认真的演绎推理至少是要考虑递归可枚举的。能否请你做一个实验,先给出自然数的生成规则,让大模型学习,然后问大模型一个很大的数字,比方说999999,然后问其后续?$ k  ?& A# z( j7 [

    - q) P% ?9 Y3 V) l2 k2 a4 g$ X% `2 ?6 C- n
    这在实验中已经考虑到的。输入 ZZ 得到 AA

    . t/ \; t% ^! f  r& p这个有点意思了,如果输入10个Z加一个Y,输出是什么?
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    开心
    昨天 08:53
  • 签到天数: 3219 天

    [LV.Master]无

    5#
    发表于 2025-2-20 10:25:52 | 只看该作者
    唐家山 发表于 2024-10-19 10:48: ?$ L. o+ [. Q- s1 \
    看了一下你的这个实验。实验使用的符号集是有穷的。这种情况下,只是简单的枚举就可以搞定,谈不上什么演 ...

    7 T. v1 W' s1 R* d8 [用DeepSeek试了一下:6 Z* p+ E5 P0 c
    第一次的回答是:( e/ Y# `+ v- X1 c+ [7 e
    Input: ZZZZZZZZZZY
    % b& L2 q+ A' v7 _2 V+ L1 POutput: AAAAAAAAAAZ" i2 f) R- H7 C
    在我做了提示后:如果把ZZZZZZZZZZY看成一个26进制的数,那么这个数的后继是多少?6 N4 L2 i! v4 Z/ T! X$ \3 I
    DeepSeek经过了长时间的思考(用时285秒),给出了正确答案:
    6 b$ u! x( I' c$ ^2 M将 ZZZZZZZZZZY 视为 26进制数 的后继(加1后的结果)是 ZZZZZZZZZZZ。8 }$ i' K! d1 S6 D
    回复 支持 反对

    使用道具 举报

    该用户从未签到

    6#
     楼主| 发表于 2025-2-20 14:04:36 | 只看该作者
    唐家山 发表于 2025-2-20 10:25+ v5 u8 o2 A, K7 f6 R3 h2 y
    用DeepSeek试了一下:3 ^( g. s, `$ _8 j5 [, S! P
    第一次的回答是:( h5 O) `& f0 I
    Input: ZZZZZZZZZZY

    ) }6 P" f* _# @有意思的是,如果你不增加最后这个“把ZZZZZZZZZZY看成一个26进制的数”的条件,很多 AI 还是有一定概率回答 ZZZZZZZZZZZ 的。只不过这个回答是随机的。即使是同一个Session, 你问两次,前后结果都有可能不同。从结果的稳定性来说,DS R1 的确是目前最好的。

    评分

    参与人数 1爱元 +4 收起 理由
    唐家山 + 4

    查看全部评分

    回复 支持 反对

    使用道具 举报

    该用户从未签到

    7#
    发表于 2025-2-21 01:31:44 | 只看该作者
    孟词宗 发表于 2024-10-19 09:144 Z5 c5 a1 y5 O7 ^8 |
    yanei 刚才问: 有没有回答AA的 ?
    $ J( |- {8 M0 g( ]; F- D
    % M! j, X/ d* L1 I  q0 k这在实验中已经考虑到的。输入 ZZ 得到 AA
      ^0 k5 O% w' g
    我的意思是我在列举事物时, 在A到Z用完之后会用AA,BB等等。如果把这个看成是26进制,Z后面也应该是AA,然后AB,AC,。。。AZ, BA,BB等等。
    回复 支持 反对

    使用道具 举报

    该用户从未签到

    8#
    发表于 2025-2-21 02:20:02 | 只看该作者
    本帖最后由 nanimarcus 于 2025-2-21 02:27 编辑
    ( e3 a+ C5 V; R
    ( z! N1 w; O; Y) y) G! g; N& C对于当前人工智能的能力不应该苛求。0 E9 k1 K  i3 Z& L
    人类乃至动物的智力发展也不是一蹴而就的。
    ) y2 P: |2 w3 T7 c' _: A* b只当现在是草履虫又如何,迭代就是了。

    点评

    给力: 5.0 不能同意更多: 5.0
    给力: 5 不能同意更多: 5
      发表于 2025-2-21 09:31
    回复 支持 反对

    使用道具 举报

    该用户从未签到

    9#
     楼主| 发表于 2025-2-21 23:55:39 | 只看该作者
    yanei 发表于 2025-2-21 01:31
    7 T# m5 s" k. `' G: [; I: p/ A4 O我的意思是我在列举事物时, 在A到Z用完之后会用AA,BB等等。如果把这个看成是26进制,Z后面也应该是AA, ...
    4 V. ?5 O2 R# S2 I$ ^3 G
    初始条件中并没有“26进制”的限制。因此 AI 可以做出任何符合初始条件的推理。
    ; V7 H/ e' }$ w! g5 _
    3 _0 M" C8 r: g3 |另外,AI 会做出什么推理,给出什么答案主要取决于其受到的训练和训练程度。这和人类是一样的。如果你问一个不懂除了十进制以外还有其他进制的人,他的回答基本不会是 AA。
    2 z  W9 R# ?4 l3 ?& p4 |! T3 d3 y# G% t5 i- A" P# m5 y/ y! E
    有意思的地方是 AI 除了以上四种回答,还会给出一些莫名其妙的回答。例如有些 AI 会回答 "Z" 之后是 "[", 这是由于 AI 推理用的字母表是 ASCII 如果用 DS 可以明显看到 DS 考虑了这一点。但在大多数的 DS 的“深度推理”中都否决了这项。原因是 DS 认为这是在回答人类的问题,而人类用的字母表只有26个字母。
    9 N5 n2 j, }  E* s* H
    - M# u+ p4 A" Q! Q' f# q. A但有些回答就莫名其妙了。例如狗屁通经常会冒出一个完全不搭的答案,好比“b!”。完全不知道从何而来。或许这是狗屁通“灵机一动”?真的像人类那样有了真正的创造力?
    回复 支持 反对

    使用道具 举报

    手机版|小黑屋|Archiver|网站错误报告|爱吱声   

    GMT+8, 2026-4-6 15:14 , Processed in 0.093289 second(s), 18 queries , Gzip On.

    Powered by Discuz! X3.2

    © 2001-2013 Comsenz Inc.

    快速回复 返回顶部 返回列表