设为首页收藏本站

爱吱声

 找回密码
 注册
搜索
查看: 1672|回复: 4
打印 上一主题 下一主题

[信息技术] 继续请教问题:关于 Pytorch 的 Autograd

[复制链接]
  • TA的每日心情
    擦汗
    2024-12-25 23:22
  • 签到天数: 1182 天

    [LV.10]大乘

    跳转到指定楼层
    楼主
     楼主| 发表于 2023-2-14 13:09:28 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
    本帖最后由 雷达 于 2023-2-14 13:12 编辑 * R' Y7 k' \8 y. l* F

    , |, X6 @1 D8 [% b' k+ @+ L为预防老年痴呆,时不时学点新东东玩一玩。
    : ~1 k, l6 V& o1 a: Z, K" Q$ MPytorch 下面的代码做最简单的一元线性回归:1 w- E& N; r& J, {& q9 o/ t, P' o8 M
    ----------------------------------------------
    & `; B9 u' x2 T( }. N8 H* Eimport torch& ?; q1 U3 u0 L& k
    import numpy as np' f% W! d3 Z+ `* T3 P6 I
    import matplotlib.pyplot as plt% }6 x) ^; Z, r9 j1 e. d' y
    import random
    , y& _# b( W, V% D! F5 L4 x) u  r+ v8 `- Z! ?' }$ C$ z7 }
    x = torch.tensor(np.arange(1,100,1))
    : P- g& f6 M8 e0 i  Z  oy = (x*27+15+random.randint(-2,3)).reshape(-1)  # y=wx+b, 真实的w0 =27, b0=15, ?6 R. S% O1 q9 R2 V; ]
    . U  f  G4 W% ]0 U1 g
    w = torch.tensor(0.,requires_grad=True)  #设置随机初始 w,b
    ) Q: L. r* G! c8 [* W3 a# q- E6 G& Q+ Xb = torch.tensor(0.,requires_grad=True)
    8 c$ P/ y3 H/ ~2 {7 T! Z( S/ E% ]# e. @( t- A
    epochs = 100$ P2 v+ x/ B3 ~8 M) q# y

    1 o% `+ a; G' d0 m" {' |losses = []
    % m0 d: @- Y4 o! v4 ?0 E3 |6 Hfor i in range(epochs):/ i& J- _% R- U
      y_pred = (x*w+b)    # 预测/ e: b( n/ V- C. @5 ~0 G7 M/ P
      y_pred.reshape(-1)
    ! j0 Y7 ~! z# E* l  K0 K
    , P/ k/ P; w& F, H' ]! J9 m  loss = torch.square(y_pred - y).mean()   #计算 loss: ]0 e7 N& _0 k
      losses.append(loss)
    / _1 t1 W* S1 a' l6 m- u! G  
    0 e; G% Y0 U$ j6 }  loss.backward() # autograd
    ' ?6 M* Y( q2 [. M  g  with torch.no_grad():
    4 o: ~; c# X. J* I; m1 |6 |    w  -= w.grad*0.0001   # 回归 w
    0 S' [, ^* q5 e% l  F; ]: F: X4 ~    b  -= b.grad*0.0001    # 回归 b 2 K9 N3 N. Z* b  M
      w.grad.zero_()  
    ) f9 h) F7 a2 I/ b; \  b.grad.zero_()& Y# E) V$ g3 h5 M4 i" s7 j* E; c' w/ e
    3 Y! T( |0 ]5 i
    print(w.item(),b.item()) #结果
    1 ]: s' V6 d6 q4 _& E# r( A; V
    8 y. s- G+ I$ d# d5 \5 I5 AOutput: 27.26387596130371  0.4974517822265625
    2 U: q/ L6 L6 n( N3 c: z----------------------------------------------
    $ I3 x+ ~+ O  p/ U3 A7 W5 ~+ S: }最后的结果,w可以回到 w0 = 27 附近,b却回不去 b0=15。两处红字,损失函数是矢量计算后的均值,感觉 b 的回归表达有问题。4 m- L0 }5 m9 p
    高手们帮看看是神马原因?
    4 Z9 p" E. D; N

    评分

    参与人数 1爱元 +10 收起 理由
    老票 + 10 不明觉厉

    查看全部评分

    该用户从未签到

    沙发
    发表于 2023-2-14 19:23:02 | 只看该作者
    本帖最后由 老福 于 2023-2-14 21:58 编辑 2 A  C' T! T+ h+ |

    " }: I/ q% c0 ]+ P没有用过pytorch,但你把随机噪音部分改成均值为0的正态分布再试试看是不是符合预期?
    " h  u; a! }1 s0 N( h5 F-------
    8 O) a  M0 [* O7 P( I2 I- D  Z不好意思,再看一遍,好像你在自算回归而不是用现成的工具直接出结果,上面的评论只有一点用,就是确认是不是算法有问题。
    6 g/ ^2 n/ r- e, O4 p-------7 r9 U* k9 ^5 `
    算法诊断部分,建议把循环次数改为1000, 再看看loss是不是收敛。有点怀疑你循环次数不够,因为你起点是0, 步长很小。只是直观建议。

    评分

    参与人数 1爱元 +10 收起 理由
    雷达 + 10 谢谢建议

    查看全部评分

    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    擦汗
    2024-12-25 23:22
  • 签到天数: 1182 天

    [LV.10]大乘

    板凳
     楼主| 发表于 2023-2-14 21:52:57 | 只看该作者
    老福 发表于 2023-2-14 19:23
    ! u. a# D1 x2 [+ `没有用过pytorch,但你把随机噪音部分改成均值为0的正态分布再试试看是不是符合预期?( {9 E: o2 j4 P+ m
    -------
    0 A/ {9 |0 w/ Q# m不好意思, ...
    + D( b6 b; G  B
    谢谢,算法应该没问题,就是最简单的线性回归。
    & ]- F0 R4 W7 v* z6 p$ S我特意没有用现成的工具,就是想从最基本的地方深入理解一下。
    回复 支持 反对

    使用道具 举报

    该用户从未签到

    地板
    发表于 2023-2-14 22:00:48 | 只看该作者
    本帖最后由 老福 于 2023-2-14 22:02 编辑 0 k& P% r% j- {2 i
    雷达 发表于 2023-2-14 21:52
    & \( R2 p5 H7 @( m5 b谢谢,算法应该没问题,就是最简单的线性回归。
    6 w7 K9 n; b4 D# d我特意没有用现成的工具,就是想从最基本的地方深入理解 ...

    . h6 T  {3 M( I) {3 n* G& `+ S# U/ k, A+ C& u' @$ T) J
    刚才更新了一下,建议增加循环次数或调一下步长,查一下loss曲线。5 o) V9 \) Y5 ?. ~* U) n$ i
    & G: |( o+ F* U" n
    或者把b但的起点改为1试试。
    回复 支持 反对

    使用道具 举报

  • TA的每日心情
    擦汗
    2024-12-25 23:22
  • 签到天数: 1182 天

    [LV.10]大乘

    5#
     楼主| 发表于 2023-2-15 00:25:26 | 只看该作者
    本帖最后由 雷达 于 2023-2-15 00:31 编辑
    & n9 M$ p8 X2 }; O6 ]2 R' N: P
    老福 发表于 2023-2-14 22:004 E8 K& k( M/ n2 ~' C% k5 A
    刚才更新了一下,建议增加循环次数或调一下步长,查一下loss曲线。3 s! V- X9 d% M7 j. F9 E  J
    5 V* l' f; x& S$ R5 S1 I
    或者把b但的起点改为1试试。 ...
    # Y# I! b! i8 Q' ^, B
    5 c) O. H* [" V1 \
    你是对的。4 c- j2 N$ }8 i/ B" Z! ^2 v6 l8 Q
    去掉了随机部分: ^: j. [+ B) q, q! U6 h
    #y = (x*27+15+random.randint(-2,3)).reshape(-1)
    + g8 L* k( Q. Ny = (x*27+15).reshape(-1)
    6 K1 \6 z# r2 o2 k& \' _! [9 H' e% ?& i0 \1 {7 i
    循环次数加成10倍,就看到 b 收敛了
    8 q, _% t% n7 S0 s5 ]/ Xw , b* W- G7 [: |! V' X/ g9 Z
    27.002620697021484 14.826167106628418
    : B7 H( @( @, o: N& x8 p2 U
    " g9 [* c$ q+ d- L, w3 D6 k! ?+ n% w和 b 的起始位置无关,但 labeled data 用 y = (x*27+15+random.randint(-2,3)).reshape(-1) ,收敛就很慢。
    回复 支持 反对

    使用道具 举报

    手机版|小黑屋|Archiver|网站错误报告|爱吱声   

    GMT+8, 2025-6-8 18:00 , Processed in 0.033260 second(s), 18 queries , Gzip On.

    Powered by Discuz! X3.2

    © 2001-2013 Comsenz Inc.

    快速回复 返回顶部 返回列表