爱吱声

标题: 阿里云排雷 [打印本页]

作者: 可梦之    时间: 2023-5-17 14:48
标题: 阿里云排雷
喷了一下阿里云
# H2 l( F% `- ?2 E; D! J/ e( z# c, M$ b
在GPT4的帮助下,迅速找到了问题根源。0 m3 R5 w% Q8 z
  {* C  L3 I2 Z4 e  J& q
我的问题是:Ubuntu22.04中,kswap进程启动后,机器就卡死了。swap空间一点没占用。可能是什么问题?( r. S" G$ R, S* t; ]

% ~0 N# [) m- H0 v. sGPT4的回答是: 3 e' g& F2 a$ I8 R

, v* Z; ~! i1 x! i
在 Linux 系统中,kswapd 是内核线程,它的主要职责是在系统内存压力大的情况下回收(释放)内存,以便给新的进程提供内存空间。它通过将内存中的数据移到 swap 空间(也就是硬盘)来实现这个功能。如果你看到 kswapd 进程占用了大量的 CPU 时间,并且系统变得非常缓慢,那可能是内存压力过大导致的。
- X& _8 z! R& D( W7 K: t( P7 G' I# H* J0 i! g
然而,你提到 swap 空间没有被占用,这就比较奇怪了。这可能是由于以下几种情况导致的:6 a/ O+ }$ r5 U5 o$ I* d. k

) c6 N$ c- D& f内存泄漏:有一个或多个进程可能在不断地消耗内存,但没有正确地释放它。你可以使用 top 或 htop 命令来检查哪个进程占用了大量的内存。8 s6 g; j( X2 J! J! f7 k
; Y( I- H2 X% u3 [  W
Swap 使用被限制或禁用:在某些情况下,系统可能被配置为尽量不使用 swap 空间。你可以通过 cat /proc/sys/vm/swappiness 命令来查看 swappiness 参数的值。这个值的范围是 0 到 100,数值越大,系统使用 swap 的可能性就越大。如果这个值非常低,你可能需要提高它。) ^7 N* v/ p' w$ P# `- O; Y% p

1 C) @4 L; T; D4 S* s' j" m1 [7 w错误的内存管理:在某些罕见的情况下,可能是由于内核的错误或硬件问题导致的内存管理问题。在这种情况下,你可能需要升级内核或检查硬件。
8 W4 E( E: j: f$ \% t
) d* V# v1 G- e( e) [为了进一步排查问题,你可能需要更详细地监控系统的内存使用情况,并检查相关的系统日志。你也可以尝试使用一些内存管理和优化工具,如 earlyoom 或 nohang,来自动处理低内存情况。如果问题持续存在,你可能需要寻求专业的技术支持。
! C- _2 g7 T& x# f* t

4 b9 Q% M4 h7 r1 @/ D3 {+ u  w1 X我在Google中,后来找到正确关键字,在stackoverflow也找到正确答案:https://askubuntu.com/questions/ ... taking-a-lot-of-cpu0 v" [5 m) m: Y

% C# W, s7 p- X8 X, Z( {, d在阿里云中,swappiness数值是0,也就是,永远不要使用swap分区。所以虽然我设置了swap,但是内存根本不会存到swap里,kswapd进程自己都拿不到内存。把最后一个bit的内存榨干后,系统完全当机。
1 j- K. p2 J  ^0 n$ t+ N+ F& M( }7 ~! [: A' }2 A+ U3 m1 h" a1 ]
我修改这个数值为60后,就没有问题了。swap分区开始工作,ssh也可以连上。6 y' D1 d: E8 L- }9 G% }
) i' k8 [/ M* i) U* M+ V
但是,这个数值在其他Ubuntu系统中都是60,不管是22.04/20.04/18.04,不管是AWS,ServaRICA还是我自己的服务器。阿里云的为什么这么特殊呢?4 H/ g# I6 @3 {& g4 n$ P

3 H: f" o+ Y$ L& I: n9 R5 O# }1 m3 Q最后在/etc/sysctl.conf配置文件中,第一行赫然写着 vm.swappiness=0。而在其它系统中,配置文件里都没有这个设定。
# i+ g# ]" Y$ H/ r2 I1 N" r1 ]1 t1 {% M
阿里为啥要改Ubuntu的默认配置?搜索了一下,在Google找到了阿里云的官方指导:https://developer.aliyun.com/article/1151641。页面虽然已经404了,但是Google cache还能看到:在服务器和容器平台建议关闭SWAP,避免内存交换影响服务器性能,甚至引发数据丢失。
/ [' c" Y+ [9 n' R- I/ ^+ E  d' r# z3 P  Q4 V5 p1 Z: S- k: q
但是,我们知道,不管你内存多大,都要开启swap。毕竟谁也不能保证你的内存是足够大的。自己家里机器随便折腾没事,服务器要24x365在线的。阿里云为什么这么反人类呢?我觉得有一个帖子说的对:“借此让用户购买更大的内存!”
! @: o1 J, I! [/ `. n: t; U1 K2 l: E( F+ I+ q# O# x
喷完了,还要继续搞明白node为啥占这么多内存?我看node的进程数越来越大,貌似在不停的fork。当然也可能是内存泄露,swap分区最终也被占满了。
2 f- O5 U5 b$ e- x5 ?4 _
" W( Y* |! j* T
作者: 勤劳工作的猪    时间: 2023-5-17 15:01
猫腻真不少
作者: 老友    时间: 2023-5-17 16:24
草得嘞,阿里云这么流氓?很早很早以前玩solaris的时候,建议swap分区配置成物理内存的2~3倍。
作者: straw    时间: 2023-5-17 19:21
我们那种1T2T内存的机器,连swap都不建了。
" w# W# K: P$ g一般情况下swap还是要建的。当然太大也没意思,有个10g也就够了吧
9 h0 h0 I# R: @" i
作者: 可梦之    时间: 2023-5-18 07:01
straw 发表于 2023-5-17 19:21
' H9 E* K4 }: f' V+ u  O我们那种1T2T内存的机器,连swap都不建了。
% b' c' O$ C% Z# U( z一般情况下swap还是要建的。当然太大也没意思,有个10g也就够了 ...
( s9 @8 p" K5 \, L5 x- Z
你可以默认不建swap分区,但不能偷摸让我建立了swap分区也不能用。我很难用善意去揣度他们这么折腾的目的。
作者: 季侯    时间: 2023-5-19 15:59
这个不得不说冤枉阿里云了,之所以将vm.swappiness默认设置为0,纯粹是因为技术原因。因为在云环境下,对磁盘的访问其实是通过网络访问分布式存储。如果使用swap,那么很多服务端软件的磁盘io变成了网络io,性能会急剧下降,这个对企业应用来说是不可接受的。" T/ h" }$ ~8 g' c9 i+ `

/ E7 k; ^, B8 v! U- h; U0 n这个设置貌似ecs刚上线时候没多久就确定了,应该还参考了ec2的设定,时间太久远,有点不记得了。另外阿里云ecs的帮助文档里面应该有关于这方面的说明。
作者: 可梦之    时间: 2023-5-19 19:16
季侯 发表于 2023-5-19 15:594 E6 f1 l6 H3 \& l+ H* f( d, K  h1 Y7 E
这个不得不说冤枉阿里云了,之所以将vm.swappiness默认设置为0,纯粹是因为技术原因。因为在云环境下,对磁 ...
2 D7 H! [# _9 x: W5 h
这个要商榷。现在网络数据是非常快的,尤其是同一机房内部,千兆起步。速度可能比一般的硬盘还快。我当初将DB服务器分离出去,最开始也有这个担忧。磁盘io变成网络io会变慢。后来发现是完全多虑了。
6 Y4 M; Q9 d& P% [) N; X3 j. v- e1 a- J
要避免网络io,默认没swap分区就行了。用户想用自己创建swap分区自己承担责任就成了。AWS就是这么搞的。9 Q7 E, _7 w0 Z) ^3 Z& l0 s8 e; i

4 o1 w9 D2 L- V% p5 f网络比硬盘慢,总比把内存耗光当机为好。服务器多层保护没啥不好,当你觉得意外不可能的时候,他总会发生。就是有T级的内存,也不能保证够用哦,不够了,慢点比挂掉好。再说了,要配置足够用的内存,不要多预留富裕多花钱吗。我觉得这才是阿里决策的重要原因吧。
作者: 阿忙    时间: 2023-5-19 21:23
可梦之 发表于 2023-5-19 06:16
5 C% A  j1 _! P. x0 D这个要商榷。现在网络数据是非常快的,尤其是同一机房内部,千兆起步。速度可能比一般的硬盘还快。我当初 ...
  \4 N* r, U* Z; C' N, T7 k
我觉得你的一个点是非常对的,“要么干脆不让用户用swap,如果让用户开了swap,那么就必须让它是工作的”,阿里的现在的做法实在是无法理解,
作者: 季侯    时间: 2023-5-20 09:18
可梦之 发表于 2023-5-19 19:16+ k9 M* Z0 U* z
这个要商榷。现在网络数据是非常快的,尤其是同一机房内部,千兆起步。速度可能比一般的硬盘还快。我当初 ...
7 V' y& w5 u1 s3 R$ v, E" U
千瓦网络并不快啊,其实在13/14年时候,阿里云机房里面已经是万兆网络了,现在估计已经是10万兆网络了。$ K1 P  e3 e$ t% X, \/ `2 R4 H
5 ~/ f0 M: G, G9 T
另外最大问题是确定性,本来跑的好好的服务,突然变慢了,查来查去是因为使用了swap,从本地磁盘调用到了网络io,这个是很尴尬的。0 J6 o8 B% I: O0 R$ F, h
$ m3 k2 ]2 ?, H
当你只管理维护一两台服务的时候无所谓,如果要管理成千上万服务器时候,这种不确定性带来的问题是必须避免的。
4 {3 @6 o7 O+ x* X
/ Y& G2 ^: y& h) e8 U% H7 z7 _另外这个配置应该是11/12年左右我定的,决定时候根本没有考虑让用户多用内存的因素,解决问题都来不及,哪有那闲心。4 L0 s! U$ z# X  F, d2 P" k- i

! l+ O- M3 Z8 o9 j( o闲人一思考,上帝就发笑。
" r0 h; D' B; r% T2 j8 f' \! V- |: X' S

作者: 赫然    时间: 2023-5-20 09:26
季侯 发表于 2023-5-19 20:18/ _  ^! W# J- k. p9 G# f
千瓦网络并不快啊,其实在13/14年时候,阿里云机房里面已经是万兆网络了,现在估计已经是10万兆网络了。. u$ ?6 |) }* s0 j
...
8 u* J% I: u, s
正主现身了。。。。2 t  v9 n' o0 P+ P' ]0 H2 l+ f

  b5 h3 f6 G1 C; p+ m7 R6 x) ]' l! L
这个配置应该是11/12年左右我定的

作者: 季侯    时间: 2023-5-20 11:50
季侯 发表于 2023-5-20 09:18
4 s9 Y3 [$ O' _5 J& D3 P. ~千瓦网络并不快啊,其实在13/14年时候,阿里云机房里面已经是万兆网络了,现在估计已经是10万兆网络了。1 T8 E' B* \" L( g3 ~4 [" \: \0 k
...
3 D. o+ X. s: R2 O. S3 y+ ^' f
这里应该有点记错了,13/14年时候,万兆网络只是试点
作者: 可梦之    时间: 2023-5-20 12:49
季侯 发表于 2023-5-20 09:18/ d: v/ p" u" {7 t$ t3 ]
千瓦网络并不快啊,其实在13/14年时候,阿里云机房里面已经是万兆网络了,现在估计已经是10万兆网络了。
( m1 @7 J( n8 `( ^% I ...
; S7 Q8 L2 ]/ Z/ J4 s  g% e
向专家请教一下:
" ]7 ?& U: w; U5 `) B2 l8 u' H1. 访问本地硬盘速度和通过网络访问同机房硬盘,速度能差多少?例如SATA III的速度大概是6Gbps,网络有多快?
' n- o9 r7 X: {1 ?6 I' A2.  硬盘访问是无法避免的,数据存储位置是不是也会考虑这个速度,就近放置?还是完全随机存放。后者能让用户感觉更一致吗?  U$ S0 _! g/ S! q" U1 ~
3. 禁用swap,内存耗光了会怎样?我记得Linux会强制把一些高内存的进程给关掉。假如我内存固定是10G,用光后进程被杀死,不比变慢对用户来说更麻烦。而为了保证内存不被耗光,用户是不是要预留更多比如20G内存?还是有什么建议的策略?
+ X; f/ U" S. l+ i' d4. 禁用swap了,能否禁用用户swap分区,或者用户创建swap分区的时候给个提醒?
; f& u, {$ {% r5. 主要速度差异应该是内存速度和硬盘/网络速度吧。swap的时候要把内存的数据dump到硬盘上去,肯定会让系统变慢,比较耗CPU的。* ^8 w: d$ g7 l, j
6. 当初是为了解决什么问题,服务变慢?内存快满了,肯定会慢,这个不正常吗?AWS是怎么解决类似问题的?
/ M1 b0 x# U; H% P( ]. e
$ ^7 B$ C. j3 u多谢多谢。
作者: KXG    时间: 2023-5-22 05:19
可梦之 发表于 2023-5-20 12:49
+ h2 b( i2 j1 ?向专家请教一下:
. d! _* G% N% P4 l, P5 [  y9 Q* P1 W+ o1. 访问本地硬盘速度和通过网络访问同机房硬盘,速度能差多少?例如SATA III的速度大概 ...
/ \% n- p7 P7 v2 U1 p, \
以亚马逊云类比:
3 K& j; `+ {& f- C" z" c网盘是云平台的共享资源,是有用度限制,要计量收费的。https://www.amazonaws.cn/ebs/pricing// V& C$ \" C9 z, T3 ]* Y+ T
做缓存并不合适。实例存储可以是较好的选择:https://docs.amazonaws.cn/AWSEC2 ... nstanceStorage.html
' }# ^/ K. T* l- v9 ^
' y1 b. w2 I  l: K
作者: 可梦之    时间: 2023-5-22 07:32
KXG 发表于 2023-5-22 05:19' \+ b. R: Z1 i$ [- t! m
以亚马逊云类比:
) ?4 I5 a7 A3 X$ M1 @3 d网盘是云平台的共享资源,是有用度限制,要计量收费的。https://www.amazonaws.cn/ebs/ ...
( Q9 D' ?# n( C' h) q6 [3 k: s0 `) n
两个用的都是实例存储,没用网盘。
作者: KXG    时间: 2023-5-22 09:28
亚马逊的实例存储大概对应阿里云的本地盘,https://help.aliyun.com/document ... .0.0.1eeb53a6a8AAcJ
- a* u6 E8 Q/ d# i, }; W) Z用作缓存应该没问题。
) z* n# a8 L; v& m我只有亚马逊和Azure经验,对阿里云只是瞎猜。
作者: 季侯    时间: 2023-5-24 15:50
可梦之 发表于 2023-5-20 12:49
! ]# ^" _8 u3 J* j$ `向专家请教一下:
* \5 M2 B' A5 U1 p7 Y1. 访问本地硬盘速度和通过网络访问同机房硬盘,速度能差多少?例如SATA III的速度大概 ...
6 w  y( w* m) N" ~- Z% q* g7 L# q# r
从你的问题来看,你不是从事相关技术领域研发或者维护过大规模服务器集群的,所以就不说太多细节了。
$ U1 I, a0 C+ c/ K
; O0 |8 G; U) H) W/ b# q% G我只提一点云存储是数据写三份并且三个物理机房,所以如果开启swap并使用,那么swap数据会写到异地的多个机房,如果存储本身出现一些峰值或者发布导致延时变大,这对一些延时敏感的应用来说,系统性能/延时会突然变得很差,又突然变好,这种不确定性对于系统稳定性是非常致命的。
作者: 可梦之    时间: 2023-5-24 17:02
本帖最后由 可梦之 于 2023-5-24 17:09 编辑 ! K, t$ W& m/ z) q# a
季侯 发表于 2023-5-24 15:50$ I! }0 ?0 p( ]/ |9 W! f3 H6 H
从你的问题来看,你不是从事相关技术领域研发或者维护过大规模服务器集群的,所以就不说太多细节了。
- O! u. G9 H; h3 Z. j1 _7 |
9 V9 {) f1 {1 N' _* X我 ...
) z1 ]1 m% a( L% T# x1 z

! k" g* d5 E0 u  N4 y8 z我只是使用云服务的小客户。
9 _  a2 D- k8 m0 F1 v2 }% a* d' _4 B% A
$ P; V: g% }! q那别的云服务商是怎么解决这个问题的。AWS并没有禁止掉swap。
* m! e( B% o# k( s" s+ B
4 {# A. I* P% j* L9 ~) r数据需要异地灾备我是知道的。但是这个肯定是异步的。本地机房的写好了就可以继续做事情了,不用卡着等异地同步好了。所以你说的问题我还是不太理解。可能对延时非常敏感的应用来说是的,但是这些客户本身就知道应该怎么去优化。对于大部分对这个时延不太敏感的用户,这么做完全没必要。
, r2 }% `) P5 b
! L( ~' t% G. ?5 ]& V- Q5 e7 i比如我32G的内存足够我的应用,但是为了以防万一,我放10G的缓存。如果不出意外,swap基本不会被使用。一旦出了什么情况,10G缓存是让时延变大,但是总好过应用被kill掉吧。而且绝大部分应用,即便不用swap,也要用磁盘吧。你的网络IO要是太不稳定,时延问题还是会遇到吧?
作者: 可梦之    时间: 2023-5-24 17:20
季侯 发表于 2023-5-24 15:503 S6 J( ?( ], y% {3 e# W; }, h$ B- k
从你的问题来看,你不是从事相关技术领域研发或者维护过大规模服务器集群的,所以就不说太多细节了。
9 v2 H6 u1 U/ W
; s# a. P  Z, o. K" K6 M我 ...

1 s, ~7 L  j; K/ K7 Z- ]7 D* j是这篇文章说的道理吗?https://developer.aliyun.com/article/194733
$ }0 u- _8 ~3 T0 ]5 G3 U; ?/ t3 O  N% v9 k: {: A6 x; e8 N
服务器一般都会配置监控程序,当内存用量达到一个阈值的时候告警或者会自动重启异常的进程。但如果没有监控呢?当内存被用光的时候,分两种情况:" D- [7 x/ H  X7 k* a
1 ~2 p0 `$ j/ M& ]/ {! ~
配置了swap:这时服务器还能提供服务,但性能会降低好几个档次,直到最终处于几乎死机状态,并且这一过程将持续很长一段时间,对服务器来说是个灾难;所以配置swap只能让服务再苟延残喘一会儿,然后就是长时间的服务中断(比如原来是每秒处理1000个请求的服务器,由于频繁使用swap,导致现在每秒只能处理50个请求,站在系统角度,进程还在运行,但是在业务角度服务已经几乎中断了)。( u" S8 ]( t/ u1 `6 J5 B# _
没配置swap:这时内核的OOM killer被触发,在默认配置下,耗内存的进程会被优先kill掉,这种进程一般就是我们的业务进程,这时守护进程就会自动重启该业务进程(没有守护进程?开什么玩笑),这种情况只会造成服务中断一会会儿(取决于进程重启的时间),不会出现上面因配置了swap而导致性能很差且服务持续中断的情况。就算OOM killer没有kill掉预期的进程,我们通过测试也能发现,然后将OOM killer配置成重启系统,那也比配置了swap在那里苟延残喘的好。( M& _/ C$ M; J* t4 s
从上面可以看出,对服务器来说,似乎不配置swap更好,可以让有问题的进程尽快重启,缩短业务受影响的时间。
作者: 季侯    时间: 2023-5-26 11:51
可梦之 发表于 2023-5-24 17:20" u, u+ Y- D& g' G. L5 m
是这篇文章说的道理吗?https://developer.aliyun.com/article/194733
2 i4 r  C# ~. @. b3 x5 m; j6 {, j0 g# x- ~* M* a/ j' Y
服务器一般都会配置监控程序,当 ...
. K& e! X$ T% q) i; _
这是原因之一吧




欢迎光临 爱吱声 (http://129.226.69.186/bbs/) Powered by Discuz! X3.2