设为首页收藏本站

爱吱声

 找回密码
 注册
搜索
查看: 4625|回复: 2
打印 上一主题 下一主题

[信息技术] Sharding中Chunks的切分和迁移

[复制链接]

该用户从未签到

跳转到指定楼层
楼主
发表于 2012-9-18 12:37:48 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式
    在上一篇文章“MongoDB架构概览”中,我们简单介绍了一下MongoDB中的shard,接下来,我们详细的讲解一下MongoDB的sharding model。' }9 Y* j/ G( q0 B! G
. F) ^4 ?3 @5 q# R- k9 O
    当MongoDB的一个 collection 数据量太大时,我们按照shard key,把该collection分成多个chunks,多个chunks聚集在一起,组成了一个shard。
' M2 k' }' C* G  p; I: J: H# A+ R$ B- q; v. y9 ]3 |5 I  [
    每一个 document 的shard key 的值,决定了这条document应该存放在哪个chunk中。如果两条 documents 的 shard keys 的值很接近,这两条 documents 很可能被存放在同一个 chunk 中。如图2-1所示。* u- x1 S7 a2 k  h
6 r& }3 g7 P- d/ P

1 m7 j% O  r, x  g) o; S$ v+ u7 B/ m3 Q3 h# `4 g5 A4 n3 N; Q
图2-1 shard key、chunk和shard的关系

5 a! i; o( y# i5 o7 j5 m' o% O5 J8 _    通过图2-1我们可以看到,数据在整个key space上的分布是不均匀的,这就导致了chunk中存储的数据量会不均匀。如果一个chunk中存储的数据太多了怎么办?多个chunks构成了一个shard,因此shard中的数据量也会不均匀,如果一个shard中存储的数据太多了怎么办?' }5 i$ [& s# b1 G& g! ]

4 N2 H! U7 ]' h: }- B6 O* C. S    上一篇文章中,我们提到了解决办法。一个 chunk最多能够存储64MB的数据。当某个chunk存储的 documents包含的数据量,接近这个阈值时,一个chunk会被切分成两个新的chunks。当一个shard存储了过多的chunks,这个shard中的某些chunks会被迁移到其它 shard中。
" O1 `* x3 k' G" C$ E2 K+ e3 T& z  j
    当用户产生存储数据的需求时,把插入数据的请求发送给mongos,mongos先查询 config server,找到存放相应数据的shard servers。然后把用户请求,转发到这些 shard servers,同时,mongos会根据历史上插入的每条数据的平均大小,判断这条数据插入到这个shard server的某个chunk后,是否会导致这个chunk的大小近似达到或者超过64M。, t7 [5 p+ b4 L3 P0 O/ Z
4 r" z9 Z# O' ^7 [6 H, }
    如果mongos经过判断,发现chunk在插入这条数据之后,会近似达到或者超过64M,那么就说明这个chunk需要进行切分。Mongos就要和这个chunk所在的shard server联系,并发送一个切分chunk的请求。
/ B6 ?: p2 |  x5 r) d0 ~2 a  r8 Z
- M* @; q/ k/ |" n    Shard server接收到mongos发送的请求之后,首先查询这个chunk的shard key range,然后根据这个key range,计算一个midpoint,然后把chunk从midpoint处分为两部分。同时,把这个变化通知到config server。7 F3 ]9 ~4 s3 ]7 n5 S6 g: c

& \. k9 B5 b& Z7 z    请注意,这里只是切分chunk,切分后的chunk仍然在这个shard中。随着系统的运行,chunk中的数据量在增长,虽然通过切分操作,保持每个chunk中的数据不超过64M,但是, shard 中包含的 chunk 数量在增长。如果 shard server中的数据太多了怎么办?MongoDB通过chunk的迁移,来均衡shard servers之间的数据量。  t' P* ?1 p" Y& ?
. ^4 z2 P% k; `! U% d8 K( z* L( [
    在mongos上运行着一个“balancer”进程,这个进程的任务是确保每个shard servers上的数据规模大致相同。当数据规模不均衡的状态被检测到之后,这个balancer会联系那个数据较多的shard,发出一个chunk迁移的命令。
' ^# B- g  {* R2 ~9 w; E
! Z; m8 w$ l$ D    如何界定什么是数据规模不均衡呢?如果存储chunks最多的shard server,比存储chunks最少的shard server,chunks的个数之差超过预定的一个阈值n,balancer就向这个 shard server,发起chunk迁移指令。! @- H2 G/ D6 t  Z5 K  S) v

+ Y7 R. w* R3 c$ `5 s$ _9 Z    在MongoDB中,n的值,与一个collection可以分成多少个chunks有关系,chunks的个数越多,n就越大,但是至少n要大于2。当shard servers中chunks个数的差值小于等于2的时候,迁移就可以结束了。
' N+ \( K+ b5 @; Y% o
# O( s6 V" v* a" }$ a2 u- {2 j    Chunk的迁移是在线进行的,也就是说所有的shard server都处于工作状态。Mongos从数据多的shard server中,选择一个chunk,迁移到一个数据少的shard server中。 为了方便理解,下文中,我们把数据多的shard server叫做orig server,数据少的shard server叫做dest server。$ v' s$ O9 V( D: @, ]/ d& t

' l% L  l1 N* m1 ]# C2 F7 D6 f- u    迁移的过程中,首先 orig server向 dest server联系,成功建立数据通道之后,chunk数据会被从orig server拷贝到dest server。这个过程会持续一段时间,时间长短,取决于数据的大小,如图2-2中的过程A。% V& y1 H" K+ a6 Y3 {

( s2 _" G/ L  d0 f& Y' V9 j- `( C0 K    在这期间,orig server可能会不断接收到mongos转发来的用户请求,包括insert、update等等,导致这个chunk包含的数据发生变化。这些新增的数据变更会被记录下来,不妨称之为 delta update。当过程 A 结束后,orig server 将向 dest server传输delta update,如图2-2中的过程B。* {' D2 h0 F: [4 J
0 N0 T6 P# D1 }
    在执行过程 B 期间,orig server很可能继续接收到mongos转发来的用户请求,导致这个chunk包含的数据进一步发生变化。当 orig server向 dest server,传输完第一轮 delta update以后,紧接着开始传第二轮 delta update,然后传第三轮 delta update。如此反复更新 delta,理论上可能会永久地持续下去。
: \: ?& a& x' T9 ]$ T) C" u
$ F% \6 \7 A: u& A* ^3 r9 C1 S/ m    为杜绝这个可能,我们可以设置一个最大的传输轮次,当进行到最后一轮传输时,orig server会停止接受来自mongos的所有更新请求,并把这些请求记录下来。8 k+ c& c# y8 F  s
7 s) f6 P% s5 ]6 u- G/ u

+ f2 C' X9 p8 ?* I
图2-2 chunk的迁移过程
当最后一轮传输结束之后,会经过如下的几个步骤来结束chunk迁移的操作。
1.  Dest server会通知config server,该chunk已经从orig server迁移到了dest server中。Config server更新这个chunk的映射信息,如图2-2中的过程1。
2.  Dest server通知orig server,数据传输已经结束,让orig server向 Mongos,提交一个StaleConfigException,如图2-2中的过程2.1和2.2。
3.  Mongos会从config server查询到 dest server 的地址,如图2-2中的过程3.1。
接着,从orig server获取到最后一轮传输时,orig server尚未执行的,来自用户的数据更新请求,如图2-2中的过程3.2。
最后,Mongos 从orig server 获得这些尚未处理的请求后,把它们转发给dest server处理,如图2-2中的过程3.3。
4.  以上的过程结束之后,在未来的某个时间,orig server会把这份数据物理删除。
在迁移的过程中,存在着一种特殊情况。假如这个被迁移的chunk,正面临着高频率的更新请求,那么在传输delta update的时候,会发现delta update越来越大,以至于delta update的增长速度,大于从orig server到dest server的传输速度。
在这种情况下,整个迁移过程要中断,之前所传输的所有数据都被放弃,也就是图2-2中的过程A和B,以及过程 1-3,通通被放弃,相当于这个迁移操作没有发生过。Mongos会从 orig server 中,选择另外的一个chunk,重新开始迁移操作。选择的标准,是这个chunk 的数据更新的频率不高。
$ H7 U# b6 A! n, E
Reference
[0] MongoDb Architecture

评分

参与人数 1爱元 +10 学识 +5 收起 理由
不爱吱声 + 10 + 5 谢谢!有你,爱坛更精彩

查看全部评分

该用户从未签到

沙发
发表于 2012-9-27 17:18:01 | 只看该作者
底层运作机制最迷人。

该用户从未签到

板凳
 楼主| 发表于 2012-9-27 17:53:29 | 只看该作者
puber 发表于 2012-9-27 17:18
/ ]6 m5 N( o9 v0 d) ^" B# a' ~+ \8 {底层运作机制最迷人。
4 j3 ?) c1 d6 |9 e- q8 c
也最不好寫呀

点评

对技术宅来说,只要能搞懂,一切都是值的,因为那代表终极快感。:)  发表于 2012-9-27 18:02

手机版|小黑屋|Archiver|网站错误报告|爱吱声   

GMT+8, 2026-1-9 04:59 , Processed in 0.031032 second(s), 21 queries , Gzip On.

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表