|
|
关于MongoDB,我们能看到的资料,基本都是在指导大家如何使用MongoDB,但是,MongoDB内部是如何运作的,资料不是很多。
- b* |" H8 I% t( ]+ c9 U2 U
6 v" W/ o- ^# h: j9 q" W1 P 阅读使用手册,会有很多疑惑之处。例如,有人说,MongoDB 等同于分布式的 MySQL。它把一个Table ,按 row,分割成多个Shards,分别存放在不同的 Servers 上。这种说法是否正确?, g' L& v" T+ Q6 m% K0 K
0 e% E4 k! m3 F3 \$ G1 A. o
不深入了解 MongoDB 的内部结构,就无法透彻地回答类似问题。这个系列文章,就来和大家探讨MongoDB的内部的工作方式。
6 o' I* N9 P! S# l( d% v. z) Y7 i. a' F/ a' j) t3 e0 v
# D6 i3 U( R; S0 Z, b" Q5 @$ X O( C/ g/ j
图1-1 MongoDB架构图
* @; n# ?* o1 y# L. E# D& m7 |5 ]" a5 A9 D# ^# h% |
MongoDB 通常运行在一个服务器集群上,而不是一个单机。图1-1,描述了一个MongoDB集群的基本组成部分,包括若干shards,至少一个config server,至少一个routing servers(又称 mongos)。' [. `- K& W6 W; ^) [* x6 N
# w1 K# y4 b, [ R' d& `Shards
7 ~* j1 S& f. R* ]
U* E' V, Q, O; q MongoDB的最基本的数据单元,叫document,类似于关系式数据库中的行 row。一系列documents,组成了一个collection,相当于关系式数据库中的table。当一个 collection 数据量太大时,可以把该collection按documents切分,分成多个数据块,每个数据块叫做一个chunk,多个chunks聚集在一起,组成了一个shard。
9 O! t5 W+ k. c; I- }
: b4 R7 o# R& V Sharding 的意义,不仅保障了数据库的扩容(scalability),同时也保障了系统的负载均衡(load balance)。
3 R3 e" b; u8 |' O
. c5 E4 w! ]- Y" K+ r( } 每一个shard存储在一个物理服务器(server)上。Server上运行着mongod进程,通过这个进程,对shard中的数据进行操作,主要是增删改查。4 o+ P5 s' ]# S* V/ D2 a. p( e
2 n" P$ O- c) q2 S3 b2 ? k 如果系统中的每个shard,只存储了一份数据,没有备份,那么当这个shard所在的server挂了,数据就丢失了。在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。
7 M( F7 i9 M6 U, M$ Z: z: }- t/ l% z* I& l; B, N
Shard keys- G9 ], ^9 J0 I! o- H* m$ F
1 |, I8 s4 T6 ` U+ e9 [ 为了把collection切分成不同的chunks,从而存放到不同的shards中,我们需要制定一个切分的方式。
7 Z" G5 ^5 a9 s2 C
+ g! |2 D5 Y U- q* G' W 如前所述,在 MongoDB 数据库中,一个表collection由多个行 documents 组成,而每个 document,有多个属性 fields。同一个 collection 中的不同的 documents,可能会有不同的 fields。例如,有个 collection 叫 Media,包含两条 documents,# l; G# p6 B1 W. Z: a$ C& M
2 c# m( l$ F, Z7 z
{1 X7 Z! p/ ^4 A8 E+ n
"ISBN": "987-30-3652-5130-82",, N. @. W/ b* I+ U
"Type": "CD",
) v- P0 T) N3 c, T# U: F n "Author": "Nirvana",' D3 T$ a$ c a5 A; p N
"Title": "Nevermind",
2 I" }6 m2 }# i# g/ \* P5 T "Genre": "Grunge",
# [+ w7 d- t; S! g2 O% ?8 |: h4 V "Releasedate": "1991.09.24",
0 f8 U5 Q5 H) H* e# \ "Tracklist": [
$ j+ w4 @* {1 x* F3 ]- H3 Z {
* }4 C: O% g5 R5 Z "Track" : "1",
$ x, e3 v, f$ z8 ? "Title" : "Smells like teen spirit", Q! K+ O1 g$ f9 c9 z
"Length" : "5:02"
) B' L% ] J- b% ~4 {3 K+ C: A },
# s# i( f( H$ j7 i+ W) F$ m/ z {* I$ ?6 q2 R0 d6 ^
"Track" : "2",! Z: ^( p5 D; _# S. O" j7 @
"Title" : "In Bloom",
3 Y- m1 q) Y! Z "Length" : "4:15"
3 \/ S- W: Z% h$ } }
3 h: |3 M* v3 z ]
( r- p- {5 d0 \% G! _7 e}
0 E, Z# ^1 g9 h8 H1 Q8 D9 A2 B) w
. R0 m0 p9 n% r8 h" H{
+ K/ b* `& w O "ISBN": "987-1-4302-3051-9",
- v( l( @$ U) d) z; D: V; u& z "Type": "Book",% O' I P+ C' b# a3 n5 B4 Y7 H' ?3 ?6 @
"Title": "Definite Guide to MongoDB: The NoSQL Database",
) `1 c Y0 T7 K" ]6 \; l# Q: U "Publisher": "Apress",# [2 g2 {' g" ]( I4 O$ ~
"Author": " Eelco Plugge",
! {/ b4 e7 T4 N+ u8 k "Releasedate": "2011.06.09"
5 p$ _2 J9 D- i1 V' _* S}
% b% z6 W( X$ x+ o3 n4 I; F
/ S7 s5 P0 g' [0 O8 f 假如,在同一个 collection 中的所有 document,都包含某个共同的 field,例如前例中的“ISBN”,那么我们就可以按照这个 field 的值,来分割 collection。这个 field 的值,又称为 shard key。
7 ~# [ a4 }2 c4 O
4 }7 O' Z* M% H }- |4 B 在选择shard key的时候,一定要确保这个key能够把collection均匀地切分成很多chunks。
, ^% |2 U) j& z9 j# A+ E) t3 n' _1 z/ G
例如,如果我们选择“author”作为shard key,如果有大量的作者是重名的,那么就会有大量的数据聚集在同一个chunk中。当然,假设很少有作者同名同姓,那么“author”也可以作为一个shard key。换句话说,shard key 的选择,与使用场景密切相关。
- A% J9 ]' ?, l) W# ]
. w% J4 [, }- e" i1 R( k 很多情况下,无论选择哪一个单一的 field 作为shard key,都无法均匀分割 collection。在这种情况下,我们可以考虑,用多个 fields,构成一个复合的shard key。* G* ^5 o' b0 z- X) R
2 M- ]- f' f* R6 ^, t, J( | 延续前例,假如有很多作者同名同姓,他们都叫“王二”。用 author 作为 shard key,显然无法均匀切割 collection。这时我们可以加上release-date,组成name-date的复合 shard key,例如“王二 2011”。* `* u$ }7 ~& e! x
+ I# ]+ a* ? BChunks1 f _/ [1 l# P" r1 |9 F
' ?1 g) Y7 @9 T% B/ m9 ]5 g
MongoDB按 shard key,把 collection切割成若干 chunks。每个 chunk 的数据结构,是一个三元组,{collection,minKey,maxKey},如图1-2 所示。: y( O& ~- V% l
4 H0 \" p, |6 U6 E
" m. A# t0 k# t; N# m图1-2 chunk的三元组 % k$ s8 [8 Y- ]" }- E, U
- t3 O" E( A2 @- A* o& R
其中,collection 是数据库中某一个表的名称,而 minKey 和 maxKey 是 shard key的范围。每一个 document 的shard key 的值,决定了这条document应该存放在哪个chunk中。
( J9 D5 \4 |1 R- v; t9 a6 V% B2 C5 H
如果两条 documents 的 shard keys 的值很接近,这两条 documents 很可能被存放在同一个 chunk 中。
& [4 \4 _$ m( r8 ?4 _; ?7 T4 K) `& y% S
Shard key 的值的顺序,决定了 document 存放的 chunk。在 MongoDB 的文献中,这种切割 collection 的方式,称为order-preserving。
7 ~3 E/ q/ g4 A! S, {' |0 ~" q
一个 chunk最多能够存储64MB的数据。 当某个chunk存储的 documents包含的数据量,接近这个阈值时,一个chunk会被切分成两个新的chunks。. P( y* K$ w7 X/ Q7 \: Q
7 U) F5 L# N% j& P3 z/ c$ p5 k1 I0 H! i
当一个shard存储了过多的chunks,这个shard中的某些chunks会被迁移到其它 shard中。
8 y P8 H* ?5 e& ^3 m! x+ O+ g6 G. o- ~/ n
这里有个问题,假如某一条 document 包含的数据量很大,超过 64MB,一个 chunk 存放不下,怎么办?在后续章节介绍 GridFS 时,我们会详细讨论。
6 z X4 x5 T X, I" j4 Z& N H) s" x
8 k8 Z6 k1 X4 V: ^' i" R0 fReplica set% c3 z$ o: A- U
9 `/ g. ~6 _( L9 v$ t* ~1 q
在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。3 G/ Y5 E" S' _/ Z, C- }& i
- b2 C4 F5 P2 h. J2 V& d 这个replica set包括一个primary DB和多个secondary DBs。为了数据的一致性,所有的修改(insert / update / deletes) 请求都交给primary处理。处理结束之后,再异步地备份到其他secondary中。
4 g% e- T9 w, y4 r7 ?) w+ w* }
9 X1 z w& u9 j Primary DB由replica set中的所有servers,共同选举产生。当这个primaryDB server出错的时候,可以从replica set中重新选举一个新的primaryDB,从而避免了单点故障。
2 N9 a0 r9 u8 s- i$ F
& B8 w: d2 L6 s) z Replica set的选举策略和数据同步机制,确保了系统的数据的一致性。后文详述。- u9 a, ^" F. y% S" Y8 k7 @7 W+ ?
' t9 A& C+ q: ^3 I2 I' i3 GConfig Server
% y' f! ?* |. S( |: _4 N; B
" s5 I: I+ s+ a/ c Config servers用于存储MongoDB集群的元数据 metadata,这些元数据包括如下两个部分,每一个shard server包括哪些chunks,每个chunk存储了哪些 collections 的哪些 documents。* r2 v: k7 N2 |9 K c
/ U& T4 ?$ z9 q3 s# q3 g 每一个config server都包括了MongoDB中所有chunk的信息。' [, L* \7 x% v/ d
p$ [% T/ u6 Z7 M+ j
Config server也需要 replication。但是有趣的是,config server 采用了自己独特的replication模式,而没有沿用 replica set。; M# O! W' Y+ C/ M! V
: T5 L( Z2 P; Y {. S* s3 X 如果任何一台config server挂了,整个 config server 集群中,其它 config server变成只读状态。这样做的原因,是避免在系统不稳定的情况下,冒然对元数据做任何改动,导致在不同的 config servers 中,出现元数据不一致的情况。
' k, B% P, d: C0 `5 O1 i- L- j) S6 ]- C& l) R; Y
MongoDB的官方文档建议,配置3个config servers比较合适,既提供了足够的安全性,又避免了更多的config servers实例之间的数据同步,引起的元数据不一致的麻烦。+ K0 K9 ^% Y0 L. i9 o# w/ y
( j6 k4 P" }8 \! o1 q. j/ Z
Mongos! h1 f. c6 T- V/ r
4 C( f }0 t, @! N: o3 p
用户使用MongoDB 时,用户的操作请求,全部由mongos来转发。
& v# C+ R' f0 _, p" x$ S
& I8 z% x$ d& V9 v4 B. O! | 当 mongos 接收到用户请求时,它先查询 config server,找到存放相应数据的shard servers。然后把用户请求,转发到这些 shard servers。当这些 shard servers完成操作后,它们把结果分别返回给 mongos。而当 mongos 汇总了所有的结果后,它把结果返回给用户。. L: w/ A& K1 e2 Q" L/ l
; V6 Q" b z& T9 B+ O Mongos每次启动的时候,都要到config servers中读取元数据,并缓存在本地。每当 config server中的元数据有改动,它都会通知所有的mongos。
+ a8 u# C1 J# O4 q6 O: e! H( n5 C0 x8 j6 z6 u# `6 M/ R' M5 U
Mongos之间,不存在彼此协同工作的问题。因此,MongoDB所需要配置的mongos server的数量,没有限制。& S$ w% a3 {: H7 p1 G3 \. [
+ B5 O) u x* v) |; n 通过以上的介绍,我们对每个组成部分都有了基本的了解,但是涉及到工作的细节,我们尚有诸多疑问,例如,一个chunk的数据太大,如何切分?一个shard数据太多,如何迁移?在replica set中,如何选择primary?server挂了,怎么进行故障恢复?接下来的章节,我们逐个回答这些问题。, A# ^. X- _: s, g2 N# _, J
. h; D0 H3 ^+ A
0 ^. W$ m4 h: L/ T
Reference,0 R$ `" P8 F6 k0 ?
" m3 D1 d+ F! C% R; k; E, ~. J( P[0] Architectural Overview* ?3 L8 ~9 H9 s, w5 m: }$ R3 ~, ^8 o
http://www.mongodb.org/display/DOCS/Sharding+Introduction: C) ]3 G$ O0 m) J
|
评分
-
查看全部评分
|