|
关于MongoDB,我们能看到的资料,基本都是在指导大家如何使用MongoDB,但是,MongoDB内部是如何运作的,资料不是很多。, S$ n, F7 p, a3 }+ | [+ u
7 e- i; [1 z! ~% F) b% Y6 F 阅读使用手册,会有很多疑惑之处。例如,有人说,MongoDB 等同于分布式的 MySQL。它把一个Table ,按 row,分割成多个Shards,分别存放在不同的 Servers 上。这种说法是否正确?) i& T' K, O2 t
+ [; a; H$ |5 b5 |. Q 不深入了解 MongoDB 的内部结构,就无法透彻地回答类似问题。这个系列文章,就来和大家探讨MongoDB的内部的工作方式。
$ w9 n# N( N- R& @8 W! X
+ `! S( I6 q# C# }
' h) @; ?4 B- F: M' o: R3 K9 u, [2 w
图1-1 MongoDB架构图 3 n4 ?. e6 x( R o! A$ n3 i
! v2 j; m* L, g( m# s MongoDB 通常运行在一个服务器集群上,而不是一个单机。图1-1,描述了一个MongoDB集群的基本组成部分,包括若干shards,至少一个config server,至少一个routing servers(又称 mongos)。
- m+ u8 I7 [# K$ g% A+ L9 l0 S$ S/ G* }3 N$ d+ [ `, e
Shards
8 T0 D* V; i, {) O
6 q$ b, N2 H( {1 p MongoDB的最基本的数据单元,叫document,类似于关系式数据库中的行 row。一系列documents,组成了一个collection,相当于关系式数据库中的table。当一个 collection 数据量太大时,可以把该collection按documents切分,分成多个数据块,每个数据块叫做一个chunk,多个chunks聚集在一起,组成了一个shard。! r, U% B, V8 E& ]) q% ^
# D0 I) r+ O4 ?& E% {7 f K
Sharding 的意义,不仅保障了数据库的扩容(scalability),同时也保障了系统的负载均衡(load balance)。
# F& l& M ?& J! U- N2 \. F
, E2 l9 V& q) [& L 每一个shard存储在一个物理服务器(server)上。Server上运行着mongod进程,通过这个进程,对shard中的数据进行操作,主要是增删改查。' W& Y2 @9 ^* Q6 T% Z0 f) `8 n; l& H
7 I* }; M2 t( K* @
如果系统中的每个shard,只存储了一份数据,没有备份,那么当这个shard所在的server挂了,数据就丢失了。在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。
" k' K! D+ _/ T" l- u
9 x7 N1 F T, d! l# F$ S' xShard keys
- M6 D' q( D+ a+ u# h; k+ I
' S) a; X% P1 x$ ^2 y9 Q 为了把collection切分成不同的chunks,从而存放到不同的shards中,我们需要制定一个切分的方式。
& c1 @/ {: B' a9 @1 i7 ^5 j6 [1 c( w: _3 `' S: V
如前所述,在 MongoDB 数据库中,一个表collection由多个行 documents 组成,而每个 document,有多个属性 fields。同一个 collection 中的不同的 documents,可能会有不同的 fields。例如,有个 collection 叫 Media,包含两条 documents,) l; i! ?* `4 E
- V. h% G+ \8 n' i) Y0 B4 v( S{% k( L& O9 x6 h; H' K+ X- P2 `" M$ B
"ISBN": "987-30-3652-5130-82",
# w7 j/ f- s0 Q" m" s& L0 ?, A "Type": "CD",) m5 \6 R% _: D3 |7 |
"Author": "Nirvana",
x% b w g- k) r, w) i0 y- v9 n |4 f "Title": "Nevermind",( S2 B# ?" y" X7 E
"Genre": "Grunge",
) q6 Z4 U1 L4 L1 S% W "Releasedate": "1991.09.24",
. K1 \4 j; K9 n! y" E$ i "Tracklist": [
0 S" O. ~& Z& J2 ^ {
+ p; M# b, r& W- j/ r" M3 z "Track" : "1",
: t1 ~4 a$ W8 w/ Z+ [* `8 M "Title" : "Smells like teen spirit",! ~5 l2 {! c$ w( b2 [$ v3 C
"Length" : "5:02"
) o: e! M( n8 }$ d" o },
* K. W& c, ?- I, R* Z/ l {+ _9 ^. J7 s5 w
"Track" : "2",
7 P2 r5 P$ c4 z' d) |: z "Title" : "In Bloom",/ D7 L4 _2 X' ^8 l1 T1 j
"Length" : "4:15"
. q9 J4 R) N2 J% F; |: P s& x }
9 H. [; z' p. ~% A1 U7 f0 e! ]7 E ]; z, n2 ~7 Z) z6 c; a! x3 x
}
6 ^; z3 d6 u7 ~5 s' U" D) T# e- y8 u3 G! x
{
# i4 e$ p5 N1 E "ISBN": "987-1-4302-3051-9",& S3 z+ X `9 k# q- i; ~8 |
"Type": "Book",
0 r% Q5 j, r9 F9 R ~: a z7 a+ x "Title": "Definite Guide to MongoDB: The NoSQL Database",
( s/ Y; w5 i) S "Publisher": "Apress",
) c1 h' {1 q; u4 [& F) | "Author": " Eelco Plugge",9 E. ?' \' c2 y; H4 W7 k$ {
"Releasedate": "2011.06.09" D* ^. A* T* G0 V% S5 b+ s
}. K, w3 F5 ~3 l
& _3 Y7 F& B6 c( @& r 假如,在同一个 collection 中的所有 document,都包含某个共同的 field,例如前例中的“ISBN”,那么我们就可以按照这个 field 的值,来分割 collection。这个 field 的值,又称为 shard key。; _. |+ }7 `8 @8 U4 |& ^" I$ @6 d
2 T$ d9 x) A/ ~; x0 j
在选择shard key的时候,一定要确保这个key能够把collection均匀地切分成很多chunks。7 t+ e7 `9 l$ R, _& X* {
9 T0 G* O7 l" \3 s6 g( r 例如,如果我们选择“author”作为shard key,如果有大量的作者是重名的,那么就会有大量的数据聚集在同一个chunk中。当然,假设很少有作者同名同姓,那么“author”也可以作为一个shard key。换句话说,shard key 的选择,与使用场景密切相关。
5 x2 V4 A$ I9 j% g. C
! b- p& S+ @2 V6 X# v 很多情况下,无论选择哪一个单一的 field 作为shard key,都无法均匀分割 collection。在这种情况下,我们可以考虑,用多个 fields,构成一个复合的shard key。3 R4 E) ^ }$ U% b# a/ |) [
0 ?! u) B/ ~( c7 x
延续前例,假如有很多作者同名同姓,他们都叫“王二”。用 author 作为 shard key,显然无法均匀切割 collection。这时我们可以加上release-date,组成name-date的复合 shard key,例如“王二 2011”。
9 H" q& b" _( U0 p3 x$ M& c1 |5 \
Chunks
2 @7 x4 I% n8 X7 g! Z 1 R C0 V& ]" A: ?8 X2 d* ]
MongoDB按 shard key,把 collection切割成若干 chunks。每个 chunk 的数据结构,是一个三元组,{collection,minKey,maxKey},如图1-2 所示。, t' H3 r3 f. D s8 C* N, G) s
$ C, T9 A+ X* d2 g$ G4 m' A
/ D6 V& p( n J9 P/ {1 L$ C图1-2 chunk的三元组
/ f' j5 m8 r5 Q2 q& b. I0 g$ i' m0 E
其中,collection 是数据库中某一个表的名称,而 minKey 和 maxKey 是 shard key的范围。每一个 document 的shard key 的值,决定了这条document应该存放在哪个chunk中。 C6 Z& E# s! d2 p' B/ ?
) J( K, k9 {# u' S; J+ t 如果两条 documents 的 shard keys 的值很接近,这两条 documents 很可能被存放在同一个 chunk 中。
8 D. i U2 Q5 e
4 R( }# a8 D1 Z7 G8 @' z, | Shard key 的值的顺序,决定了 document 存放的 chunk。在 MongoDB 的文献中,这种切割 collection 的方式,称为order-preserving。
: W7 w- |1 v* H0 a8 z2 O2 I" U- k* N* J7 r/ M! M5 H. a E/ l
一个 chunk最多能够存储64MB的数据。 当某个chunk存储的 documents包含的数据量,接近这个阈值时,一个chunk会被切分成两个新的chunks。
" y' ?/ F/ y2 x, q% B# {) @' z1 s; H; O& m
当一个shard存储了过多的chunks,这个shard中的某些chunks会被迁移到其它 shard中。) @7 A- A# I; d }; S4 P' @3 i$ f
; O% c4 P& D( ?) K$ C* [
这里有个问题,假如某一条 document 包含的数据量很大,超过 64MB,一个 chunk 存放不下,怎么办?在后续章节介绍 GridFS 时,我们会详细讨论。- W: T" E1 R" M1 b
, W' G$ y# y/ }4 G/ i: ~% xReplica set
' B6 A6 g4 [: _0 v 8 P7 U9 d4 k9 A d* W, \) f0 \
在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。! j% e1 }, r; _! D; x
6 g$ k5 L( s1 V' O; v+ E 这个replica set包括一个primary DB和多个secondary DBs。为了数据的一致性,所有的修改(insert / update / deletes) 请求都交给primary处理。处理结束之后,再异步地备份到其他secondary中。
- a; R1 s8 I% G& C
' v; m+ z0 F6 ? Primary DB由replica set中的所有servers,共同选举产生。当这个primaryDB server出错的时候,可以从replica set中重新选举一个新的primaryDB,从而避免了单点故障。 P+ C- T B; W) \" z, {) q
4 l" i' `+ y+ j/ H$ P- T- Z- [
Replica set的选举策略和数据同步机制,确保了系统的数据的一致性。后文详述。2 K9 e& H$ _7 a1 ~0 }4 b M
, v' o/ m v: ]$ e$ ~Config Server
% M3 F. B2 Y4 t4 E2 b
6 _! O8 G1 R6 |" w; y, } Config servers用于存储MongoDB集群的元数据 metadata,这些元数据包括如下两个部分,每一个shard server包括哪些chunks,每个chunk存储了哪些 collections 的哪些 documents。
0 K# U+ A- H$ O" P+ r
* M( s. L% Q0 V% i 每一个config server都包括了MongoDB中所有chunk的信息。& J8 `+ x B% M* g1 V- ]
+ m+ t- x0 i0 ?6 G Config server也需要 replication。但是有趣的是,config server 采用了自己独特的replication模式,而没有沿用 replica set。( y1 j: E3 S' H0 s4 V
. [( l7 c" m5 Q* L 如果任何一台config server挂了,整个 config server 集群中,其它 config server变成只读状态。这样做的原因,是避免在系统不稳定的情况下,冒然对元数据做任何改动,导致在不同的 config servers 中,出现元数据不一致的情况。- T C% `4 Q" p* A! g0 d/ F
" Q8 ^( @1 p1 @6 ^! D' \ MongoDB的官方文档建议,配置3个config servers比较合适,既提供了足够的安全性,又避免了更多的config servers实例之间的数据同步,引起的元数据不一致的麻烦。6 _; t( E3 p3 U
/ R/ G) g' e5 c! l1 c6 Y0 g- O( C0 T
Mongos
0 A7 R! g. k2 T
6 D0 w$ f/ p/ U 用户使用MongoDB 时,用户的操作请求,全部由mongos来转发。1 ~, r; y7 F' x( [
4 h* s$ ]9 ~$ r$ x 当 mongos 接收到用户请求时,它先查询 config server,找到存放相应数据的shard servers。然后把用户请求,转发到这些 shard servers。当这些 shard servers完成操作后,它们把结果分别返回给 mongos。而当 mongos 汇总了所有的结果后,它把结果返回给用户。
3 Z: e, I/ `/ Y- D9 M$ g
: B. y4 G0 {# K$ v/ i Mongos每次启动的时候,都要到config servers中读取元数据,并缓存在本地。每当 config server中的元数据有改动,它都会通知所有的mongos。2 m; G H" j' e! G% N
# T2 V5 y! q% Q8 A/ C
Mongos之间,不存在彼此协同工作的问题。因此,MongoDB所需要配置的mongos server的数量,没有限制。- h( _1 A( F+ V/ _
* T3 _6 \ i) k/ J4 k
通过以上的介绍,我们对每个组成部分都有了基本的了解,但是涉及到工作的细节,我们尚有诸多疑问,例如,一个chunk的数据太大,如何切分?一个shard数据太多,如何迁移?在replica set中,如何选择primary?server挂了,怎么进行故障恢复?接下来的章节,我们逐个回答这些问题。6 V3 O- Z; c r) O) ]
3 O1 i, K3 d2 x! S$ z' b& t0 a8 f. s- J& [0 r& D
Reference,
( o5 o5 F% N3 M+ b# ^
6 G- V7 F8 D- X) c9 a3 k8 x8 X+ g[0] Architectural Overview
' T: n4 R e8 ghttp://www.mongodb.org/display/DOCS/Sharding+Introduction
9 D8 Z; y' A3 ^. X' G: V |
评分
-
查看全部评分
|