|
关于MongoDB,我们能看到的资料,基本都是在指导大家如何使用MongoDB,但是,MongoDB内部是如何运作的,资料不是很多。
3 t: e/ u0 v) F5 k
1 \% k, l$ |, ? 阅读使用手册,会有很多疑惑之处。例如,有人说,MongoDB 等同于分布式的 MySQL。它把一个Table ,按 row,分割成多个Shards,分别存放在不同的 Servers 上。这种说法是否正确?' f+ y& C1 v: ~9 ^% k$ i7 k0 Y
# |7 x0 Q9 I- ]3 r4 w3 s" j
不深入了解 MongoDB 的内部结构,就无法透彻地回答类似问题。这个系列文章,就来和大家探讨MongoDB的内部的工作方式。
7 p; ~! L2 b% V }1 I
2 K8 M% ]5 a+ I3 \
) L' U' T# T" t$ a9 E% D5 v- J0 }; v1 n- F! u! W, F
图1-1 MongoDB架构图
8 f5 K! n# j9 |( l: n) }9 k3 w( B
` `% _3 b5 C3 d MongoDB 通常运行在一个服务器集群上,而不是一个单机。图1-1,描述了一个MongoDB集群的基本组成部分,包括若干shards,至少一个config server,至少一个routing servers(又称 mongos)。 U8 C# v6 I, T8 v
* J1 r2 s) N, Q7 x* A4 Q& Z6 x/ S
Shards( b& n. G$ `$ v; r" O
$ i$ o4 _; V* x% w MongoDB的最基本的数据单元,叫document,类似于关系式数据库中的行 row。一系列documents,组成了一个collection,相当于关系式数据库中的table。当一个 collection 数据量太大时,可以把该collection按documents切分,分成多个数据块,每个数据块叫做一个chunk,多个chunks聚集在一起,组成了一个shard。7 p: [6 G' D' Q1 h
- n6 Q5 p Y+ i' P! a, J- U Sharding 的意义,不仅保障了数据库的扩容(scalability),同时也保障了系统的负载均衡(load balance)。
; Q4 |1 x' m! S2 }9 k( \
$ U9 x5 V8 T6 ?5 x 每一个shard存储在一个物理服务器(server)上。Server上运行着mongod进程,通过这个进程,对shard中的数据进行操作,主要是增删改查。
- c5 ~/ R0 }, s! A0 f1 w$ E- y" \* y. K' }! T+ H( |
如果系统中的每个shard,只存储了一份数据,没有备份,那么当这个shard所在的server挂了,数据就丢失了。在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。
4 q0 I$ m" c. h; A( s0 i. W! {: n" \ m0 L5 `6 f+ A
Shard keys9 W" ^/ j/ Z% r9 r
: M' J( ?# l* c% a2 {
为了把collection切分成不同的chunks,从而存放到不同的shards中,我们需要制定一个切分的方式。- @6 c, b/ E# e0 \9 S& M
9 V, p2 V* W4 G% C4 }% | G
如前所述,在 MongoDB 数据库中,一个表collection由多个行 documents 组成,而每个 document,有多个属性 fields。同一个 collection 中的不同的 documents,可能会有不同的 fields。例如,有个 collection 叫 Media,包含两条 documents,$ F8 A5 C$ m# x8 `. [2 D- P
* b+ Q- ]4 H! z/ t" k% D0 u
{' @# X) C+ L* b- [
"ISBN": "987-30-3652-5130-82",! R7 H) v" {8 v8 |4 H
"Type": "CD",% t( H- A7 p* N, d7 b2 F$ X
"Author": "Nirvana",% K& a4 O- B9 N/ C6 }
"Title": "Nevermind",+ n" W- h$ g' i8 s' `5 u
"Genre": "Grunge", \4 B7 P4 R5 Q f5 t
"Releasedate": "1991.09.24",
3 z# N, P( d7 L# C% v "Tracklist": [
: | H6 q$ M! L+ Y {
9 J% h; E; Y/ b7 b "Track" : "1",
1 m9 k, R# n3 v" P9 K "Title" : "Smells like teen spirit",
% O6 G. b- s! O4 ~ "Length" : "5:02". \+ J" F' d! u. ?
},$ P3 D" E: q/ j0 q
{$ Q4 G- {4 v" m5 }
"Track" : "2",; @0 r# Z; f: O% _/ ]4 r! J
"Title" : "In Bloom",! ]3 Z5 e* ~% X5 H8 @0 N
"Length" : "4:15"; A' w! M$ q' t! I3 Q0 H* X2 i
}7 {8 ~' m2 Y$ X2 B& X, [+ Q. U
]) v0 u8 H& ~! K( c5 q0 `2 R- |
}. h Z+ I7 T8 \4 J/ D$ c
: B8 L9 [4 t4 u+ G; D; H- H, r{. c- |: h. Q' w( a
"ISBN": "987-1-4302-3051-9",
) l; j R9 u& m k u3 R, M, N3 u "Type": "Book",, q, R- P1 n7 U: R& V
"Title": "Definite Guide to MongoDB: The NoSQL Database",8 C4 L2 U' |& K, A9 f7 e6 Q8 S
"Publisher": "Apress",+ B* T! V* h1 |- v9 @5 V
"Author": " Eelco Plugge",
5 H! c z0 ~8 i "Releasedate": "2011.06.09"
8 S3 f" J% k q, \# G" v} A* Y& F$ A4 ?* H+ }5 X) Y$ D1 Z
% N) W- [! p. N4 z1 X 假如,在同一个 collection 中的所有 document,都包含某个共同的 field,例如前例中的“ISBN”,那么我们就可以按照这个 field 的值,来分割 collection。这个 field 的值,又称为 shard key。
- n& Z$ ]& ~! v+ V2 @, \8 {8 d4 N1 \8 S6 E
在选择shard key的时候,一定要确保这个key能够把collection均匀地切分成很多chunks。
. o A( \* T. D3 f$ U/ r3 e; u Z
- P, K7 e/ s- W8 w" O- |+ d; { 例如,如果我们选择“author”作为shard key,如果有大量的作者是重名的,那么就会有大量的数据聚集在同一个chunk中。当然,假设很少有作者同名同姓,那么“author”也可以作为一个shard key。换句话说,shard key 的选择,与使用场景密切相关。
3 @1 N, z; T( Q% l
/ ]' n, o7 z. c/ Y! P 很多情况下,无论选择哪一个单一的 field 作为shard key,都无法均匀分割 collection。在这种情况下,我们可以考虑,用多个 fields,构成一个复合的shard key。
# ?3 E$ S0 N6 D( w) F3 J
8 V: ~! E, r. L4 O6 `+ c5 j 延续前例,假如有很多作者同名同姓,他们都叫“王二”。用 author 作为 shard key,显然无法均匀切割 collection。这时我们可以加上release-date,组成name-date的复合 shard key,例如“王二 2011”。
/ A( E1 s+ N- G6 S1 d5 k8 A
' }" E! G) y1 P* R8 gChunks1 \8 a. M) M" k5 v9 f/ A3 V2 j; d) }
) U7 j8 `' d1 z$ Z4 g
MongoDB按 shard key,把 collection切割成若干 chunks。每个 chunk 的数据结构,是一个三元组,{collection,minKey,maxKey},如图1-2 所示。
3 n# C V P0 |; o$ H* Y v0 y
# f+ R: J2 k; w3 G4 f
8 C' P! d- ^! f; R: r) a
图1-2 chunk的三元组
* l9 G: N; z2 j5 O4 E8 N
2 f3 {+ |4 {. H" }- P* H 其中,collection 是数据库中某一个表的名称,而 minKey 和 maxKey 是 shard key的范围。每一个 document 的shard key 的值,决定了这条document应该存放在哪个chunk中。- K; K9 N' u; ?/ ]. P" P: v/ i1 x( T6 C
0 d1 g6 l3 F; j/ `. X9 ?
如果两条 documents 的 shard keys 的值很接近,这两条 documents 很可能被存放在同一个 chunk 中。( l. s9 W; V3 w
; V, Z( f7 e$ Z$ N+ M8 W Shard key 的值的顺序,决定了 document 存放的 chunk。在 MongoDB 的文献中,这种切割 collection 的方式,称为order-preserving。
, `/ u0 [2 ^ [: J3 n7 w
0 D% x7 ~0 F# k 一个 chunk最多能够存储64MB的数据。 当某个chunk存储的 documents包含的数据量,接近这个阈值时,一个chunk会被切分成两个新的chunks。
1 Z$ q& i* E2 c2 B8 ~5 F% d. ]* w, J' ^- l' m4 ^
当一个shard存储了过多的chunks,这个shard中的某些chunks会被迁移到其它 shard中。 Y* R$ I8 F/ T! I1 F5 y
9 u, Y( ^0 a" A6 Z. s 这里有个问题,假如某一条 document 包含的数据量很大,超过 64MB,一个 chunk 存放不下,怎么办?在后续章节介绍 GridFS 时,我们会详细讨论。
8 q7 C( B7 ^% m1 h2 f: g( ^ x J& J3 E2 b6 V3 t5 B: m
Replica set+ a& V( D2 j6 Q9 L; y- z
0 x/ |9 ^% ^* Y$ v* b7 Q: o% @ 在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。
) N, k4 ~ N: u* g7 u
0 {- y. }7 e8 o" {" t/ k9 c 这个replica set包括一个primary DB和多个secondary DBs。为了数据的一致性,所有的修改(insert / update / deletes) 请求都交给primary处理。处理结束之后,再异步地备份到其他secondary中。
' C& a; ]$ P" A' ~# `) S; K' r$ s9 ~+ l4 v" o+ |) ]+ V8 q/ \
Primary DB由replica set中的所有servers,共同选举产生。当这个primaryDB server出错的时候,可以从replica set中重新选举一个新的primaryDB,从而避免了单点故障。7 V) k1 m! B7 N4 v5 y+ o
0 Q3 K( A# w& }3 n; z! M
Replica set的选举策略和数据同步机制,确保了系统的数据的一致性。后文详述。2 u' |8 `: D5 J) y( O/ z% }
4 M: X z+ [8 O# W- T& f$ u
Config Server
7 q. K8 O& z* M" a1 p
+ W5 {& `% S; W% X Config servers用于存储MongoDB集群的元数据 metadata,这些元数据包括如下两个部分,每一个shard server包括哪些chunks,每个chunk存储了哪些 collections 的哪些 documents。
. ]6 x; _5 H! m) W1 H a
4 t& ~8 t3 e3 N6 J" ^$ C* X5 p 每一个config server都包括了MongoDB中所有chunk的信息。: Y) r* w" V: j8 \% @
k$ _6 [8 v8 ?1 F% l, I* \
Config server也需要 replication。但是有趣的是,config server 采用了自己独特的replication模式,而没有沿用 replica set。1 z: R0 i5 l4 O
0 k ]* n- ~5 f3 X7 A, j' m 如果任何一台config server挂了,整个 config server 集群中,其它 config server变成只读状态。这样做的原因,是避免在系统不稳定的情况下,冒然对元数据做任何改动,导致在不同的 config servers 中,出现元数据不一致的情况。0 c. f% ^$ r; [- `
! m4 Q ?) s1 N) a R4 Y! [4 o3 h5 t
MongoDB的官方文档建议,配置3个config servers比较合适,既提供了足够的安全性,又避免了更多的config servers实例之间的数据同步,引起的元数据不一致的麻烦。5 J0 j4 g8 \' }# N: ~* @2 X$ g9 _
. }( Z( E) X# o ]7 O& j1 YMongos
* o& q, k4 [+ e% g+ Y( M
8 ^( [& g( P9 V' p5 }: r% a 用户使用MongoDB 时,用户的操作请求,全部由mongos来转发。
: G' b' a0 z! x! i9 I
0 z+ e+ |, v) `8 l% t* A! W 当 mongos 接收到用户请求时,它先查询 config server,找到存放相应数据的shard servers。然后把用户请求,转发到这些 shard servers。当这些 shard servers完成操作后,它们把结果分别返回给 mongos。而当 mongos 汇总了所有的结果后,它把结果返回给用户。) x2 v$ z# E& S3 \" B
+ j/ n! X9 s* z3 Y# ?
Mongos每次启动的时候,都要到config servers中读取元数据,并缓存在本地。每当 config server中的元数据有改动,它都会通知所有的mongos。
9 S: z9 n Z P, ^9 p: C
O. h6 @. s s( j/ U Mongos之间,不存在彼此协同工作的问题。因此,MongoDB所需要配置的mongos server的数量,没有限制。7 |" s$ X# s5 c1 s7 @
, ^6 w! ]3 U: a/ G% }$ ~ 通过以上的介绍,我们对每个组成部分都有了基本的了解,但是涉及到工作的细节,我们尚有诸多疑问,例如,一个chunk的数据太大,如何切分?一个shard数据太多,如何迁移?在replica set中,如何选择primary?server挂了,怎么进行故障恢复?接下来的章节,我们逐个回答这些问题。# Y! N9 G9 t3 T( H0 t
& N. u* T: L: u7 N
/ O+ p, X/ @1 kReference,
/ y7 J0 G; Z2 H: L
) t T# e# @' @[0] Architectural Overview' H/ b p2 c& l2 ~& x
http://www.mongodb.org/display/DOCS/Sharding+Introduction
! X) p Y) t; I) _ |
评分
-
查看全部评分
|