|
关于MongoDB,我们能看到的资料,基本都是在指导大家如何使用MongoDB,但是,MongoDB内部是如何运作的,资料不是很多。
5 X& u2 l" t9 ?2 T) o! v B" t R5 z6 [+ {; ^# }. Y$ n: [
阅读使用手册,会有很多疑惑之处。例如,有人说,MongoDB 等同于分布式的 MySQL。它把一个Table ,按 row,分割成多个Shards,分别存放在不同的 Servers 上。这种说法是否正确?1 q" B5 @. b+ ?3 @
# U5 F+ Q7 H( y6 V- _
不深入了解 MongoDB 的内部结构,就无法透彻地回答类似问题。这个系列文章,就来和大家探讨MongoDB的内部的工作方式。
" t8 q" ?, H" W, T" J! }0 q0 ?4 \8 v7 F. l1 X D
& g) y' z U" }7 C) x k( ~4 w5 A* m j2 e' o
图1-1 MongoDB架构图 0 z7 Q( P+ a, m) F( K; o
( F$ p2 R+ @$ n% x5 U. A- ^5 U MongoDB 通常运行在一个服务器集群上,而不是一个单机。图1-1,描述了一个MongoDB集群的基本组成部分,包括若干shards,至少一个config server,至少一个routing servers(又称 mongos)。, b7 }# j7 X: K; {. z' }7 N- P
' V X8 z4 N4 ~1 TShards
, W Z |5 J& E D# B9 v& Y
' n4 b' ^* x8 M$ z$ S, v MongoDB的最基本的数据单元,叫document,类似于关系式数据库中的行 row。一系列documents,组成了一个collection,相当于关系式数据库中的table。当一个 collection 数据量太大时,可以把该collection按documents切分,分成多个数据块,每个数据块叫做一个chunk,多个chunks聚集在一起,组成了一个shard。
- J% S0 A4 C* J9 c3 G" k) U, f" \1 H* S4 v
Sharding 的意义,不仅保障了数据库的扩容(scalability),同时也保障了系统的负载均衡(load balance)。
" n0 Q$ ^, G( K& k3 q0 R" {% S" B. n; P% o' k
每一个shard存储在一个物理服务器(server)上。Server上运行着mongod进程,通过这个进程,对shard中的数据进行操作,主要是增删改查。
, M% E9 w$ X9 Z$ i' b g) S6 c) w7 b8 z; ?+ T' t" \0 M+ Q% u
如果系统中的每个shard,只存储了一份数据,没有备份,那么当这个shard所在的server挂了,数据就丢失了。在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。
) L1 _5 a" r7 x
& A! g/ i+ s5 n- l' g4 `" w8 n' o" hShard keys' T# u0 E. q/ M% P; d* R
) n6 ^% l/ s: _ 为了把collection切分成不同的chunks,从而存放到不同的shards中,我们需要制定一个切分的方式。
" c: B; w- o2 Y y! z/ _4 T# O9 o1 H$ Q& y5 ^& \ ?* I1 a
如前所述,在 MongoDB 数据库中,一个表collection由多个行 documents 组成,而每个 document,有多个属性 fields。同一个 collection 中的不同的 documents,可能会有不同的 fields。例如,有个 collection 叫 Media,包含两条 documents,1 L8 X# e- g7 i
N5 H+ ^- m4 w) c2 s0 F2 u. @) ]
{! g/ w3 E6 |7 k* E* s5 X v( L* }5 } R
"ISBN": "987-30-3652-5130-82",
r' C3 j/ [+ R9 [+ ]9 u2 q. M "Type": "CD",% ~, @0 P& x. w1 w7 c1 {
"Author": "Nirvana", F% a3 J( F9 W1 C! W! q
"Title": "Nevermind",0 }2 y: G3 O' d- Q8 ]% U) z* }, Y( Y
"Genre": "Grunge",
& } w9 _9 K1 _- D+ r5 t "Releasedate": "1991.09.24",; i& x7 \: ]* @6 |4 T3 W
"Tracklist": [, p4 W) G, r# |, y
{
+ K( Y3 v5 }6 G g/ Y: R "Track" : "1",
$ E. f/ G' ?& E" ~% z "Title" : "Smells like teen spirit",
/ q2 ~0 ^( |: o' K+ ^3 }- G "Length" : "5:02"5 y$ @2 }" }, _ R' i6 j& R+ B
}, l& ~0 u' _7 [: t( Y! O
{9 `7 p* t7 |' _
"Track" : "2",: F, k" T8 Y( \3 h* s! b% L
"Title" : "In Bloom",
1 W( W6 @8 |& V' ]* V, o "Length" : "4:15"5 t+ l2 l' r- S) a8 H
}
. v- o% M' z0 [6 V% c ]6 P, V6 Y7 l+ f) X) u ]; I
}& A5 `; h5 p6 i9 R5 F3 J
) H p# o' `2 a6 h& }+ ^; a% E{1 r& q8 d4 w) F7 h3 h3 N
"ISBN": "987-1-4302-3051-9",
9 Q% t, h% v& G" `; ~, o6 Y "Type": "Book",
0 Y. G- H7 V/ _3 I0 T$ q "Title": "Definite Guide to MongoDB: The NoSQL Database",2 s4 W, a' o& e1 t+ G! [
"Publisher": "Apress",$ Q X0 w O+ d2 F$ @% `% ]- f
"Author": " Eelco Plugge",
/ B/ N1 X6 \7 X) I- z "Releasedate": "2011.06.09"
% F5 R3 r: R2 j$ @7 m7 p}
' W! R5 K$ G s$ `
' N# E6 J2 f5 r* A. q8 M) h' | 假如,在同一个 collection 中的所有 document,都包含某个共同的 field,例如前例中的“ISBN”,那么我们就可以按照这个 field 的值,来分割 collection。这个 field 的值,又称为 shard key。2 D9 n8 Z- U( a( j" T3 x8 {" a2 H
; j0 `4 q& E& D; m3 g 在选择shard key的时候,一定要确保这个key能够把collection均匀地切分成很多chunks。
+ [7 z* u) E i1 o2 l }
% ]3 e7 ~" {. ?) h# k 例如,如果我们选择“author”作为shard key,如果有大量的作者是重名的,那么就会有大量的数据聚集在同一个chunk中。当然,假设很少有作者同名同姓,那么“author”也可以作为一个shard key。换句话说,shard key 的选择,与使用场景密切相关。
: z1 I$ q* l; G
M6 _" C Z- a1 c( u; m 很多情况下,无论选择哪一个单一的 field 作为shard key,都无法均匀分割 collection。在这种情况下,我们可以考虑,用多个 fields,构成一个复合的shard key。; S r/ [( ?4 Y5 J- S, i( o
7 Y7 ?. C9 n5 ^; L; j0 E$ { 延续前例,假如有很多作者同名同姓,他们都叫“王二”。用 author 作为 shard key,显然无法均匀切割 collection。这时我们可以加上release-date,组成name-date的复合 shard key,例如“王二 2011”。# L/ d1 |0 E W. Q5 s
2 v" U z$ ~: Y7 P6 V; w
Chunks! l8 T* S; Y. w* D
; R! b }8 H9 _% ` I: A) d( _; w
MongoDB按 shard key,把 collection切割成若干 chunks。每个 chunk 的数据结构,是一个三元组,{collection,minKey,maxKey},如图1-2 所示。7 B; m2 @3 y! c6 l0 t8 o# [7 Q
, f! ]+ P4 g! ~2 [4 D1 u9 K
9 p% u$ W: q& ^" T! Q+ g \图1-2 chunk的三元组
* H% O5 }3 g8 J0 l
3 q; l! ?9 v/ ? 其中,collection 是数据库中某一个表的名称,而 minKey 和 maxKey 是 shard key的范围。每一个 document 的shard key 的值,决定了这条document应该存放在哪个chunk中。
; O' E% `+ N4 f, Q# t0 y% ?& _ I' G6 B
如果两条 documents 的 shard keys 的值很接近,这两条 documents 很可能被存放在同一个 chunk 中。1 f1 z6 F; k @0 s9 k
7 j! w& L+ I1 x
Shard key 的值的顺序,决定了 document 存放的 chunk。在 MongoDB 的文献中,这种切割 collection 的方式,称为order-preserving。' U& E4 q) l v, B0 [, Y/ S' a0 T4 v
6 K( \. |7 l7 u0 R7 E3 y' y% i5 o 一个 chunk最多能够存储64MB的数据。 当某个chunk存储的 documents包含的数据量,接近这个阈值时,一个chunk会被切分成两个新的chunks。4 i, J: q6 {7 W, h8 h* c- W
1 n- e! L7 {( o% }% x2 v
当一个shard存储了过多的chunks,这个shard中的某些chunks会被迁移到其它 shard中。1 l. |. J5 b. z' z
5 M, n1 F% q# x5 U! a7 H) b3 Q
这里有个问题,假如某一条 document 包含的数据量很大,超过 64MB,一个 chunk 存放不下,怎么办?在后续章节介绍 GridFS 时,我们会详细讨论。3 S0 E4 ~. C) K( C
2 A) E! H3 @, X8 k$ x: ?Replica set* Y& W+ C( w2 H; \# e q5 r0 ?
, B+ R! `. ~- p" l 在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。, K3 F' x9 T* p2 g8 v
" f4 f/ u8 X0 b; K8 {
这个replica set包括一个primary DB和多个secondary DBs。为了数据的一致性,所有的修改(insert / update / deletes) 请求都交给primary处理。处理结束之后,再异步地备份到其他secondary中。
7 F& l3 X; t5 h
: [, O, A4 h$ a6 |1 W! n4 Y Primary DB由replica set中的所有servers,共同选举产生。当这个primaryDB server出错的时候,可以从replica set中重新选举一个新的primaryDB,从而避免了单点故障。
! G. T7 W( Z' [* a2 q" m6 v9 F1 m+ p9 o/ j1 M5 c% M$ |
Replica set的选举策略和数据同步机制,确保了系统的数据的一致性。后文详述。( i/ v- Y9 G) [" l
1 c5 v' M# E% H) b* @4 D1 E
Config Server
1 Z: t1 U0 i; w6 { ^' ] 7 ~6 @ T8 v3 e
Config servers用于存储MongoDB集群的元数据 metadata,这些元数据包括如下两个部分,每一个shard server包括哪些chunks,每个chunk存储了哪些 collections 的哪些 documents。
! d! d# c% d1 k, |! T0 H$ A
! z6 i! z# Z3 T7 g 每一个config server都包括了MongoDB中所有chunk的信息。9 U3 |$ }/ V' b( D( S
9 T) t3 `% F6 C3 [0 C4 W+ b Config server也需要 replication。但是有趣的是,config server 采用了自己独特的replication模式,而没有沿用 replica set。* |" d( z0 q0 a9 J0 J. }: r# n0 Y" [
) V0 B8 `1 X0 Z5 o) f# f
如果任何一台config server挂了,整个 config server 集群中,其它 config server变成只读状态。这样做的原因,是避免在系统不稳定的情况下,冒然对元数据做任何改动,导致在不同的 config servers 中,出现元数据不一致的情况。* E! }4 F( |* v' v) I
/ c2 |1 T3 j( d/ }6 V C- F MongoDB的官方文档建议,配置3个config servers比较合适,既提供了足够的安全性,又避免了更多的config servers实例之间的数据同步,引起的元数据不一致的麻烦。
7 g+ j/ w- O3 a& {# c. t
# s0 I) c* X9 \ c' C# M. pMongos
# O1 b1 B& l& u [6 s
$ r: k) M Y+ Y 用户使用MongoDB 时,用户的操作请求,全部由mongos来转发。
+ e1 T% ?$ k) g' n+ Q6 w
, c# c! Q6 D4 [$ n: ]* P$ B! K 当 mongos 接收到用户请求时,它先查询 config server,找到存放相应数据的shard servers。然后把用户请求,转发到这些 shard servers。当这些 shard servers完成操作后,它们把结果分别返回给 mongos。而当 mongos 汇总了所有的结果后,它把结果返回给用户。5 d& ?: {, j4 V s' }4 W
! X. o8 Z0 `2 t- b( w
Mongos每次启动的时候,都要到config servers中读取元数据,并缓存在本地。每当 config server中的元数据有改动,它都会通知所有的mongos。. N, ?2 E( J9 ]" T2 y8 _$ P
. Y! c. a7 w6 D5 n2 B+ ]. S' V
Mongos之间,不存在彼此协同工作的问题。因此,MongoDB所需要配置的mongos server的数量,没有限制。$ F: I% w- b3 @, z! H" f8 P
+ A/ Q+ D5 `1 A2 `( k! h
通过以上的介绍,我们对每个组成部分都有了基本的了解,但是涉及到工作的细节,我们尚有诸多疑问,例如,一个chunk的数据太大,如何切分?一个shard数据太多,如何迁移?在replica set中,如何选择primary?server挂了,怎么进行故障恢复?接下来的章节,我们逐个回答这些问题。
7 W( T8 j, l; | i. U& H
9 K1 G0 T0 \ a* [, L' z: B* q) ^0 B
. {- i# L" D4 yReference,
& R! A: s. R+ w0 ]1 i! R
3 h6 f& F0 D3 M4 P[0] Architectural Overview0 i* Y# b8 S# l! g( }
http://www.mongodb.org/display/DOCS/Sharding+Introduction
6 |% D, v! ^$ r |
评分
-
查看全部评分
|