|
|
关于MongoDB,我们能看到的资料,基本都是在指导大家如何使用MongoDB,但是,MongoDB内部是如何运作的,资料不是很多。
9 ~9 e/ l' S* R0 m# X7 C1 m
% T; J) f6 D# G8 m2 G9 E 阅读使用手册,会有很多疑惑之处。例如,有人说,MongoDB 等同于分布式的 MySQL。它把一个Table ,按 row,分割成多个Shards,分别存放在不同的 Servers 上。这种说法是否正确?
7 ]4 b' [# h6 k' W5 W$ d
4 ]: G) r3 i$ Z+ {2 p 不深入了解 MongoDB 的内部结构,就无法透彻地回答类似问题。这个系列文章,就来和大家探讨MongoDB的内部的工作方式。
- _/ x# U" W/ \4 U# }. ^
4 t' K8 j! D( ?
9 T$ J# M/ W1 V: j) o6 B/ M Z0 \) S% O! }: o" d0 M y+ j
图1-1 MongoDB架构图 - ^# \! Z) c4 R2 Q2 o
( a1 B; I( G; Q/ e MongoDB 通常运行在一个服务器集群上,而不是一个单机。图1-1,描述了一个MongoDB集群的基本组成部分,包括若干shards,至少一个config server,至少一个routing servers(又称 mongos)。& w$ ]4 A9 g# y2 x& {4 S( K' {
- z. s9 u1 y; Y8 Z3 Q$ XShards
1 i% o6 }9 h, c+ x: @1 X% B
$ a+ R! |' G) A) @) R MongoDB的最基本的数据单元,叫document,类似于关系式数据库中的行 row。一系列documents,组成了一个collection,相当于关系式数据库中的table。当一个 collection 数据量太大时,可以把该collection按documents切分,分成多个数据块,每个数据块叫做一个chunk,多个chunks聚集在一起,组成了一个shard。 g5 E7 V# x9 f; }0 J
6 A! \- r: _0 s) o; b5 e5 R3 D7 n
Sharding 的意义,不仅保障了数据库的扩容(scalability),同时也保障了系统的负载均衡(load balance)。# m( ^# L/ `5 p1 R, E
1 b4 X w! ?8 t* y. w% a
每一个shard存储在一个物理服务器(server)上。Server上运行着mongod进程,通过这个进程,对shard中的数据进行操作,主要是增删改查。
8 g% N$ m7 O0 S1 D) U9 B6 P0 D: K% i3 @4 \2 I z( \% G8 z
如果系统中的每个shard,只存储了一份数据,没有备份,那么当这个shard所在的server挂了,数据就丢失了。在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。* A3 e# k& z3 l1 G7 S0 P
, O6 A1 @. H/ ?! m5 O( x# tShard keys
3 m; z/ i1 k |4 l
* `1 k% w3 A# [: a 为了把collection切分成不同的chunks,从而存放到不同的shards中,我们需要制定一个切分的方式。
/ ]6 f; \) |" v/ b$ @ G ~) n# Y+ n8 u1 y, C* Y, a/ g
如前所述,在 MongoDB 数据库中,一个表collection由多个行 documents 组成,而每个 document,有多个属性 fields。同一个 collection 中的不同的 documents,可能会有不同的 fields。例如,有个 collection 叫 Media,包含两条 documents,
) d3 W4 R- x. F2 O$ g, Y# u0 `# R
7 X6 ] Q4 z1 `" t) e, i{& {+ M) ]; f" G4 K0 f) b
"ISBN": "987-30-3652-5130-82",
2 h: F' K: b$ l9 a "Type": "CD",
4 c3 X- `! N, f% P/ j& p "Author": "Nirvana",
7 t# W; l/ R U+ T" t* s "Title": "Nevermind",- M2 S; d1 b! Q0 U
"Genre": "Grunge",% _; x6 L6 H; \/ y
"Releasedate": "1991.09.24",
: S: h' n: [: F "Tracklist": [
2 P5 O) ^" [7 O& m { r. M$ N! y, f
"Track" : "1",( q3 |5 k |" E d2 r0 t& O6 [
"Title" : "Smells like teen spirit",
" ]. M! }, c& P "Length" : "5:02"
3 |) T6 R% S8 ^) v# M' K6 r },
$ P- }; F9 k* |. J. m! J {9 w, e2 U0 A& {5 W! @1 J% Q
"Track" : "2",
3 N7 w6 ]* l1 U6 e8 { "Title" : "In Bloom",& s3 ?6 [0 Q% F, R3 ^" r
"Length" : "4:15"
0 U2 x$ S9 U [ }/ \ M+ k' U& _1 z/ }, b
]
9 C7 m* S1 T& s- K8 a}
$ O |; r& p* J
1 o7 v8 G3 e2 z) X- U1 {{& H, n4 e. }& {4 ], H' S5 t, l
"ISBN": "987-1-4302-3051-9",
& Q' H0 Z9 b6 E& n2 U! e "Type": "Book",
) _. M- N; C& w! ~5 M+ d4 z "Title": "Definite Guide to MongoDB: The NoSQL Database",$ j \4 X1 p0 g1 D# e; s7 J: \
"Publisher": "Apress",
. L8 X! k @" v3 J) ~& Z6 T" E& ^ "Author": " Eelco Plugge",
; }% @/ l8 _( j/ s$ p" V "Releasedate": "2011.06.09"+ C+ V: L* L# }( C" F) m: f
}- E4 T3 L1 S& Z5 e9 a9 o* v
/ g1 R0 b0 V. S+ `7 V; G 假如,在同一个 collection 中的所有 document,都包含某个共同的 field,例如前例中的“ISBN”,那么我们就可以按照这个 field 的值,来分割 collection。这个 field 的值,又称为 shard key。
) r$ S8 O/ b" e
. ^' w4 j$ e3 i7 y- e, F+ w3 x+ w 在选择shard key的时候,一定要确保这个key能够把collection均匀地切分成很多chunks。
( x2 o. @; Y% F! X5 q7 n/ T! M5 l: P" N, {; l
例如,如果我们选择“author”作为shard key,如果有大量的作者是重名的,那么就会有大量的数据聚集在同一个chunk中。当然,假设很少有作者同名同姓,那么“author”也可以作为一个shard key。换句话说,shard key 的选择,与使用场景密切相关。# n) Q/ l8 d) Y5 F' v9 l4 u, @) ~7 }) ]
) C& p+ `0 I# t! o4 ` T 很多情况下,无论选择哪一个单一的 field 作为shard key,都无法均匀分割 collection。在这种情况下,我们可以考虑,用多个 fields,构成一个复合的shard key。! _( m# m8 w" n7 k% D9 i9 e
# Y# V. K8 j8 ^; x# G 延续前例,假如有很多作者同名同姓,他们都叫“王二”。用 author 作为 shard key,显然无法均匀切割 collection。这时我们可以加上release-date,组成name-date的复合 shard key,例如“王二 2011”。
6 u* d5 |+ [3 \0 L# D8 h3 I4 ~9 v0 q1 @* a
Chunks
+ J7 r3 G+ c; e/ T- K! d7 s, t 6 ]. Y0 l T$ J- o1 D8 } a
MongoDB按 shard key,把 collection切割成若干 chunks。每个 chunk 的数据结构,是一个三元组,{collection,minKey,maxKey},如图1-2 所示。
% t3 Y1 f3 T' D1 z4 o2 ?$ I4 D0 r- b: v( b1 a1 r7 b
, X6 a, T6 c! C% R; o! B- B0 c图1-2 chunk的三元组 8 e: g" ]' u0 N" b8 a
; s8 X$ m. Z; `: M2 a2 E 其中,collection 是数据库中某一个表的名称,而 minKey 和 maxKey 是 shard key的范围。每一个 document 的shard key 的值,决定了这条document应该存放在哪个chunk中。
- G8 @+ l1 I' j2 G) N
( m y" _ S: r6 ^; E4 b! h 如果两条 documents 的 shard keys 的值很接近,这两条 documents 很可能被存放在同一个 chunk 中。! C+ n, k7 O% V6 ^, n C- j+ H
" K9 ]) z% u, z2 r! W Shard key 的值的顺序,决定了 document 存放的 chunk。在 MongoDB 的文献中,这种切割 collection 的方式,称为order-preserving。
( Q+ X- a6 [& F9 a
4 Y ]0 `8 D0 ?( M6 J 一个 chunk最多能够存储64MB的数据。 当某个chunk存储的 documents包含的数据量,接近这个阈值时,一个chunk会被切分成两个新的chunks。
# g# j5 t& R& i( b
: q; V# _+ J4 l! m. M1 U 当一个shard存储了过多的chunks,这个shard中的某些chunks会被迁移到其它 shard中。" s7 i7 B* H: w, C) `7 r
0 B" d* d! ]+ E% G1 C 这里有个问题,假如某一条 document 包含的数据量很大,超过 64MB,一个 chunk 存放不下,怎么办?在后续章节介绍 GridFS 时,我们会详细讨论。* @+ v, r1 S& F' `, ^7 c; F/ P- A( s
8 j. {' N9 v; D9 @% M' c) j3 m! JReplica set
1 {) Z, Y; U; N$ b$ _
( `+ N0 s. M* s& N 在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。# a Q0 r' g1 q! u
* ^& q" `( a1 v, i1 g# Z$ d2 ^
这个replica set包括一个primary DB和多个secondary DBs。为了数据的一致性,所有的修改(insert / update / deletes) 请求都交给primary处理。处理结束之后,再异步地备份到其他secondary中。8 B1 p" o, C) c' ~8 {
) l: e/ N( R5 Y2 R2 u
Primary DB由replica set中的所有servers,共同选举产生。当这个primaryDB server出错的时候,可以从replica set中重新选举一个新的primaryDB,从而避免了单点故障。 |! m. v% N+ d S
5 E6 Y4 I5 L, u, ~6 m Replica set的选举策略和数据同步机制,确保了系统的数据的一致性。后文详述。: k9 E& a8 n, F" X+ _+ D5 N
$ E. A& W& W- U5 s; V( W* _
Config Server
; o- F4 S3 I6 ^0 {" [, q
, G; X- v: r3 P" U# Y9 r Config servers用于存储MongoDB集群的元数据 metadata,这些元数据包括如下两个部分,每一个shard server包括哪些chunks,每个chunk存储了哪些 collections 的哪些 documents。" V9 I! `! N/ j7 \* {
$ C! \; p) K9 m% A% `) N5 h 每一个config server都包括了MongoDB中所有chunk的信息。
+ T5 r$ V2 r' f' u4 e# y- T, m! C+ c. ]0 G' Y+ |& E
Config server也需要 replication。但是有趣的是,config server 采用了自己独特的replication模式,而没有沿用 replica set。; x5 \4 ~+ {$ q! G9 }( f, A$ c
1 r3 O% O3 \5 w9 x$ p. t7 u/ l 如果任何一台config server挂了,整个 config server 集群中,其它 config server变成只读状态。这样做的原因,是避免在系统不稳定的情况下,冒然对元数据做任何改动,导致在不同的 config servers 中,出现元数据不一致的情况。
Z5 i7 @ p# ^$ U& A9 }* `
: o$ n9 n6 X6 X3 v5 Z0 i2 E7 E8 V MongoDB的官方文档建议,配置3个config servers比较合适,既提供了足够的安全性,又避免了更多的config servers实例之间的数据同步,引起的元数据不一致的麻烦。! v; X* A* r- E
5 u6 _, c6 K: f4 p# ?3 TMongos
t2 o: \0 o& K+ n9 \! z* z
# t2 Z! P& A3 y9 X: w 用户使用MongoDB 时,用户的操作请求,全部由mongos来转发。
5 z5 O: @; H7 g6 I/ z- v; ^9 O. J$ _! i! P
当 mongos 接收到用户请求时,它先查询 config server,找到存放相应数据的shard servers。然后把用户请求,转发到这些 shard servers。当这些 shard servers完成操作后,它们把结果分别返回给 mongos。而当 mongos 汇总了所有的结果后,它把结果返回给用户。$ h# h6 [8 A) x. u2 F3 j' }
' Y3 c( f5 y+ \
Mongos每次启动的时候,都要到config servers中读取元数据,并缓存在本地。每当 config server中的元数据有改动,它都会通知所有的mongos。( V4 N0 s$ t( a, T
+ D2 n6 X. |5 c/ K6 X: N0 F Mongos之间,不存在彼此协同工作的问题。因此,MongoDB所需要配置的mongos server的数量,没有限制。# N! U% h' s6 s; z% H
9 @, P) `0 S0 p! f; x 通过以上的介绍,我们对每个组成部分都有了基本的了解,但是涉及到工作的细节,我们尚有诸多疑问,例如,一个chunk的数据太大,如何切分?一个shard数据太多,如何迁移?在replica set中,如何选择primary?server挂了,怎么进行故障恢复?接下来的章节,我们逐个回答这些问题。7 o k. [ G% D2 s6 i* u+ u
5 n, G7 ]9 t: h4 J! d! \5 W; M) f
' ]$ f* z# F. z! E$ m
Reference,, c# f3 j8 n: L( |
9 R0 L. G" `! B[0] Architectural Overview
( x& c7 r3 J# x, U+ C0 vhttp://www.mongodb.org/display/DOCS/Sharding+Introduction8 r; R+ J! t; q
|
评分
-
查看全部评分
|