|
关于MongoDB,我们能看到的资料,基本都是在指导大家如何使用MongoDB,但是,MongoDB内部是如何运作的,资料不是很多。& B3 j* @8 }8 L' v; C/ S7 Q) `* a1 D
* u) S$ o0 S" g
阅读使用手册,会有很多疑惑之处。例如,有人说,MongoDB 等同于分布式的 MySQL。它把一个Table ,按 row,分割成多个Shards,分别存放在不同的 Servers 上。这种说法是否正确?
1 D2 }5 j% L% g$ S, N" l- Q! L( @& |$ I, p
不深入了解 MongoDB 的内部结构,就无法透彻地回答类似问题。这个系列文章,就来和大家探讨MongoDB的内部的工作方式。
' u a: k# G& \! x
( _# r/ s7 G3 e( c: ^# m9 J0 b+ W
8 `" h5 Q$ e2 m- t( M$ i$ E* }, T7 x: s6 {& Z
图1-1 MongoDB架构图 ; ~: q2 e! V4 P* O5 G4 b# P
_; I) F4 L2 C' d
MongoDB 通常运行在一个服务器集群上,而不是一个单机。图1-1,描述了一个MongoDB集群的基本组成部分,包括若干shards,至少一个config server,至少一个routing servers(又称 mongos)。! O$ { ~- W c3 d* \
# L+ V3 z. p; [5 m8 W R
Shards
( g8 u4 z0 o' m# _0 F) r# C0 v
& `( x' T/ [5 \- b MongoDB的最基本的数据单元,叫document,类似于关系式数据库中的行 row。一系列documents,组成了一个collection,相当于关系式数据库中的table。当一个 collection 数据量太大时,可以把该collection按documents切分,分成多个数据块,每个数据块叫做一个chunk,多个chunks聚集在一起,组成了一个shard。
$ S. Q( H. m2 s* a: z4 G) N" u' k2 V( {9 H* G9 e( j
Sharding 的意义,不仅保障了数据库的扩容(scalability),同时也保障了系统的负载均衡(load balance)。- G1 n# D& q3 U% i' ^& l
$ D; V) X w# |4 [0 j4 Q4 t/ R
每一个shard存储在一个物理服务器(server)上。Server上运行着mongod进程,通过这个进程,对shard中的数据进行操作,主要是增删改查。& {, V9 `/ D2 v" j8 d" @9 g, Z
* x2 L8 l5 ~. I! b& v0 _
如果系统中的每个shard,只存储了一份数据,没有备份,那么当这个shard所在的server挂了,数据就丢失了。在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。
- ^5 Y3 o/ `3 i! c/ o! }- P
7 g1 Z2 W1 r/ t0 G9 t; PShard keys8 X/ C R [* V. ]" x3 o! d
, a" C c! F+ M: K0 [5 g 为了把collection切分成不同的chunks,从而存放到不同的shards中,我们需要制定一个切分的方式。
( m/ ?9 u; A0 X) r8 X+ _
: |2 z _, D. L 如前所述,在 MongoDB 数据库中,一个表collection由多个行 documents 组成,而每个 document,有多个属性 fields。同一个 collection 中的不同的 documents,可能会有不同的 fields。例如,有个 collection 叫 Media,包含两条 documents,
* U/ m2 U$ I: q( i4 k, K
1 V4 v$ Y# y7 f# q6 c1 ~% @{
. _3 V% _# ?9 Q/ L "ISBN": "987-30-3652-5130-82",
( j; N7 Q$ q6 ^. x# |2 r8 `5 E5 S( G "Type": "CD",
y* |. G& T8 }' i( e "Author": "Nirvana",% I: u4 P7 q2 X5 L! L. Q
"Title": "Nevermind",
+ [9 ^0 y1 v- w& H "Genre": "Grunge",
3 h" z: U. `% p$ b h! x5 n "Releasedate": "1991.09.24",
. `. G. q; h# s$ H7 g "Tracklist": [
: g5 J4 B( f3 v) z! H2 {/ R {7 u2 t- \( N; q7 K* D
"Track" : "1",- A/ \0 a" t$ o9 w* [
"Title" : "Smells like teen spirit",
" ^7 o: x" h: F1 v* m/ w "Length" : "5:02"9 g* _6 L7 X& A. G4 \& P5 ?( Y
},+ H* k0 [6 `9 I! D% A" D* W( d
{$ k1 V# [$ u: R- z8 S; V4 F3 U# z- ?
"Track" : "2",
7 C$ m3 E- c7 p! q% g% q) H "Title" : "In Bloom",: ] u1 N3 g" [
"Length" : "4:15"
3 A+ e' A9 A3 @ Y# t- N& X }
9 c/ r7 c) G4 R ]8 b; B* q( j9 S" h( g
} p. ]* S" ~4 v8 k
9 u% h e3 g( O% A) J7 [+ ^
{4 L6 Y/ L7 f! Z6 ^6 d
"ISBN": "987-1-4302-3051-9",' A& V* A/ c& y9 }9 i5 V
"Type": "Book",
5 _' ?% H' p. S "Title": "Definite Guide to MongoDB: The NoSQL Database",0 h' u6 \: J3 V6 z4 h
"Publisher": "Apress",8 E6 p! T+ c) o7 L9 {) @# W. l
"Author": " Eelco Plugge",4 r" ~ h+ e" S. |5 Q8 u8 _' z" }
"Releasedate": "2011.06.09"
9 o! H( G1 k+ q' L) g}8 \+ L* d6 i! q' T1 ^
7 L9 T! G J' r 假如,在同一个 collection 中的所有 document,都包含某个共同的 field,例如前例中的“ISBN”,那么我们就可以按照这个 field 的值,来分割 collection。这个 field 的值,又称为 shard key。
5 g8 W) q [/ d2 Y2 U/ x. G
+ A# {; s, O. V% b6 @5 U 在选择shard key的时候,一定要确保这个key能够把collection均匀地切分成很多chunks。; ^: [6 o& M$ S2 t" ?3 B- @9 [
* i9 u8 u7 Q/ }
例如,如果我们选择“author”作为shard key,如果有大量的作者是重名的,那么就会有大量的数据聚集在同一个chunk中。当然,假设很少有作者同名同姓,那么“author”也可以作为一个shard key。换句话说,shard key 的选择,与使用场景密切相关。
# b5 g+ c" l0 x- [5 H" l3 G6 e& ?, O& K
很多情况下,无论选择哪一个单一的 field 作为shard key,都无法均匀分割 collection。在这种情况下,我们可以考虑,用多个 fields,构成一个复合的shard key。9 N5 {; H8 G/ }9 T7 L' N- J. R3 h" ^
' L; U$ b/ s8 W# i 延续前例,假如有很多作者同名同姓,他们都叫“王二”。用 author 作为 shard key,显然无法均匀切割 collection。这时我们可以加上release-date,组成name-date的复合 shard key,例如“王二 2011”。
8 o7 W: q( ], g$ l2 X7 m; P% d2 d
- X/ P3 `' {# r/ g8 w* SChunks
. d. R! |+ R7 X$ D
8 E4 s. U0 u6 R) z' p6 ]1 y MongoDB按 shard key,把 collection切割成若干 chunks。每个 chunk 的数据结构,是一个三元组,{collection,minKey,maxKey},如图1-2 所示。8 E2 x* q7 `1 g" |, |" V
! D0 i- @# F5 }+ A1 ^# T0 d
, m, m6 k1 p" M$ {& J! w
图1-2 chunk的三元组
+ |8 G( ?* H' d+ F: k6 R( {+ ~; |# m. d2 B: J' i* ]1 i
其中,collection 是数据库中某一个表的名称,而 minKey 和 maxKey 是 shard key的范围。每一个 document 的shard key 的值,决定了这条document应该存放在哪个chunk中。
3 U. u/ \6 l: J n$ D. K" p: q2 l' a# {( D* X3 `9 h; a! u3 L7 C1 t+ ?
如果两条 documents 的 shard keys 的值很接近,这两条 documents 很可能被存放在同一个 chunk 中。: U& |& M p; l& P; B3 U8 R
6 Q7 X& l, A* C$ _5 i Shard key 的值的顺序,决定了 document 存放的 chunk。在 MongoDB 的文献中,这种切割 collection 的方式,称为order-preserving。
8 Q0 N% {8 U+ x- @7 A' D: r5 I, X' ~
一个 chunk最多能够存储64MB的数据。 当某个chunk存储的 documents包含的数据量,接近这个阈值时,一个chunk会被切分成两个新的chunks。
: s3 Y4 J2 i: `( P6 W# i6 N8 x. c: \) I
当一个shard存储了过多的chunks,这个shard中的某些chunks会被迁移到其它 shard中。
2 a* o2 w* O0 w. c8 D" N' p
& T- ]2 v* H( {. V; }: d 这里有个问题,假如某一条 document 包含的数据量很大,超过 64MB,一个 chunk 存放不下,怎么办?在后续章节介绍 GridFS 时,我们会详细讨论。0 e7 x% [3 S0 V; W
: ], O% ^9 P. ?. O6 e2 z
Replica set. H1 v5 q" v- x1 {; O' f3 l2 N
1 b% ^; @. j9 H0 j% M" t 在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。' J. L( s; ^& V5 @
p% o7 w! d' X) R2 X" X
这个replica set包括一个primary DB和多个secondary DBs。为了数据的一致性,所有的修改(insert / update / deletes) 请求都交给primary处理。处理结束之后,再异步地备份到其他secondary中。
; L. r5 e+ \' t7 l; ^8 a% C- V# X/ K1 [, r$ l
Primary DB由replica set中的所有servers,共同选举产生。当这个primaryDB server出错的时候,可以从replica set中重新选举一个新的primaryDB,从而避免了单点故障。! ~, i# R! i' \2 e1 h) | p
' E6 K1 r& j1 A G+ b1 r3 U
Replica set的选举策略和数据同步机制,确保了系统的数据的一致性。后文详述。2 b _* a+ H# k8 {6 G; R
8 [+ g8 p3 C4 _0 T+ n0 _1 |Config Server% L* K; N# m2 k, v
' J8 B4 E2 i8 `7 Z# y Config servers用于存储MongoDB集群的元数据 metadata,这些元数据包括如下两个部分,每一个shard server包括哪些chunks,每个chunk存储了哪些 collections 的哪些 documents。1 f) s$ i6 r8 J% t3 L8 R7 a. S. w
$ a, O8 s' Z* H. r% M* A 每一个config server都包括了MongoDB中所有chunk的信息。
, D) m- J) u1 q" e5 w
* I7 x* U7 \7 N# S" }8 @ Config server也需要 replication。但是有趣的是,config server 采用了自己独特的replication模式,而没有沿用 replica set。2 C0 a& v! _+ \& \3 ^# `
' U# |2 |) [1 w3 S
如果任何一台config server挂了,整个 config server 集群中,其它 config server变成只读状态。这样做的原因,是避免在系统不稳定的情况下,冒然对元数据做任何改动,导致在不同的 config servers 中,出现元数据不一致的情况。
% z; I% e' y( {# Z" w' W. ?
1 I3 H- V. O# U% M MongoDB的官方文档建议,配置3个config servers比较合适,既提供了足够的安全性,又避免了更多的config servers实例之间的数据同步,引起的元数据不一致的麻烦。5 x: u$ N' H" L0 k& L
' K. m9 z/ b; v. B. F9 x8 u
Mongos
& |. T% c/ f6 ?4 Y& D1 s% m# [6 w1 e0 ?% d0 z- K: C
用户使用MongoDB 时,用户的操作请求,全部由mongos来转发。. u9 A) \4 c6 r! e' ]
# n) q; F/ p0 `6 `, A6 t; f: r% J
当 mongos 接收到用户请求时,它先查询 config server,找到存放相应数据的shard servers。然后把用户请求,转发到这些 shard servers。当这些 shard servers完成操作后,它们把结果分别返回给 mongos。而当 mongos 汇总了所有的结果后,它把结果返回给用户。
$ ?( r; t, [5 y6 t, M; n' {7 Y% g/ H1 K$ G% c0 q
Mongos每次启动的时候,都要到config servers中读取元数据,并缓存在本地。每当 config server中的元数据有改动,它都会通知所有的mongos。! [, F* w( D* a/ }( W. D& ^
7 }5 h& B! n, b2 F$ w) j1 Y
Mongos之间,不存在彼此协同工作的问题。因此,MongoDB所需要配置的mongos server的数量,没有限制。
, R* ]5 k9 N; X& h" l0 [' z- ^2 ?9 U! |& u# p. ]4 W# p$ e
通过以上的介绍,我们对每个组成部分都有了基本的了解,但是涉及到工作的细节,我们尚有诸多疑问,例如,一个chunk的数据太大,如何切分?一个shard数据太多,如何迁移?在replica set中,如何选择primary?server挂了,怎么进行故障恢复?接下来的章节,我们逐个回答这些问题。# H4 Q2 ]6 M4 ]3 j d
" i) n0 c$ Z+ a( y) _) S. F y0 U, ]9 H$ N" k# q. ]! k) o. W. z! p! h
Reference,
! X4 j0 M5 }& {9 h ^8 V. k- n8 z; _' A9 R0 m3 m
[0] Architectural Overview
2 C0 \- Z+ ^8 K" Yhttp://www.mongodb.org/display/DOCS/Sharding+Introduction4 {5 ]( e3 u7 Z+ q. ?9 W" E
|
评分
-
查看全部评分
|