|
关于MongoDB,我们能看到的资料,基本都是在指导大家如何使用MongoDB,但是,MongoDB内部是如何运作的,资料不是很多。
, {+ i5 P X8 ~7 d# L* y0 q/ E/ ~
阅读使用手册,会有很多疑惑之处。例如,有人说,MongoDB 等同于分布式的 MySQL。它把一个Table ,按 row,分割成多个Shards,分别存放在不同的 Servers 上。这种说法是否正确?1 H K: ]0 q: M- S
( S# K6 ^/ u3 {4 l! L
不深入了解 MongoDB 的内部结构,就无法透彻地回答类似问题。这个系列文章,就来和大家探讨MongoDB的内部的工作方式。0 i( B* ? j# Y5 U2 n
* p3 r6 E/ c# E
1 e& C; j, Y. h! V( s8 N2 @5 k; d* v& h! b/ d
图1-1 MongoDB架构图 9 @4 S) C" ~" D7 P- X3 R
+ S0 B: ~. s- o; s: ]
MongoDB 通常运行在一个服务器集群上,而不是一个单机。图1-1,描述了一个MongoDB集群的基本组成部分,包括若干shards,至少一个config server,至少一个routing servers(又称 mongos)。
/ D% `/ \7 I( ^2 b
8 v y" u$ d4 \. w( M, ]3 yShards
' R) o5 }5 d4 H, h9 }
& A/ y$ W2 g5 s- M n. j2 y MongoDB的最基本的数据单元,叫document,类似于关系式数据库中的行 row。一系列documents,组成了一个collection,相当于关系式数据库中的table。当一个 collection 数据量太大时,可以把该collection按documents切分,分成多个数据块,每个数据块叫做一个chunk,多个chunks聚集在一起,组成了一个shard。
) Z, Q; F: @- a' m0 `& v. v2 g' J! @
Sharding 的意义,不仅保障了数据库的扩容(scalability),同时也保障了系统的负载均衡(load balance)。
3 ?+ w. L8 S6 _/ E4 ~# L) Y
0 y! _3 f6 V1 B! j, v3 K2 i 每一个shard存储在一个物理服务器(server)上。Server上运行着mongod进程,通过这个进程,对shard中的数据进行操作,主要是增删改查。
% ]/ d% s$ s0 l
$ S4 o# q; q. j/ w! g! W 如果系统中的每个shard,只存储了一份数据,没有备份,那么当这个shard所在的server挂了,数据就丢失了。在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。6 s& z2 d: W" Y( D$ U% f% r
8 n/ D: }. r% y2 |4 n' M% ?
Shard keys1 r6 G5 w7 `" n% j0 t8 k0 V
5 k3 W6 b' ~! j
为了把collection切分成不同的chunks,从而存放到不同的shards中,我们需要制定一个切分的方式。
. W, x/ o9 }* Y4 T. h \9 c2 V
: S5 a4 E" i% C q9 ]1 a% e 如前所述,在 MongoDB 数据库中,一个表collection由多个行 documents 组成,而每个 document,有多个属性 fields。同一个 collection 中的不同的 documents,可能会有不同的 fields。例如,有个 collection 叫 Media,包含两条 documents, b/ V1 X1 p' s
5 S: w0 a9 c4 L Q+ X9 r' \
{
" B+ G/ Q6 b/ R. Z3 J/ \0 D "ISBN": "987-30-3652-5130-82",/ d w3 j5 m3 i4 e2 ?' I
"Type": "CD",) T4 B; P6 L" y
"Author": "Nirvana",
" [. v9 w6 P. E$ a& A5 R "Title": "Nevermind",7 x% L$ z! d* a) j
"Genre": "Grunge",2 i, X9 j( [, T% Y. O9 |1 ^
"Releasedate": "1991.09.24",3 f% B9 m$ [# ] X e
"Tracklist": [) _ d& U& v6 z) B
{
. o2 P, [3 R" G4 A) q "Track" : "1",- v, z) C+ ?5 l& o; S2 Y9 K& i
"Title" : "Smells like teen spirit",
2 ?' u& I+ Z) Q# \ "Length" : "5:02"
0 B* o0 ]# |# { },
* @( O! w4 w9 n2 S- Z1 I {
$ i7 H$ Q" j! j& X/ i: C. b5 _1 O "Track" : "2",
, J3 t* \1 ]4 W! i/ v3 m "Title" : "In Bloom",
r' y( |4 P) y0 O4 I( x; ^; F "Length" : "4:15"
% s$ k# F8 b7 m- ^3 I! @ }
! ~ t# M0 @5 {: n ]& V% m4 C( { `: r
}
+ T) I1 r5 P, w" w3 E% I6 @: ?3 B
{- L0 E4 b8 I' j7 H
"ISBN": "987-1-4302-3051-9",
. k% f3 q0 E( ^# i. v4 J "Type": "Book",+ {3 B: o' G; K2 N, d% o
"Title": "Definite Guide to MongoDB: The NoSQL Database",
" k2 j+ u9 p/ I C. } "Publisher": "Apress",
* C6 c7 u8 r- T- D "Author": " Eelco Plugge",
1 z2 Z4 m+ }4 N% Z4 F "Releasedate": "2011.06.09") w* Z& ~1 C4 G4 g! R; m2 T
}3 s5 b* l8 c( o4 m
& A3 L5 `; n, R" F: }3 T 假如,在同一个 collection 中的所有 document,都包含某个共同的 field,例如前例中的“ISBN”,那么我们就可以按照这个 field 的值,来分割 collection。这个 field 的值,又称为 shard key。2 P( @# Q( D# q. ^& D
+ z& Z! } |1 S" l/ x; k- A
在选择shard key的时候,一定要确保这个key能够把collection均匀地切分成很多chunks。
" \& j; X/ L/ N# k5 H6 H/ U3 p! A( E. F( x( P& k G# {
例如,如果我们选择“author”作为shard key,如果有大量的作者是重名的,那么就会有大量的数据聚集在同一个chunk中。当然,假设很少有作者同名同姓,那么“author”也可以作为一个shard key。换句话说,shard key 的选择,与使用场景密切相关。
5 j9 J# B: P" w* l( R/ w3 _& I0 q+ Q) \9 G
很多情况下,无论选择哪一个单一的 field 作为shard key,都无法均匀分割 collection。在这种情况下,我们可以考虑,用多个 fields,构成一个复合的shard key。
8 y, r$ r& g# b+ o9 }3 s+ u" ]8 {% M# S
延续前例,假如有很多作者同名同姓,他们都叫“王二”。用 author 作为 shard key,显然无法均匀切割 collection。这时我们可以加上release-date,组成name-date的复合 shard key,例如“王二 2011”。
5 B% E# g9 ~& Q. B* I1 O6 K# X; F7 G- u/ A, y' H
Chunks+ i9 g1 ?/ C8 o- m/ o8 H k
7 o7 `- P: U5 `; O! b! Q8 L, e MongoDB按 shard key,把 collection切割成若干 chunks。每个 chunk 的数据结构,是一个三元组,{collection,minKey,maxKey},如图1-2 所示。6 J6 O$ ?' N1 z% D& w6 P# @
3 ^ h# Y& z/ K7 t
' n) Y8 S$ _$ k8 J6 C
图1-2 chunk的三元组 & J1 f" f. V) C* v6 h9 x j: o. A
- U& {! T0 H y. R) O
其中,collection 是数据库中某一个表的名称,而 minKey 和 maxKey 是 shard key的范围。每一个 document 的shard key 的值,决定了这条document应该存放在哪个chunk中。
- Y" K% X; o) e* ^3 j, F
4 ?- K( S& w, C) g8 l. ~ 如果两条 documents 的 shard keys 的值很接近,这两条 documents 很可能被存放在同一个 chunk 中。
) X) P1 _) h/ W. p$ B; [
3 ?3 L4 M3 a; V: S; n4 x# K Shard key 的值的顺序,决定了 document 存放的 chunk。在 MongoDB 的文献中,这种切割 collection 的方式,称为order-preserving。: a* ~* Q. I* p o4 w
& R8 b9 n0 K5 w. m 一个 chunk最多能够存储64MB的数据。 当某个chunk存储的 documents包含的数据量,接近这个阈值时,一个chunk会被切分成两个新的chunks。9 t! G, V% y" z: f4 a9 n1 i
5 @+ T; l$ [8 u& }9 O: x
当一个shard存储了过多的chunks,这个shard中的某些chunks会被迁移到其它 shard中。' U# v9 p* V3 @
/ p3 m2 ]1 ]3 H( L+ B
这里有个问题,假如某一条 document 包含的数据量很大,超过 64MB,一个 chunk 存放不下,怎么办?在后续章节介绍 GridFS 时,我们会详细讨论。, T: X/ A. Z! _7 D% Z9 d0 e
: i" b. z2 M! g, H( V6 [
Replica set
2 y( ]6 L: V) Y( h/ C
9 h' R8 y% y. j9 W* | 在生产环境中,为了保证数据不丢失,为了提高系统的可用性(availability),每一个shard被存储多份,每个备份所在的servers,组成了一个replica set。9 ]9 }1 b9 I1 a+ \- E. l$ b% B/ m
) ~2 y0 t4 m1 r2 D6 [" S 这个replica set包括一个primary DB和多个secondary DBs。为了数据的一致性,所有的修改(insert / update / deletes) 请求都交给primary处理。处理结束之后,再异步地备份到其他secondary中。
' ?9 n1 n% _8 h7 k9 j& k
# m; e" N( F% ?8 [, R Primary DB由replica set中的所有servers,共同选举产生。当这个primaryDB server出错的时候,可以从replica set中重新选举一个新的primaryDB,从而避免了单点故障。
/ y! i1 L3 W u6 V& y u& p, c+ H0 f u4 b1 m
Replica set的选举策略和数据同步机制,确保了系统的数据的一致性。后文详述。
8 n) b3 N# n! u2 R! ?2 e
6 w# u' r; X. K5 CConfig Server
0 }1 I* y8 l" q0 _5 Y 9 D* s& p4 j) v$ _4 @
Config servers用于存储MongoDB集群的元数据 metadata,这些元数据包括如下两个部分,每一个shard server包括哪些chunks,每个chunk存储了哪些 collections 的哪些 documents。5 Z I& Y9 o" E1 V! \1 u
' E; R2 _4 b6 W; l1 ?
每一个config server都包括了MongoDB中所有chunk的信息。
; p" @3 i; K6 R9 ?
* ^$ ]" d$ d& O. F; V7 e: c7 G Config server也需要 replication。但是有趣的是,config server 采用了自己独特的replication模式,而没有沿用 replica set。
- Y7 J% l! @( n! O; h
) |% }5 U3 T: S% m" U: J 如果任何一台config server挂了,整个 config server 集群中,其它 config server变成只读状态。这样做的原因,是避免在系统不稳定的情况下,冒然对元数据做任何改动,导致在不同的 config servers 中,出现元数据不一致的情况。2 ]( S6 a( U; s8 y
9 L! W! l+ j& Q" H6 j MongoDB的官方文档建议,配置3个config servers比较合适,既提供了足够的安全性,又避免了更多的config servers实例之间的数据同步,引起的元数据不一致的麻烦。
; I; u6 D v0 z. q5 u( r& f2 T$ h( s+ A- y! Y2 H
Mongos7 v0 u4 {- D# A% K4 _( |
1 D+ A6 A+ L' [
用户使用MongoDB 时,用户的操作请求,全部由mongos来转发。$ S4 @" j! t) T( J
( J( A: z4 o/ A3 R# M
当 mongos 接收到用户请求时,它先查询 config server,找到存放相应数据的shard servers。然后把用户请求,转发到这些 shard servers。当这些 shard servers完成操作后,它们把结果分别返回给 mongos。而当 mongos 汇总了所有的结果后,它把结果返回给用户。5 t- G! }" V |, F
5 I, I1 p0 }6 X9 P; N, H ^
Mongos每次启动的时候,都要到config servers中读取元数据,并缓存在本地。每当 config server中的元数据有改动,它都会通知所有的mongos。
: f2 V3 I% A) U1 O, I' o
% o W3 C3 b+ @5 g+ G" D Mongos之间,不存在彼此协同工作的问题。因此,MongoDB所需要配置的mongos server的数量,没有限制。0 r9 P. \/ d- E
0 @# W8 Y7 {4 {! L' U
通过以上的介绍,我们对每个组成部分都有了基本的了解,但是涉及到工作的细节,我们尚有诸多疑问,例如,一个chunk的数据太大,如何切分?一个shard数据太多,如何迁移?在replica set中,如何选择primary?server挂了,怎么进行故障恢复?接下来的章节,我们逐个回答这些问题。1 F/ I+ z3 @- W
" K" V D7 w8 `/ [5 u! k- \7 c* ~3 \" g
Reference,
- r u" h0 y2 z/ X) P h
& T5 x! I/ h3 B2 o5 W+ D* ^8 s% E* [# U[0] Architectural Overview
) f1 Z4 L, P0 ^: t7 Bhttp://www.mongodb.org/display/DOCS/Sharding+Introduction
' R$ I4 R. B* m% `3 S |
评分
-
查看全部评分
|