搭建MongoDB分片集群

打印 上一主题 下一主题

主题 944|帖子 944|积分 2832

一、什么是分片

分片是一种跨多台机器分布数据的方法。MongoDB 利用分片来支持超大数据集和高吞吐量操作的部署。
存在大型数据集或高吞吐量应用程序的数据库系统可能对单个服务器的容量构成挑战。例如,较高的查询速率可能会耗尽服务器的 CPU 容量。大于系统 RAM 的工作集巨细会对磁盘驱动器的 I/O 容量造成压力。
有两种方法可解决系统增长问题:垂直扩展水平扩展
Vertical Scaling(垂直扩展) 涉及增大单个服务器的容量,例如利用更强大的 CPU、添加更多 RAM 或增长存储空间量。可用技能所存在的限定可能会导致单个机器对给定工作负载来说不够强大。此外,基于云的提供商存在基于可用硬件配置的硬上限。因此,垂直扩展存在现实的最大值。
Horizontal Scaling(横向扩展) 涉及将系统数据集和负载划分到多个服务器,以及按需增长服务器以进步容量。固然单个机器的总体速度或容量可能不高,但每个机器均可处理总体工作负载的一部分,因此可能会比单个高速、高容量服务器提供更高的效率。扩展部署的容量只需按需添加额外的服务器,而这可能会比单个机器的高端硬件的整体成本更低。但代价在于它会增大部署的底子设施与维护的复杂性。
MongoDB 支持通过水平扩展进行分片
二、分片集群

1、组件构成



  • 分片:每个分片都包含分片数据的一个子集。每个分片都必须作为一个副本集
  • mongos : mongos充当查询路由器,在客户端应用程序和分片集群之间提供接口。 mongos可以支持对冲读,以最大限度地淘汰延迟。
  • 配置服务器:配置服务器会存储集群的元数据和配置设置。 从 MongoDB 3.4 开始,配置服务器必须作为副本集 (CSRS) 部署。
2、分片集群内各组件间交互


三、数据怎样切分

基于分片切分后的数据块称为 chunk,一个分片后的集合会包含多个 chunk,每个 chunk 位于哪个分片(Shard) 则记载在 Config Server(配置服务器)上。
Mongos 在操作分片集适时,会自动根据分片键找到对应的 chunk,并向该 chunk 所在的分片发起操作请求。
数据是根据分片策略来进行切分的,而分片策略则由 分片键(ShardKey)+分片算法(ShardStrategy)组成。
四、分片策略

1、哈希分片

哈希分片涉及计算分片键字段值的哈希值。然后,根据哈希分片键值为每个数据段分配一个范围。
   在利用哈希索引解析查询时,MongoDB 会自动计算哈希值。应用程序无需计算哈希值
  

固然分片键的范围可能“相近”,但它们的哈希值却不太可能位于同一数据段。基于哈希值的数据分配可促进更均匀的数据分布,尤其是在分片键单调
然而,哈希分布意味着对分片键进行基于范围的查询时,不太可能以单个分片为目标,从而导致更多的集群范围的广播操作
2、范围分片

范围分片涉及根据分片键值将数据划分为多个范围。然后,根据分片键值为每个数据段分配一个范围。

具有“相近”数值的一系列分片键更有可能位于同一个数据段上。这允许进行有针对性的操作,因为 mongos 只能将操作路由到包含所需数据的分片。
范围分片的效率取决于所选分片键。思量不周的分片键可能会导致数据分布不均,从而抵消分片的某些好处甚或导致性能瓶颈。请参阅针对基于范围的分片的分片键选择
五、分片集群架构

   两个分片节点副本集(3+3)+ 一个配置节点副本集(3)+两个路由节点(2)
  共11个服务节点。
  

六、搭建分片集群

1、涉及主机

角色主机名IP地址分片节点1shard1192.168.112.10分片节点2shard2192.168.112.20配置节点config-server192.168.112.30路由节点router192.168.112.40 2、全部主机安装MongoDB

  1. wget https://fastdl.mongodb.org/linux/mongodb-linux-x86_64-rhel70-4.4.6.tgz
  2. tar xzvf mongodb-linux-x86_64-rhel70-4.4.6.tgz -C /usr/local
  3. cd /usr/local/
  4. ln -s /usr/local/mongodb-linux-x86_64-rhel70-4.4.6 /usr/local/mongodb
  5. vim /etc/profile
  6. export PATH=/usr/local/mongodb/bin/:$PATH
  7. source /etc/profile
复制代码
3、分片节点副本集的创建

3.1、第一套副本集shard1

   shard1主机操作
  3.1.1、准备存放数据和日志的目录

  1. mkdir -p /usr/local/mongodb/sharded_cluster/myshardrs01_27018/log \
  2. /usr/local/mongodb/sharded_cluster/myshardrs01_27018/data/db \
  3. /usr/local/mongodb/sharded_cluster/myshardrs01_27118/log \
  4. /usr/local/mongodb/sharded_cluster/myshardrs01_27118/data/db \
  5. /usr/local/mongodb/sharded_cluster/myshardrs01_27218/log \
  6. /usr/local/mongodb/sharded_cluster/myshardrs01_27218/data/db
复制代码
3.1.2、创建配置文件

   myshardrs01_27018
  1. vim /usr/local/mongodb/sharded_cluster/myshardrs01_27018/mongod.conf
  2. systemLog:
  3.     destination: file
  4.     path: "/usr/local/mongodb/sharded_cluster/myshardrs01_27018/log/mongod.log"
  5.     logAppend: true
  6. storage:
  7.     dbPath: "/usr/local/mongodb/sharded_cluster/myshardrs01_27018/data/db"
  8.     journal:
  9.         enabled: true
  10. processManagement:
  11.     fork: true
  12.     pidFilePath: "/usr/local/mongodb/sharded_cluster/myshardrs01_27018/log/mongod.pid"
  13. net:
  14.     bindIp: localhost,192.168.112.10
  15.     port: 27018
  16. replication:
  17.     replSetName: myshardrs01
  18. sharding:
  19.   clusterRole: shardsvr
复制代码
  myshardrs01_27118
  1. vim /usr/local/mongodb/sharded_cluster/myshardrs01_27118/mongod.conf
  2. systemLog:
  3.     destination: file
  4.     path: "/usr/local/mongodb/sharded_cluster/myshardrs01_27118/log/mongod.log"
  5.     logAppend: true
  6. storage:
  7.     dbPath: "/usr/local/mongodb/sharded_cluster/myshardrs01_27118/data/db"
  8.     journal:
  9.         enabled: true
  10. processManagement:
  11.     fork: true
  12.     pidFilePath: "/usr/local/mongodb/sharded_cluster/myshardrs01_27118/log/mongod.pid"
  13. net:
  14.     bindIp: localhost,192.168.112.10
  15.     port: 27118
  16. replication:
  17.     replSetName: myshardrs01
  18. sharding:
  19.   clusterRole: shardsvr
复制代码
  myshardrs01_27218
  1. vim /usr/local/mongodb/sharded_cluster/myshardrs01_27218/mongod.conf
  2. systemLog:
  3.     destination: file
  4.     path: "/usr/local/mongodb/sharded_cluster/myshardrs01_27218/log/mongod.log"
  5.     logAppend: true
  6. storage:
  7.     dbPath: "/usr/local/mongodb/sharded_cluster/myshardrs01_27218/data/db"
  8.     journal:
  9.         enabled: true
  10. processManagement:
  11.     fork: true
  12.     pidFilePath: "/usr/local/mongodb/sharded_cluster/myshardrs01_27218/log/mongod.pid"
  13. net:
  14.     bindIp: localhost,192.168.112.10
  15.     port: 27218
  16. replication:
  17.     replSetName: myshardrs01
  18. sharding:
  19.   clusterRole: shardsvr
复制代码
3.1.3、启动第一套副本集:一主一副本一仲裁

  1. /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/sharded_cluster/myshardrs01_27018/mongod.conf
  2. /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/sharded_cluster/myshardrs01_27118/mongod.conf
  3. /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/sharded_cluster/myshardrs01_27218/mongod.conf
复制代码
  1. ps -ef|grep mongod
复制代码

3.1.4、初始化副本集、添加副本,仲裁节点

   毗连主节点
  1. mongo --host 192.168.112.10 --port 27018
复制代码


  • 初始化副本集
  1. rs.initiate()
  2. {
  3.         "info2" : "no configuration specified. Using a default configuration for the set",
  4.         "me" : "192.168.112.10:27018",
  5.         "ok" : 1
  6. }
  7. myshardrs01:SECONDARY>
  8. myshardrs01:PRIMARY>
复制代码


  • 添加副本节点
  1. rs.add("192.168.112.10:27118")
  2. {
  3.         "ok" : 1,
  4.         "$clusterTime" : {
  5.                 "clusterTime" : Timestamp(1714658449, 1),
  6.                 "signature" : {
  7.                         "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
  8.                         "keyId" : NumberLong(0)
  9.                 }
  10.         },
  11.         "operationTime" : Timestamp(1714658449, 1)
  12. }
复制代码


  • 添加仲裁节点
  1. rs.addArb("192.168.112.10:27218")
  2. {
  3.         "ok" : 1,
  4.         "$clusterTime" : {
  5.                 "clusterTime" : Timestamp(1714658509, 1),
  6.                 "signature" : {
  7.                         "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
  8.                         "keyId" : NumberLong(0)
  9.                 }
  10.         },
  11.         "operationTime" : Timestamp(1714658509, 1)
  12. }
复制代码


  • 查看副本集(关注各成员角色信息、健康状态即可)

    • rs.conf()

      • 作用:此命令用于表现当前副本集的配置信息。它返回一个文档,包含了副本集的名称、版本、协议版本、成员列表(包罗每个成员的ID、主机地址、优先级、角色等信息)、设置选项等详细配置细节。
      • 应用场景:当你需要查看或修改副本集的配置时(比如添加新成员、调整成员优先级、查看仲裁节点配置等),可以利用此命令。获取到的配置信息可以进一步用于重新配置副本集(rs.reconfig())。

    • rs.status()

      • 作用:此命令提供了副本集当前状态的快照,包罗各成员的运行状态、主从角色、健康状态、同步进度、心跳信息、选举信息等。它帮助你了解副本集是否运行正常,成员之间是否保持同步,以及是否有主节点故障等情况。
      • 应用场景:当监控副本集健康状态、排查毗连问题、查抄数据同步情况或确认主节点变更时,利用此命令非常有用。通过查抄rs.status()的输出,管理员可以快速识别并解决集群中的问题。


3.2、第二套副本集shard2

   shard2主机操作
  3.2.1、准备存放数据和日志的目录

  1. mkdir -p /usr/local/mongodb/sharded_cluster/myshardrs02_27318/log \
  2. /usr/local/mongodb/sharded_cluster/myshardrs02_27318/data/db \
  3. /usr/local/mongodb/sharded_cluster/myshardrs02_27418/log \
  4. /usr/local/mongodb/sharded_cluster/myshardrs02_27418/data/db \
  5. /usr/local/mongodb/sharded_cluster/myshardrs02_27518/log \
  6. /usr/local/mongodb/sharded_cluster/myshardrs02_27518/data/db
复制代码
3.1.2、创建配置文件

   myshardrs02_27318
  1. vim /usr/local/mongodb/sharded_cluster/myshardrs02_27318/mongod.conf
  2. systemLog:
  3.     destination: file
  4.     path: "/usr/local/mongodb/sharded_cluster/myshardrs02_27318/log/mongod.log"
  5.     logAppend: true
  6. storage:
  7.     dbPath: "/usr/local/mongodb/sharded_cluster/myshardrs02_27318/data/db"
  8.     journal:
  9.         enabled: true
  10. processManagement:
  11.     fork: true
  12.     pidFilePath: "/usr/local/mongodb/sharded_cluster/myshardrs02_27318/log/mongod.pid"
  13. net:
  14.     bindIp: localhost,192.168.112.20
  15.     port: 27318
  16. replication:
  17.     replSetName: myshardrs02
  18. sharding:
  19.   clusterRole: shardsvr
复制代码
  myshardrs02_27418
  1. vim /usr/local/mongodb/sharded_cluster/myshardrs02_27418/mongod.conf
  2. systemLog:
  3.     destination: file
  4.     path: "/usr/local/mongodb/sharded_cluster/myshardrs02_27418/log/mongod.log"
  5.     logAppend: true
  6. storage:
  7.     dbPath: "/usr/local/mongodb/sharded_cluster/myshardrs02_27418/data/db"
  8.     journal:
  9.         enabled: true
  10. processManagement:
  11.     fork: true
  12.     pidFilePath: "/usr/local/mongodb/sharded_cluster/myshardrs02_27418/log/mongod.pid"
  13. net:
  14.     bindIp: localhost,192.168.112.20
  15.     port: 27418
  16. replication:
  17.     replSetName: myshardrs02
  18. sharding:
  19.   clusterRole: shardsvr
复制代码
  myshardrs02_27518
  1. systemLog:
  2.     destination: file
  3.     path: "/usr/local/mongodb/sharded_cluster/myshardrs02_27518/log/mongod.log"
  4.     logAppend: true
  5. storage:
  6.     dbPath: "/usr/local/mongodb/sharded_cluster/myshardrs02_27518/data/db"
  7.     journal:
  8.         enabled: true
  9. processManagement:
  10.     fork: true
  11.     pidFilePath: "/usr/local/mongodb/sharded_cluster/myshardrs02_27518/log/mongod.pid"
  12. net:
  13.     bindIp: localhost,192.168.112.20
  14.     port: 27518
  15. replication:
  16.     replSetName: myshardrs02
  17. sharding:
  18.   clusterRole: shardsvr
复制代码
3.2.3、启动第二套副本集:一主一副本一仲裁

  1. /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/sharded_cluster/myshardrs02_27318/mongod.conf
  2. /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/sharded_cluster/myshardrs02_27418/mongod.conf
  3. /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/sharded_cluster/myshardrs02_27518/mongod.conf
复制代码
  1. ps -ef|grep mongod
复制代码

3.2.4、初始化副本集、添加副本,仲裁节点

   毗连主节点
  1. mongo --host 192.168.112.20 --port 27318
复制代码


  • 初始化副本集
  1. rs.initiate()
  2. {
  3.         "info2" : "no configuration specified. Using a default configuration for the set",
  4.         "me" : "192.168.112.20:27318",
  5.         "ok" : 1
  6. }
  7. myshardrs02:SECONDARY>
  8. myshardrs02:PRIMARY>
复制代码


  • 添加副本节点
  1. rs.add("192.168.112.20:27418")
  2. {
  3.         "ok" : 1,
  4.         "$clusterTime" : {
  5.                 "clusterTime" : Timestamp(1714660065, 1),
  6.                 "signature" : {
  7.                         "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
  8.                         "keyId" : NumberLong(0)
  9.                 }
  10.         },
  11.         "operationTime" : Timestamp(1714660065, 1)
  12. }
复制代码


  • 添加仲裁节点
  1. rs.addArb("192.168.112.20:27518")
  2. {
  3.         "ok" : 1,
  4.         "$clusterTime" : {
  5.                 "clusterTime" : Timestamp(1714660094, 1),
  6.                 "signature" : {
  7.                         "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
  8.                         "keyId" : NumberLong(0)
  9.                 }
  10.         },
  11.         "operationTime" : Timestamp(1714660094, 1)
  12. }
复制代码


  • 查看副本集
  1. rs.status()
  2. {
  3.         "set" : "myshardrs02",
  4.         "date" : ISODate("2024-05-02T14:29:57.930Z"),
  5.         "myState" : 1,
  6.         "term" : NumberLong(1),
  7.         "syncSourceHost" : "",
  8.         "syncSourceId" : -1,
  9.         "heartbeatIntervalMillis" : NumberLong(2000),
  10.         "majorityVoteCount" : 2,
  11.         "writeMajorityCount" : 2,
  12.         "votingMembersCount" : 3,
  13.         "writableVotingMembersCount" : 2,
  14.         "optimes" : {
  15.                 "lastCommittedOpTime" : {
  16.                         "ts" : Timestamp(1714660197, 1),
  17.                         "t" : NumberLong(1)
  18.                 },
  19.                 "lastCommittedWallTime" : ISODate("2024-05-02T14:29:57.868Z"),
  20.                 "readConcernMajorityOpTime" : {
  21.                         "ts" : Timestamp(1714660197, 1),
  22.                         "t" : NumberLong(1)
  23.                 },
  24.                 "readConcernMajorityWallTime" : ISODate("2024-05-02T14:29:57.868Z"),
  25.                 "appliedOpTime" : {
  26.                         "ts" : Timestamp(1714660197, 1),
  27.                         "t" : NumberLong(1)
  28.                 },
  29.                 "durableOpTime" : {
  30.                         "ts" : Timestamp(1714660197, 1),
  31.                         "t" : NumberLong(1)
  32.                 },
  33.                 "lastAppliedWallTime" : ISODate("2024-05-02T14:29:57.868Z"),
  34.                 "lastDurableWallTime" : ISODate("2024-05-02T14:29:57.868Z")
  35.         },
  36.         "lastStableRecoveryTimestamp" : Timestamp(1714660147, 1),
  37.         "electionCandidateMetrics" : {
  38.                 "lastElectionReason" : "electionTimeout",
  39.                 "lastElectionDate" : ISODate("2024-05-02T14:27:07.797Z"),
  40.                 "electionTerm" : NumberLong(1),
  41.                 "lastCommittedOpTimeAtElection" : {
  42.                         "ts" : Timestamp(0, 0),
  43.                         "t" : NumberLong(-1)
  44.                 },
  45.                 "lastSeenOpTimeAtElection" : {
  46.                         "ts" : Timestamp(1714660027, 1),
  47.                         "t" : NumberLong(-1)
  48.                 },
  49.                 "numVotesNeeded" : 1,
  50.                 "priorityAtElection" : 1,
  51.                 "electionTimeoutMillis" : NumberLong(10000),
  52.                 "newTermStartDate" : ISODate("2024-05-02T14:27:07.802Z"),
  53.                 "wMajorityWriteAvailabilityDate" : ISODate("2024-05-02T14:27:07.899Z")
  54.         },
  55.         "members" : [
  56.                 {
  57.                         "_id" : 0,
  58.                         "name" : "192.168.112.20:27318",
  59.                         "health" : 1,
  60.                         "state" : 1,
  61.                         "stateStr" : "PRIMARY",
  62.                         "uptime" : 403,
  63.                         "optime" : {
  64.                                 "ts" : Timestamp(1714660197, 1),
  65.                                 "t" : NumberLong(1)
  66.                         },
  67.                         "optimeDate" : ISODate("2024-05-02T14:29:57Z"),
  68.                         "syncSourceHost" : "",
  69.                         "syncSourceId" : -1,
  70.                         "infoMessage" : "",
  71.                         "electionTime" : Timestamp(1714660027, 2),
  72.                         "electionDate" : ISODate("2024-05-02T14:27:07Z"),
  73.                         "configVersion" : 3,
  74.                         "configTerm" : -1,
  75.                         "self" : true,
  76.                         "lastHeartbeatMessage" : ""
  77.                 },
  78.                 {
  79.                         "_id" : 1,
  80.                         "name" : "192.168.112.20:27418",
  81.                         "health" : 1,
  82.                         "state" : 2,
  83.                         "stateStr" : "SECONDARY",
  84.                         "uptime" : 132,
  85.                         "optime" : {
  86.                                 "ts" : Timestamp(1714660187, 1),
  87.                                 "t" : NumberLong(1)
  88.                         },
  89.                         "optimeDurable" : {
  90.                                 "ts" : Timestamp(1714660187, 1),
  91.                                 "t" : NumberLong(1)
  92.                         },
  93.                         "optimeDate" : ISODate("2024-05-02T14:29:47Z"),
  94.                         "optimeDurableDate" : ISODate("2024-05-02T14:29:47Z"),
  95.                         "lastHeartbeat" : ISODate("2024-05-02T14:29:57.035Z"),
  96.                         "lastHeartbeatRecv" : ISODate("2024-05-02T14:29:57.113Z"),
  97.                         "pingMs" : NumberLong(0),
  98.                         "lastHeartbeatMessage" : "",
  99.                         "syncSourceHost" : "192.168.112.20:27318",
  100.                         "syncSourceId" : 0,
  101.                         "infoMessage" : "",
  102.                         "configVersion" : 3,
  103.                         "configTerm" : -1
  104.                 },
  105.                 {
  106.                         "_id" : 2,
  107.                         "name" : "192.168.112.20:27518",
  108.                         "health" : 1,
  109.                         "state" : 7,
  110.                         "stateStr" : "ARBITER",
  111.                         "uptime" : 102,
  112.                         "lastHeartbeat" : ISODate("2024-05-02T14:29:57.035Z"),
  113.                         "lastHeartbeatRecv" : ISODate("2024-05-02T14:29:57.068Z"),
  114.                         "pingMs" : NumberLong(0),
  115.                         "lastHeartbeatMessage" : "",
  116.                         "syncSourceHost" : "",
  117.                         "syncSourceId" : -1,
  118.                         "infoMessage" : "",
  119.                         "configVersion" : 3,
  120.                         "configTerm" : -1
  121.                 }
  122.         ],
  123.         "ok" : 1,
  124.         "$clusterTime" : {
  125.                 "clusterTime" : Timestamp(1714660197, 1),
  126.                 "signature" : {
  127.                         "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
  128.                         "keyId" : NumberLong(0)
  129.                 }
  130.         },
  131.         "operationTime" : Timestamp(1714660197, 1)
  132. }
复制代码
4、配置节点副本集的创建

   config-server主机操作
  4.1、准备存放数据和日志的目录

  1. mkdir -p /usr/local/mongodb/sharded_cluster/myconfigrs_27019/log \
  2. /usr/local/mongodb/sharded_cluster/myconfigrs_27019/data/db \
  3. /usr/local/mongodb/sharded_cluster/myconfigrs_27119/log \
  4. /usr/local/mongodb/sharded_cluster/myconfigrs_27119/data/db \
  5. /usr/local/mongodb/sharded_cluster/myconfigrs_27219/log \
  6. /usr/local/mongodb/sharded_cluster/myconfigrs_27219/data/db
复制代码
4.2、创建配置文件

   myconfigrs_27019
  1. systemLog:
  2.     destination: file
  3.     path: "/usr/local/mongodb/sharded_cluster/myconfigrs_27019/log/mongod.log"
  4.     logAppend: true
  5. storage:
  6.     dbPath: "/usr/local/mongodb/sharded_cluster/myconfigrs_27019/data/db"
  7.     journal:
  8.         enabled: true
  9. processManagement:
  10.     fork: true
  11.     pidFilePath: "/usr/local/mongodb/sharded_cluster/myconfigrs_27019/log/mongod.pid"
  12. net:
  13.     bindIp: localhost,192.168.112.30
  14.     port: 27019
  15. replication:
  16.     replSetName: myconfigr
  17. sharding:
  18.     clusterRole: configsvr
复制代码
  注意:这里的配置文件与分片节点的配置文件不一样
  分片角色:shardsvr为分片节点,configsvr配置节点
  
   myconfigrs_27119
  1. systemLog:
  2.     destination: file
  3.     path: "/usr/local/mongodb/sharded_cluster/myconfigrs_27119/log/mongod.log"
  4.     logAppend: true
  5. storage:
  6.     dbPath: "/usr/local/mongodb/sharded_cluster/myconfigrs_27119/data/db"
  7.     journal:
  8.         enabled: true
  9. processManagement:
  10.     fork: true
  11.     pidFilePath: "/usr/local/mongodb/sharded_cluster/myconfigrs_27119/log/mongod.pid"
  12. net:
  13.     bindIp: localhost,192.168.112.30
  14.     port: 27119
  15. replication:
  16.     replSetName: myconfigr
  17. sharding:
  18.     clusterRole: configsvr
复制代码
  myconfigrs_27219
  1. systemLog:
  2.     destination: file
  3.     path: "/usr/local/mongodb/sharded_cluster/myconfigrs_27219/log/mongod.log"
  4.     logAppend: true
  5. storage:
  6.     dbPath: "/usr/local/mongodb/sharded_cluster/myconfigrs_27219/data/db"
  7.     journal:
  8.         enabled: true
  9. processManagement:
  10.     fork: true
  11.     pidFilePath: "/usr/local/mongodb/sharded_cluster/myconfigrs_27219/log/mongod.pid"
  12. net:
  13.     bindIp: localhost,192.168.112.30
  14.     port: 27219
  15. replication:
  16.     replSetName: myconfigr
  17. sharding:
  18.     clusterRole: configsvr
复制代码
4.3、启动副本集

  1. /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/sharded_cluster/myconfigrs_27019/mongod.conf
  2. /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/sharded_cluster/myconfigrs_27119/mongod.conf
  3. /usr/local/mongodb/bin/mongod -f /usr/local/mongodb/sharded_cluster/myconfigrs_27219/mongod.conf
复制代码
  1. ps -ef|grep mongod
复制代码

4.4、初始化副本集、添加副本节点

   毗连主节点
  1. mongo --host 192.168.112.30 --port 27019
复制代码


  • 初始化副本集
  1. rs.initiate()
  2. {
  3.         "info2" : "no configuration specified. Using a default configuration for the set",
  4.         "me" : "192.168.112.30:27019",
  5.         "ok" : 1,
  6.         "$gleStats" : {
  7.                 "lastOpTime" : Timestamp(1714702204, 1),
  8.                 "electionId" : ObjectId("000000000000000000000000")
  9.         },
  10.         "lastCommittedOpTime" : Timestamp(0, 0)
  11. }
复制代码


  • 添加副本节点
  1. rs.add("192.168.112.30:27119")
  2. {
  3.         "ok" : 1,
  4.         "$gleStats" : {
  5.                 "lastOpTime" : {
  6.                         "ts" : Timestamp(1714702333, 2),
  7.                         "t" : NumberLong(1)
  8.                 },
  9.                 "electionId" : ObjectId("7fffffff0000000000000001")
  10.         },
  11.         "lastCommittedOpTime" : Timestamp(1714702333, 2),
  12.         "$clusterTime" : {
  13.                 "clusterTime" : Timestamp(1714702335, 1),
  14.                 "signature" : {
  15.                         "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
  16.                         "keyId" : NumberLong(0)
  17.                 }
  18.         },
  19.         "operationTime" : Timestamp(1714702333, 2)
  20. }
复制代码
  1. rs.add("192.168.112.30:27219")
  2. {
  3.         "ok" : 1,
  4.         "$gleStats" : {
  5.                 "lastOpTime" : {
  6.                         "ts" : Timestamp(1714702365, 2),
  7.                         "t" : NumberLong(1)
  8.                 },
  9.                 "electionId" : ObjectId("7fffffff0000000000000001")
  10.         },
  11.         "lastCommittedOpTime" : Timestamp(1714702367, 1),
  12.         "$clusterTime" : {
  13.                 "clusterTime" : Timestamp(1714702367, 1),
  14.                 "signature" : {
  15.                         "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
  16.                         "keyId" : NumberLong(0)
  17.                 }
  18.         },
  19.         "operationTime" : Timestamp(1714702365, 2)
  20. }
复制代码


  • 查看副本集
  1. rs.conf()
  2. {
  3.         "_id" : "myconfigr",
  4.         "version" : 3,
  5.         "term" : 1,
  6.         "configsvr" : true,
  7.         "protocolVersion" : NumberLong(1),
  8.         "writeConcernMajorityJournalDefault" : true,
  9.         "members" : [
  10.                 {
  11.                         "_id" : 0,
  12.                         "host" : "192.168.112.30:27019",
  13.                         "arbiterOnly" : false,
  14.                         "buildIndexes" : true,
  15.                         "hidden" : false,
  16.                         "priority" : 1,
  17.                         "tags" : {
  18.                         },
  19.                         "slaveDelay" : NumberLong(0),
  20.                         "votes" : 1
  21.                 },
  22.                 {
  23.                         "_id" : 1,
  24.                         "host" : "192.168.112.30:27119",
  25.                         "arbiterOnly" : false,
  26.                         "buildIndexes" : true,
  27.                         "hidden" : false,
  28.                         "priority" : 1,
  29.                         "tags" : {
  30.                         },
  31.                         "slaveDelay" : NumberLong(0),
  32.                         "votes" : 1
  33.                 },
  34.                 {
  35.                         "_id" : 2,
  36.                         "host" : "192.168.112.30:27219",
  37.                         "arbiterOnly" : false,
  38.                         "buildIndexes" : true,
  39.                         "hidden" : false,
  40.                         "priority" : 1,
  41.                         "tags" : {
  42.                         },
  43.                         "slaveDelay" : NumberLong(0),
  44.                         "votes" : 1
  45.                 }
  46.         ],
  47.         "settings" : {
  48.                 "chainingAllowed" : true,
  49.                 "heartbeatIntervalMillis" : 2000,
  50.                 "heartbeatTimeoutSecs" : 10,
  51.                 "electionTimeoutMillis" : 10000,
  52.                 "catchUpTimeoutMillis" : -1,
  53.                 "catchUpTakeoverDelayMillis" : 30000,
  54.                 "getLastErrorModes" : {
  55.                 },
  56.                 "getLastErrorDefaults" : {
  57.                         "w" : 1,
  58.                         "wtimeout" : 0
  59.                 },
  60.                 "replicaSetId" : ObjectId("6634477c7677719ed2388701")
  61.         }
  62. }
复制代码
5、路由节点的创建和操作

   router主机操作
  5.1、创建毗连第一个路由节点

5.1.1、准备存放日志的目录

  1. mkdir -p /usr/local/mongodb/sharded_cluster/mymongos_27017/log
复制代码
5.1.2、创建配置文件

  1. vim /usr/local/mongodb/sharded_cluster/mymongos_27017/mongos.conf
  2. systemLog:
  3.     destination: file
  4.     path: "/usr/local/mongodb/sharded_cluster/mymongos_27017/log/mongod.log"
  5.     logAppend: true
  6. processManagement:
  7.     fork: true
  8.     pidFilePath: "/usr/local/mongodb/sharded_cluster/mymongos_27017/log/mongod.pid"
  9. net:
  10.     bindIp: localhost,192.168.112.40
  11.     port: 27017
  12. sharding:
  13.     configDB: myconfigrs/192.168.112.30:27019,192.168.112.30:27119,192.168.112.30:27219
复制代码
5.1.3、启动mongos

  1. /usr/local/mongodb/bin/mongos -f /usr/local/mongodb/sharded_cluster/mymongos_27017/mongos.conf
复制代码
5.1.4、客户端登录mongos

  1. mongo --port 27017
复制代码
  1. mongos> use test1
  2. switched to db test1
  3. mongos> db.q1.insert({a:"a1"})
  4. WriteCommandError({
  5.         "ok" : 0,
  6.         "errmsg" : "unable to initialize targeter for write op for collection test1.q1 :: caused by :: Database test1 could not be created :: caused by :: No shards found",
  7.         "code" : 70,
  8.         "codeName" : "ShardNotFound",
  9.         "operationTime" : Timestamp(1714704496, 3),
  10.         "$clusterTime" : {
  11.                 "clusterTime" : Timestamp(1714704496, 3),
  12.                 "signature" : {
  13.                         "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
  14.                         "keyId" : NumberLong(0)
  15.                 }
  16.         }
  17. })
复制代码
  此时写入不了数据
  通过路由节点操作,如今只是毗连了配置节点
  还没有毗连分片数据节点,因此无法写入业务数据
  5.2、添加分片副本集

5.2.1、将第一套分片副本集添加进来

  1. sh.addShard("myshardrs01/192.168.112.10:27018,192.168.112.10:27118,192.168.112.10:27218")
  2. {
  3.         "shardAdded" : "myshardrs01",
  4.         "ok" : 1,
  5.         "operationTime" : Timestamp(1714705107, 3),
  6.         "$clusterTime" : {
  7.                 "clusterTime" : Timestamp(1714705107, 3),
  8.                 "signature" : {
  9.                         "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
  10.                         "keyId" : NumberLong(0)
  11.                 }
  12.         }
  13. }
复制代码
5.2.2、查看分片状态情况

  1. sh.status()
  2. --- Sharding Status ---
  3.   sharding version: {
  4.         "_id" : 1,
  5.         "minCompatibleVersion" : 5,
  6.         "currentVersion" : 6,
  7.         "clusterId" : ObjectId("6634477c7677719ed2388706")
  8.   }
  9.   shards:
  10.         {  "_id" : "myshardrs01",  "host" : "myshardrs01/192.168.112.10:27018,192.168.112.10:27118",  "state" : 1 }
  11.   most recently active mongoses:
  12.         "4.4.6" : 1
  13.   autosplit:
  14.         Currently enabled: yes
  15.   balancer:
  16.         Currently enabled:  yes
  17.         Currently running:  no
  18.         Failed balancer rounds in last 5 attempts:  0
  19.         Migration Results for the last 24 hours:
  20.                 No recent migrations
  21.   databases:
  22.         {  "_id" : "config",  "primary" : "config",  "partitioned" : true }
复制代码
5.2.3、将第二套分片副本集添加进来

  1. sh.addShard("myshardrs02/192.168.112.20:27318,192.168.112.20:27418,192.168.112.20:27518")
  2. {
  3.         "shardAdded" : "myshardrs02",
  4.         "ok" : 1,
  5.         "operationTime" : Timestamp(1714705261, 2),
  6.         "$clusterTime" : {
  7.                 "clusterTime" : Timestamp(1714705261, 2),
  8.                 "signature" : {
  9.                         "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
  10.                         "keyId" : NumberLong(0)
  11.                 }
  12.         }
  13. }
复制代码
5.2.4、查看分片状态情况

  1. sh.status()
  2. --- Sharding Status ---
  3.   sharding version: {
  4.         "_id" : 1,
  5.         "minCompatibleVersion" : 5,
  6.         "currentVersion" : 6,
  7.         "clusterId" : ObjectId("6634477c7677719ed2388706")
  8.   }
  9.   shards:
  10.         {  "_id" : "myshardrs01",  "host" : "myshardrs01/192.168.112.10:27018,192.168.112.10:27118",  "state" : 1 }
  11.         {  "_id" : "myshardrs02",  "host" : "myshardrs02/192.168.112.20:27318,192.168.112.20:27418",  "state" : 1 }
  12.   most recently active mongoses:
  13.         "4.4.6" : 1
  14.   autosplit:
  15.         Currently enabled: yes
  16.   balancer:
  17.         Currently enabled:  yes
  18.         Currently running:  no
  19.         Failed balancer rounds in last 5 attempts:  0
  20.         Migration Results for the last 24 hours:
  21.                 34 : Success
  22.   databases:
  23.         {  "_id" : "config",  "primary" : "config",  "partitioned" : true }
  24.                 config.system.sessions
  25.                         shard key: { "_id" : 1 }
  26.                         unique: false
  27.                         balancing: true
  28.                         chunks:
  29.                                 myshardrs01     990
  30.                                 myshardrs02     34
  31.                         too many chunks to print, use verbose if you want to force print
复制代码
5.3、移除分片

   假如只剩下末了一个shard,是无法删除的。
  移除时会自动转移分片数据,需要一个时间过程。
  完成后,再次执行删除分片命令才气真正删除。
  1. #示例:移除分片myshardrs02
  2. use db
  3. db.runCommand({removeShard: "myshardrs02"})
复制代码
5.4、开启分片功能



  • sh.enableSharding(“库名”)
  • sh.shardCollection(“库名.集合名”,{“key”:1})
  1. mongos> sh.enableSharding("test")
  2. {
  3.         "ok" : 1,
  4.         "operationTime" : Timestamp(1714706298, 6),
  5.         "$clusterTime" : {
  6.                 "clusterTime" : Timestamp(1714706298, 6),
  7.                 "signature" : {
  8.                         "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
  9.                         "keyId" : NumberLong(0)
  10.                 }
  11.         }
  12. }
复制代码
5.5、针对分片策略–哈希分片

   router主机操作
  对comment这个集合利用hash方式分片
  1. sh.shardCollection("test.comment",{"nickname":"hashed"})
  2. {
  3.         "collectionsharded" : "test.comment",
  4.         "collectionUUID" : UUID("61ea1ec6-500b-4d00-86ed-3b2cce81a021"),
  5.         "ok" : 1,
  6.         "operationTime" : Timestamp(1714706573, 25),
  7.         "$clusterTime" : {
  8.                 "clusterTime" : Timestamp(1714706573, 25),
  9.                 "signature" : {
  10.                         "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
  11.                         "keyId" : NumberLong(0)
  12.                 }
  13.         }
  14. }
复制代码


  • 查看分片状态
  1. sh.status()
  2. --- Sharding Status ---
  3.   sharding version: {
  4.         "_id" : 1,
  5.         "minCompatibleVersion" : 5,
  6.         "currentVersion" : 6,
  7.         "clusterId" : ObjectId("6634477c7677719ed2388706")
  8.   }
  9.   shards:
  10.         {  "_id" : "myshardrs01",  "host" : "myshardrs01/192.168.112.10:27018,192.168.112.10:27118",  "state" : 1 }
  11.         {  "_id" : "myshardrs02",  "host" : "myshardrs02/192.168.112.20:27318,192.168.112.20:27418",  "state" : 1 }
  12.   most recently active mongoses:
  13.         "4.4.6" : 1
  14.   autosplit:
  15.         Currently enabled: yes
  16.   balancer:
  17.         Currently enabled:  yes
  18.         Currently running:  no
  19.         Failed balancer rounds in last 5 attempts:  0
  20.         Migration Results for the last 24 hours:
  21.                 512 : Success
  22.   databases:
  23.         {  "_id" : "config",  "primary" : "config",  "partitioned" : true }
  24.                 config.system.sessions
  25.                         shard key: { "_id" : 1 }
  26.                         unique: false
  27.                         balancing: true
  28.                         chunks:
  29.                                 myshardrs01     512
  30.                                 myshardrs02     512
  31.                         too many chunks to print, use verbose if you want to force print
  32.         {  "_id" : "test",  "primary" : "myshardrs02",  "partitioned" : true,  "version" : {  "uuid" : UUID("7f240c27-83dd-48eb-be8c-2e1336ec9190"),  "lastMod" : 1 } }
  33.                 test.comment
  34.                         shard key: { "nickname" : "hashed" }
  35.                         unique: false
  36.                         balancing: true
  37.                         chunks:
  38.                                 myshardrs01     2
  39.                                 myshardrs02     2
  40.                         { "nickname" : { "$minKey" : 1 } } -->> { "nickname" : NumberLong("-4611686018427387902") } on : myshardrs01 Timestamp(1, 0)
  41.                         { "nickname" : NumberLong("-4611686018427387902") } -->> { "nickname" : NumberLong(0) } on : myshardrs01 Timestamp(1, 1)
  42.                         { "nickname" : NumberLong(0) } -->> { "nickname" : NumberLong("4611686018427387902") } on : myshardrs02 Timestamp(1, 2)
  43.                         { "nickname" : NumberLong("4611686018427387902") } -->> { "nickname" : { "$maxKey" : 1 } } on : myshardrs02 Timestamp(1, 3)
复制代码
5.5.1、插入数据测试

   哈希分片
  向comment集合循环插入1000条数据做测试
  1. mongos> use test
  2. switched to db test
  3. mongos> for(var i=1;i<=1000;i++){db.comment.insert({_id:i+"",nickname:"Test"+i})}
  4. WriteResult({ "nInserted" : 1 })
  5. mongos> db.comment.count()
  6. 1000
复制代码
5.5.2、分别登录两个分片节点主节点,统计文档数量



  • myshardrs01:

      1. mongo --host 192.168.112.10 --port 27018
      2. myshardrs01:PRIMARY> show dbsadmin   0.000GBconfig  0.001GBlocal   0.001GBtest    0.000GBmyshardrs01:PRIMARY> use testswitched to db testmyshardrs01:PRIMARY> db.comment.count()505
      复制代码
      1. myshardrs01:PRIMARY> db.comment.find()
      2. { "_id" : "2", "nickname" : "Test2" }
      3. { "_id" : "4", "nickname" : "Test4" }
      4. { "_id" : "8", "nickname" : "Test8" }
      5. { "_id" : "9", "nickname" : "Test9" }
      6. { "_id" : "13", "nickname" : "Test13" }
      7. { "_id" : "15", "nickname" : "Test15" }
      8. { "_id" : "16", "nickname" : "Test16" }
      9. { "_id" : "18", "nickname" : "Test18" }
      10. { "_id" : "19", "nickname" : "Test19" }
      11. { "_id" : "20", "nickname" : "Test20" }
      12. { "_id" : "21", "nickname" : "Test21" }
      13. { "_id" : "25", "nickname" : "Test25" }
      14. { "_id" : "26", "nickname" : "Test26" }
      15. { "_id" : "27", "nickname" : "Test27" }
      16. { "_id" : "31", "nickname" : "Test31" }
      17. { "_id" : "32", "nickname" : "Test32" }
      18. { "_id" : "33", "nickname" : "Test33" }
      19. { "_id" : "35", "nickname" : "Test35" }
      20. { "_id" : "36", "nickname" : "Test36" }
      21. { "_id" : "38", "nickname" : "Test38" }
      22. Type "it" for more
      复制代码
                基于哈希值的数据分配

  • myshardrs02:

      1. mongo --port 27318
      2. myshardrs02:PRIMARY> show dbs
      3. admin   0.000GB
      4. config  0.001GB
      5. local   0.001GB
      6. test    0.000GB
      7. myshardrs02:PRIMARY> use test
      8. switched to db test
      9. myshardrs02:PRIMARY> db.comment.count()
      10. 495
      复制代码
      1. myshardrs02:PRIMARY> db.comment.find()
      2. { "_id" : "1", "nickname" : "Test1" }
      3. { "_id" : "3", "nickname" : "Test3" }
      4. { "_id" : "5", "nickname" : "Test5" }
      5. { "_id" : "6", "nickname" : "Test6" }
      6. { "_id" : "7", "nickname" : "Test7" }
      7. { "_id" : "10", "nickname" : "Test10" }
      8. { "_id" : "11", "nickname" : "Test11" }
      9. { "_id" : "12", "nickname" : "Test12" }
      10. { "_id" : "14", "nickname" : "Test14" }
      11. { "_id" : "17", "nickname" : "Test17" }
      12. { "_id" : "22", "nickname" : "Test22" }
      13. { "_id" : "23", "nickname" : "Test23" }
      14. { "_id" : "24", "nickname" : "Test24" }
      15. { "_id" : "28", "nickname" : "Test28" }
      16. { "_id" : "29", "nickname" : "Test29" }
      17. { "_id" : "30", "nickname" : "Test30" }
      18. { "_id" : "34", "nickname" : "Test34" }
      19. { "_id" : "37", "nickname" : "Test37" }
      20. { "_id" : "39", "nickname" : "Test39" }
      21. { "_id" : "44", "nickname" : "Test44" }
      22. Type "it" for more
      复制代码
                基于哈希值的数据分配

5.6、针对分片策略–范围分片

   router主机操作
  利用作者年龄字段作为片键,按照年龄的值进行分片
  1. mongos> sh.shardCollection("test.author",{"age":1})
  2. {
  3.         "collectionsharded" : "test.author",
  4.         "collectionUUID" : UUID("9b8055c8-7a35-49d5-9e8f-07d6004b19b3"),
  5.         "ok" : 1,
  6.         "operationTime" : Timestamp(1714709641, 12),
  7.         "$clusterTime" : {
  8.                 "clusterTime" : Timestamp(1714709641, 12),
  9.                 "signature" : {
  10.                         "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
  11.                         "keyId" : NumberLong(0)
  12.                 }
  13.         }
  14. }
复制代码
5.6.1、插入数据测试

   范围分片
  向author集合循环插入20000条测试数据
  1. mongos> use test
  2. switched to db test
  3. mongos> for (var i=1;i<=2000;i++){db.author.save({"name":"test"+i,"age":NumberInt(i%120)})}
  4. WriteResult({ "nInserted" : 1 })
  5. mongos> db.author.count()
  6. 2000
复制代码
5.6.2、分别登录两个分片节点主节点,统计文档数量



  • myshardrs02

      1. myshardrs02:PRIMARY> show dbs
      2. admin   0.000GB
      3. config  0.001GB
      4. local   0.001GB
      5. test    0.000GB
      6. myshardrs02:PRIMARY> use test
      7. switched to db test
      8. myshardrs02:PRIMARY> show collections
      9. author
      10. comment
      11. myshardrs02:PRIMARY> db.author.count()
      12. 2000
      复制代码

  • myshardrs01

      1. myshardrs01:PRIMARY> db.author.count()
      2. 0
      复制代码

  • 发现全部的数据都集中在了一个分片副本上
  • 假如发现没有分片:

    • 系统繁忙,正在分片中
    • 数据块(chunk)没有填满,默认的数据块尺寸是64M,填满后才会向其他片的数据库填充数据,为了测试可以改小,但是生产环境请勿改动

  1. use config
  2. db.settings.save({_id:"chunksize",value:1})
  3. # 改成1M
  4. db.settings.save({_id:"chunksize",value:64})
复制代码
6、再添加一个路由节点

   router主机操作
  6.1、准备存放日志的目录

  1. mkdir -p /usr/local/mongodb/sharded_cluster/mymongos_27117/log
复制代码
6.2、创建配置文件

  1. vim /usr/local/mongodb/sharded_cluster/mymongos_27117/mongos.conf
  2. systemLog:
  3.     destination: file
  4.     path: "/usr/local/mongodb/sharded_cluster/mymongos_27117/log/mongod.log"
  5.     logAppend: true
  6. processManagement:
  7.     fork: true
  8.     pidFilePath: "/usr/local/mongodb/sharded_cluster/mymongos_27117/log/mongod.pid"
  9. net:
  10.     bindIp: localhost,192.168.112.40
  11.     port: 27117
  12. sharding:
  13.     configDB: myconfigrs/192.168.112.30:27019,192.168.112.30:27119,192.168.112.30:27219
复制代码
6.3、启动mongos

  1. /usr/local/mongodb/bin/mongos -f /usr/local/mongodb/sharded_cluster/mymongos_27117/mongos.conf
复制代码
6.4、客户端登录mongos

   利用mongo客户端登录27117
  发现第二个路由无需配置,因为分片配置都保存到了配置服务器中了
  1. mongo --port 27117
  2. mongos> sh.status()
  3. --- Sharding Status ---
  4.   sharding version: {
  5.         "_id" : 1,
  6.         "minCompatibleVersion" : 5,
  7.         "currentVersion" : 6,
  8.         "clusterId" : ObjectId("6634477c7677719ed2388706")
  9.   }
  10.   shards:
  11.         {  "_id" : "myshardrs01",  "host" : "myshardrs01/192.168.112.10:27018,192.168.112.10:27118",  "state" : 1 }
  12.         {  "_id" : "myshardrs02",  "host" : "myshardrs02/192.168.112.20:27318,192.168.112.20:27418",  "state" : 1 }
  13.   active mongoses:
  14.         "4.4.6" : 2
  15.   autosplit:
  16.         Currently enabled: yes
  17.   balancer:
  18.         Currently enabled:  yes
  19.         Currently running:  no
  20.         Failed balancer rounds in last 5 attempts:  0
  21.         Migration Results for the last 24 hours:
  22.                 512 : Success
  23.   databases:
  24.         {  "_id" : "config",  "primary" : "config",  "partitioned" : true }
  25.                 config.system.sessions
  26.                         shard key: { "_id" : 1 }
  27.                         unique: false
  28.                         balancing: true
  29.                         chunks:
  30.                                 myshardrs01     512
  31.                                 myshardrs02     512
  32.                         too many chunks to print, use verbose if you want to force print
  33.         {  "_id" : "test",  "primary" : "myshardrs02",  "partitioned" : true,  "version" : {  "uuid" : UUID("7f240c27-83dd-48eb-be8c-2e1336ec9190"),  "lastMod" : 1 } }
  34.                 test.author
  35.                         shard key: { "age" : 1 }
  36.                         unique: false
  37.                         balancing: true
  38.                         chunks:
  39.                                 myshardrs02     1
  40.                         { "age" : { "$minKey" : 1 } } -->> { "age" : { "$maxKey" : 1 } } on : myshardrs02 Timestamp(1, 0)
  41.                 test.comment
  42.                         shard key: { "nickname" : "hashed" }
  43.                         unique: false
  44.                         balancing: true
  45.                         chunks:
  46.                                 myshardrs01     2
  47.                                 myshardrs02     2
  48.                         { "nickname" : { "$minKey" : 1 } } -->> { "nickname" : NumberLong("-4611686018427387902") } on : myshardrs01 Timestamp(1, 0)
  49.                         { "nickname" : NumberLong("-4611686018427387902") } -->> { "nickname" : NumberLong(0) } on : myshardrs01 Timestamp(1, 1)
  50.                         { "nickname" : NumberLong(0) } -->> { "nickname" : NumberLong("4611686018427387902") } on : myshardrs02 Timestamp(1, 2)
  51.                         { "nickname" : NumberLong("4611686018427387902") } -->> { "nickname" : { "$maxKey" : 1 } } on : myshardrs02 Timestamp(1, 3)
复制代码
6.5、查看之前测试的数据

  1. mongos> show dbs
  2. admin   0.000GB
  3. config  0.003GB
  4. test    0.000GB
  5. mongos> use test
  6. switched to db test
  7. mongos> db.comment.count()
  8. 1000
  9. mongos> db.author.count()
  10. 2000
复制代码
  至此两个分片节点副本集(3+3)+ 一个配置节点副本集(3)+两个路由节点(2)的分片集群搭建完成

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

去皮卡多

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表