执行命令:
- python shard_chunk_analize.py --help

- python shard_chunk_analize.py -H 192.168.1.1 -P 27017 -u admin -p

大图连接http://blog.chinaunix.net/attachment/201310/22/15795819_1382455212mqsk.jpg
可以看出,第一个集合就是严重不平均的,因为之前删除数据,chunk并没有回收。
Mongos的平衡器只是根据chunk数量去平均的,并不关心chunk里面的数据大小,这其实是比较有缺陷的。在这样的环境下,我们需要谨慎的选择片键,尽可能的让数据平均。
执行条件:
python>=2.7 使用了OrderedDict
pymongo>2.4.1 并未严格测试,之前版本也可能支持。
请不要在系统压力大的情况下执行,切记!
脚本能力有限,见谅,大家如有需要,可自行修改,有任何bug请告诉我:horizonhyg#163.com