这周主要都花时间搞mongodb上了,业务场景是上游产出几个城市的全量道路code值,每个城市的数据量大概在100w~200w之间,每条数据对应好几个feature,形如:
{ code: 0, featureList: [{
caseId: 'xxxxxx', feature1: '', feature2: '', feature3: '', ... }] }
希望达到的效果:
1、通过选定不同feature的值,过滤得到对应的数据
2、支持过滤得到不含选定feature的数据
之前尝试过给每种 feature 做索引,但效率还是很慢(实际上是索引写错了地方...);然后考虑了一下组合索引,但由于查询条件多变,feature 之间排列组合全都做组合索引太麻烦了;最后,炎哥建议使用倒排索引
以前学mongdb是随便百度了一个菜鸟教程,只知道给mongodb加索引的方法,关于索引的细节、原理都不太清楚,于是决定仔细看看mongodb官网上关于索引的介绍。
虽然全英文啃起来比较吃力与费时,但收获太多了,如:mongodb有个Index Intersection的特性,大概就是通过建单索引,组合查询能自动组合索引,加快查询效率,完全解决了我遇到的关于组合索引问题;mongodb能建自己的空间索引等等。比起查询各种中文博客,还是直接翻官方文档来的好。
关于倒排索引,根据这篇博客,做了一些实践。本想利用 Aggregation Pipeline 建立倒排索引文档,结果半天不知道咋生成新文档,思考了一下感觉聚合还是更适合用来统计、找数据。随后使用 Map-Reduce 方法,一开始跑出结果后欣喜万分,但在随后与交叉索引对比查询效率时发现倒排数据有问题。搞了半天在官方文档中发现:
先前参考的博客reduce代码有问题... 而且博客里给出的是使用mongoose的nodejs代码,mongo内置SpiderMonkey引擎,支持JavaScript脚本,我写的MapReduce代码如下:
db = db.getSiblingDB('code'); // 库名 var mapFunction = function () { var feature = this.featureList, caseId = feature.CaseId; for (var key in feature) { if (key !== 'CaseId') { emit(key, { // 用于null查询 ids: [caseId] }); key = key + '_' + feature[key]; emit(key, { ids: [caseId] }); } } }; var reduceFunction = function (feature, caseId) { var ids = []; caseId.forEach(function (val) { ids = ids.concat(val.ids); // 这里注意reduce函数会调用多次,某一次的输出结果可能会变成下一次输入的一部分,所以要用concat }); return { ids }; }; var cols = db.getCollectionNames(); for (var i = 0; i < cols.length; i++) { if (cols[i].indexOf('_') !== -1 && cols[i].indexOf('invert') === -1) { db[cols[i]].mapReduce(mapFunction, reduceFunction, { out: {merge: cols[i] + '_invert'} }); } }
利用mongodb使用js脚本只需要写好js脚本后执行:
mongo xxx.js
这样大大方便了自动化灌库过程,之前我还傻乎乎的登上mongo shell,一句一句的输命令。现在只需要写一个bash脚本就能实现自动化灌库+建索引等等。不过没有console.log的话也不知道命令运行的状态这点有点坑
最后跑MapReduce时挂了,提示文档太大。mongodb默认单文档最大不超过16M:
想了想,如果200w条数据都含有同一个feature,那么这个feature倒排索引得到的文档大小=200 * 10000 * caseId(大概26个字节) / 1024 / 1024 = 50M。目前想到的方法是分表,MapReduce过程中通过scope选项注入变量start/end,每次map过程start递增,当start>=end时结束;下次令start=end,end += numLimit,继续执行MapReduce。不过分表还是无法应用null查询,难道把200w的caseId捞回来再利用$nin来查么?鉴于后来发现之前是将索引建错了地方,修改后的查询效率,在不查null时还算令人满意,就把这个优化暂时放一边了。之后有时间在搞吧,现在需求太多......
本来想遍历数据建立null索引,如:第一条数据没有feature1的话就建立一个feature1_null字段,后来发现遍历数据添加字段的效率只有500条/s左右,100w条数据需要跑30分钟,不太能令人满意,就也先放一边:
db = db.getSiblingDB('code'); let features = { ... }; let cols = db.getCollectionNames(); for (let i = 0; i < cols.length; i++) { if (cols[i].indexOf('_') !== -1) { let col = cols[i], cursor = db[col].find(), docs = cursor.toArray(); while (docs.length) { docs.forEach(function (doc) { let feature = doc.feature, local_features = []; for (let key in feature) { doc[key + '_' + feature[key]] = 1; local_features.push(key); } for (let key in features) { if (local_features.indexOf(key) === -1) { doc[key + '_null'] = 1; } } db[col].update({_id: doc._id}, doc); }); if (cursor.hasNext()) { cursor.next(); docs = cursor.toArray(); } else { break; } } for (let key in features) { features[key].forEach(function (val) { let index = {}; index[key + '_' + val] = 1; db[col].createIndex(index); }); let index = {}; index[key + '_null'] = 1; db[col].createIndex(index); } db[col].createIndex({finalCode: 1}); } }