废话不多说,我电脑配置 i7四核cpu 8G内存
插入数据文档中有5个字段,当中有两个分词。一个int,一个date 批量插入測试一次10万循环10次总共100万用时85秒 批量插入測试一次10万循环100次总共1000万用时865秒 插入性能还是不错的
查询測试
在12166454数据中(约等于一千两百万)总共占用硬盘2.8G 查询分词字段 title:中国用时0.031秒 非分词字段查询 view_count:1 用时 0.030秒 范围查询 view_count:[0 TO 1000] 用时0.125秒 上面这些查询第二次查询的时候用时都在0.001秒之下应该是由于有缓存的原因 相对数据库的模糊查询优势及其明显。我用mysql两千万数据查询“%中国%”直接数据库卡掉了 (只是这么比較美意思。全文检索存储方式跟sql不一样,各有优劣)
在过亿的数据量中
插入一亿数据耗时1小时40分钟35秒插入过程中 内存占用70%左右 cpu没多少变化 11%左右
(上班写的,未完待续)