• Mongodb在使用过程中有什么问题


    mongodb在使用过程中有什么问题

    关于连接方面

    1. mongodb目标计算机积极拒绝无法连接

      此问题很多情况下是出现在window安装 Mongo时,出现的主要原因是配置没配好:

      1. 要把Mongo.exe添加系统环境中

      2. 在Mongo.exe的目录创建data/db目录来存放mongo的数据

      3. 在Mongo.exe的目录创建log文件来存放mongo的日志。

      这三个缺一不可,一定要注意路径!!

    2. 出现mongo.js的错误,如下:

    解决方法: 删除datadb文件下面的mongo.lock文件  重启服务 OK

    使用方面

     1.  bson size不能超过16MB的限制。单个文档的BSON size不能超过16MBfind查询有时会遇到16MB的限制,譬如使用$in 查询的时候,in中的数组元素不能太多

     2. Mongo对于时间的存储使用的MongoDate时间是UTC的,要使用日期格式来存储。

    3. 使用count()统计数量错误。 需要使用aggregate pipeline来得到正确统计结果

    4. shell中更新/写入到文档的数字,会变为float类型

    5. DB中的namespace数量太多导致无法创建新的collection

       错误提示:error: hashtable namespace index max chain reached:1335,如何解决呢?

      修改nssize参数并重启Mongodb,这新nssize只会对新加入的DB生效,对以前已经存在的DB不生效,如果你想对已经存在的DB采用新的nssize,必须在加大nssize重启之后新建DB,然后把旧DBcollection 复制到新DB中。

    6. moveChunk因旧数据未删除而失败.

        错误日志:”moveChunk failed to engage TO-shard in the data transfer: can't accept new chunks because there are still 1 deletes from previous migration“

    意思是说,当前正要去接受新chunk shard正在删除上一次数据迁移出的数据,不能接受新Chunk,于是本次迁移失败。这种log里显示的是warning,但有时候会发现shard的删除持续了十几天都没完成,查看日志,可以发现同一个chunk的删除在不断重复执行,重启所有无法接受新chunkshard可以解决这个问题

    解决办法: 重启Mongodb

    7. mongo对数据分页慢。

       这是因为Mongo是吧分页的数据加载到内存中,由于内存限制,会越来越慢,如何解决?

       分页时不要使用SKIP来实现。应该使用查询条件+排序+限制返回记录的方法,即边查询,边排序,排序之后,抽取上一页中的最后一条记录,作为当前分页的查询条件,从而避免了skip效率低下的问题。

  • 相关阅读:
    观察者模式
    Java中关于HashMap源码的研究
    抽象工厂模式
    适配器模式
    oracle创建表空间并赋予权限
    外观模式
    oracle中循环读出一个表的信息插入到另外一个表中
    javaScript对金额处理的方式
    装饰器模式
    建造者模式
  • 原文地址:https://www.cnblogs.com/pythonlyz/p/10326253.html
Copyright © 2020-2023  润新知