zoukankan      html  css  js  c++  java
  • Mongodb在使用过程中有什么问题

    mongodb在使用过程中有什么问题

    关于连接方面

    1. mongodb目标计算机积极拒绝无法连接

      此问题很多情况下是出现在window安装 Mongo时,出现的主要原因是配置没配好:

      1. 要把Mongo.exe添加系统环境中

      2. 在Mongo.exe的目录创建data/db目录来存放mongo的数据

      3. 在Mongo.exe的目录创建log文件来存放mongo的日志。

      这三个缺一不可,一定要注意路径!!

    2. 出现mongo.js的错误,如下:

    解决方法: 删除datadb文件下面的mongo.lock文件  重启服务 OK

    使用方面

     1.  bson size不能超过16MB的限制。单个文档的BSON size不能超过16MBfind查询有时会遇到16MB的限制,譬如使用$in 查询的时候,in中的数组元素不能太多

     2. Mongo对于时间的存储使用的MongoDate时间是UTC的,要使用日期格式来存储。

    3. 使用count()统计数量错误。 需要使用aggregate pipeline来得到正确统计结果

    4. shell中更新/写入到文档的数字,会变为float类型

    5. DB中的namespace数量太多导致无法创建新的collection

       错误提示:error: hashtable namespace index max chain reached:1335,如何解决呢?

      修改nssize参数并重启Mongodb,这新nssize只会对新加入的DB生效,对以前已经存在的DB不生效,如果你想对已经存在的DB采用新的nssize,必须在加大nssize重启之后新建DB,然后把旧DBcollection 复制到新DB中。

    6. moveChunk因旧数据未删除而失败.

        错误日志:”moveChunk failed to engage TO-shard in the data transfer: can't accept new chunks because there are still 1 deletes from previous migration“

    意思是说,当前正要去接受新chunk shard正在删除上一次数据迁移出的数据,不能接受新Chunk,于是本次迁移失败。这种log里显示的是warning,但有时候会发现shard的删除持续了十几天都没完成,查看日志,可以发现同一个chunk的删除在不断重复执行,重启所有无法接受新chunkshard可以解决这个问题

    解决办法: 重启Mongodb

    7. mongo对数据分页慢。

       这是因为Mongo是吧分页的数据加载到内存中,由于内存限制,会越来越慢,如何解决?

       分页时不要使用SKIP来实现。应该使用查询条件+排序+限制返回记录的方法,即边查询,边排序,排序之后,抽取上一页中的最后一条记录,作为当前分页的查询条件,从而避免了skip效率低下的问题。

  • 相关阅读:
    4-数组、指针与字符串1.3-this指针
    Linux命令----cp
    Linux命令----mv
    Linux命令----rm
    PHP7下的协程实现 转
    php生成器 yield 转
    python并发编程之多进程(实践篇) 转
    python 多进程
    线程创建 线程数
    多任务 执行
  • 原文地址:https://www.cnblogs.com/pythonlyz/p/10326253.html
Copyright © 2011-2022 走看看