zoukankan      html  css  js  c++  java
  • 一个死锁分析过程

    一小伙说他的程序死锁了,让帮忙看看。对死锁问题,首先祭出GDB这一神器。

    (gdb) bt

    #0  0xffffe410 in __kernel_vsyscall ()

    #1  0xf7fa790e in __lll_mutex_lock_wait () from /lib/libpthread.so.0

    #2  0xf7fa3a8b in _L_mutex_lock_81 () from /lib/libpthread.so.0

    #3  0xf7fa35be in pthread_mutex_lock () from /lib/libpthread.so.0

    #4  0x08316692 in mooon::sys::CLock::lock (this=0x89f59e0)

    第一步的目标是找到锁被谁持有了,这只需要找到死锁的位置,然后查看pthread_mutex_t.__owner值是什么。接下来使用GDB的“info threads”命令找到持有的线程。

    找到持有的线程后,查看它的调用栈:

    #0  0xffffe410 in __kernel_vsyscall ()

    #1  0xf7daea16 in __gxx_personality_v0 () from /lib/libc.so.6

    #2  0xf7ddccbc in usleep () from /lib/libc.so.6

    #3  0x0825a374 in CSHMPkg::LockWait (this=0xddb3ebb0) at SHMPkg.cpp:221

    这个时候需要看对应的源代码:

    bool CSHMPkg::LockWait()

    {

      if (strlen(m_lockFilePath) <= 0) return false;

      while (!m_readLock.LockFile(m_lockFilePath))

        usleep(10);

      return true;

    }

    进一步看加文件锁的代码:

    bool CFileLock::LockFile(const char* filePath)

    {

      m_fd = open(filePath, O_WRONLY|O_TRUNC, S_IRUSR|S_IWUSR);

      if(m_fd == -1)

        return false;

      if (write_lock(m_fd, 0, SEEK_SET, 1) == -1) {

        close(m_fd);

        m_fd = -1;

        return false;

      }

      return true;

    }

    初步估计while处死循环了,在usleep处打个断点可轻松确定是否死循环。结果确认这里是死循环了。因此问题在LockFile函数,它应当是返回了false。通过单步调试,发现是open失败。检查文件filePath存在,且权限正常,需要找出open失败的原因。

    因为open是个系统调用,因此只需要知道errno值即可知道原因。但errno是个宏,不能直接打印,找到宏errno的定义:

    #   define errno (*__errno_location ())

    GDB中调用__errno_location(),发现errno的值为24

    #define EMFILE 24 /* Too many open files */

    到这里,问题已清楚,执行shell命令ulimit -a查看,发现“open files”值为1024,在当下的服务器,1024是一个比较小的值。程序中大量采用redis集群直连,对fd的需求很大,进一步执行“netstat -antp”或lsof也可以看到。

    因此解决办法是调大open files”值,临时可使用ulimit调大,但一般还是得修改文件limits.conf。有关limits.conf,可阅读另一博文《源码解读Linuxlimits.conf文件》。

  • 相关阅读:
    Go jaegerde 应用【logger+gorm+grpc+http】
    Go gRPC 调试工具
    iris和xxl-job整合
    Go Grpc部署到 k8s【端口共享】
    rocketmq事务 go 采用rocketmq-client-go的实现
    Go Grpc部署到 k8s【负载均衡】
    ubuntu18安装Kubernetes 1.20.5
    k8s Python API
    go nacos服务发现
    k8s集群日志收集ELK和graylog
  • 原文地址:https://www.cnblogs.com/aquester/p/11487097.html
Copyright © 2011-2022 走看看