zoukankan      html  css  js  c++  java
  • Socket 死连接详解

    http://blog.csdn.net/educast/article/details/7463194 当使用 Socket 进行通信时,由于各种不同的因素,都有可能导致死连接停留在服务器端,假如服务端需要处理的连接较多,就有可能造成服务器资源严重浪费,对此,本文将阐述其原理以及解决方法。 在写 Socket 进行通讯时,我们必须预料到各种可能发生的情况并对其进行处理,通常情况下,有以下两种情况可能造成死连接:
    • 通讯程序编写不完善
    • 网络/硬件故障
      a) 通讯程序编写不完善  这里要指出的一点就是,绝大多数程序都是由于程序编写不完善所造成的死连接,即对 Socket 未能进行完善的管理,导致占用端口导致服务器资源耗尽。当然,很多情况下,程序可能不是我们所写,而由于程序代码的复杂、杂乱等原因所导致难以维护也是我们所需要面对的。 网上有很多文章都提到 Socket 长时间处于 CLOSE_WAIT 状态下的问题,说可以使用 Keepalive 选项设置 TCP 心跳来解决,但是却发现设置选项后未能收到效果 。 因此,这里我分享出自己的解决方案: Windows 中对于枚举系统网络连接有一些非常方便的 API:
    • GetTcpTable : 获得 TCP 连接表
    • GetExtendedTcpTable : 获得扩展后的 TCP 连接表,相比 GetTcpTable 更为强大,可以获取与连接的进程 ID
    • SetTcpEntry : 设置 TCP 连接状态,但据 MSDN 所述,只能设置状态为 DeleteTcb,即删除连接
    相信大多数朋友看到这些 API ,就已经了解到我们下一步要做什么了;枚举所有 TCP 连接,筛选出本进程的连接,最后判断是否 CLOSE_WAIT 状态,如果是,则使用 SetTcpEntry 关闭。 其实 Sysinternal 的 TcpView 工具也是应用上述 API 实现其功能的,此工具为我常用的网络诊断工具,同时也可作为一个简单的手动式网络防火墙。 下面来看 Zealic 封装后的代码: TcpManager.cs /** <code> <revsion>$Rev: 0 $</revision> <owner name="Zealic" mail="rszealic(at)gmail.com" /> </code> **/ using System; using System.Collections.Generic; using System.Diagnostics; using System.Net; using System.Net.NetworkInformation; using System.Runtime.InteropServices; namespace Zealic.Network { /// <summary> /// TCP 管理器 /// </summary> publicstaticclass TcpManager { #region PInvoke define privateconstint TCP_TABLE_OWNER_PID_ALL = 5; [DllImport("iphlpapi.dll", SetLastError = true)] privatestaticexternuint GetExtendedTcpTable( IntPtr pTcpTable, refint dwOutBufLen, bool sort, int ipVersion, int tblClass, int reserved); [DllImport("iphlpapi.dll")] privatestaticexternint SetTcpEntry(ref MIB_TCPROW pTcpRow); [StructLayout(LayoutKind.Sequential)] privatestruct MIB_TCPROW { public TcpState dwState; publicint dwLocalAddr; publicint dwLocalPort; publicint dwRemoteAddr; publicint dwRemotePort; } [StructLayout(LayoutKind.Sequential)] privatestruct MIB_TCPROW_OWNER_PID { public TcpState dwState; publicuint dwLocalAddr; publicint dwLocalPort; publicuint dwRemoteAddr; publicint dwRemotePort; publicint dwOwningPid; } [StructLayout(LayoutKind.Sequential)] privatestruct MIB_TCPTABLE_OWNER_PID { publicuint dwNumEntries; private MIB_TCPROW_OWNER_PID table; } #endregion privatestatic MIB_TCPROW_OWNER_PID[] GetAllTcpConnections() { constint NO_ERROR = 0; constint IP_v4 = 2; MIB_TCPROW_OWNER_PID[] tTable = null; int buffSize = 0; GetExtendedTcpTable(IntPtr.Zero, ref buffSize, true, IP_v4, TCP_TABLE_OWNER_PID_ALL, 0); IntPtr buffTable = Marshal.AllocHGlobal(buffSize); try { if (NO_ERROR != GetExtendedTcpTable(buffTable, ref buffSize, true, IP_v4, TCP_TABLE_OWNER_PID_ALL, 0)) returnnull; MIB_TCPTABLE_OWNER_PID tab = (MIB_TCPTABLE_OWNER_PID)Marshal.PtrToStructure(buffTable, typeof(MIB_TCPTABLE_OWNER_PID)); IntPtr rowPtr = (IntPtr)((long)buffTable + Marshal.SizeOf(tab.dwNumEntries)); tTable = new MIB_TCPROW_OWNER_PID[tab.dwNumEntries]; int rowSize = Marshal.SizeOf(typeof(MIB_TCPROW_OWNER_PID)); for (int i = 0; i < tab.dwNumEntries; i++) { MIB_TCPROW_OWNER_PID tcpRow = (MIB_TCPROW_OWNER_PID)Marshal.PtrToStructure(rowPtr, typeof(MIB_TCPROW_OWNER_PID)); tTable[i] = tcpRow; rowPtr = (IntPtr)((int)rowPtr + rowSize); } } finally { Marshal.FreeHGlobal(buffTable); } return tTable; } privatestaticint TranslatePort(int port) { return ((port & 0xFF) << 8 | (port & 0xFF00) >> 8); } publicstaticbool Kill(TcpConnectionInfo conn) { if (conn == null) thrownew ArgumentNullException("conn"); MIB_TCPROW row = new MIB_TCPROW(); row.dwState = TcpState.DeleteTcb; #pragma warning disable 612,618 row.dwLocalAddr = (int)conn.LocalEndPoint.Address.Address; #pragma warning restore 612,618 row.dwLocalPort = TranslatePort(conn.LocalEndPoint.Port); #pragma warning disable 612,618 row.dwRemoteAddr = (int)conn.RemoteEndPoint.Address.Address; #pragma warning restore 612,618 row.dwRemotePort = TranslatePort(conn.RemoteEndPoint.Port); return SetTcpEntry(ref row) == 0; } publicstaticbool Kill(IPEndPoint localEndPoint, IPEndPoint remoteEndPoint) { if (localEndPoint == null) thrownew ArgumentNullException("localEndPoint"); if (remoteEndPoint == null) thrownew ArgumentNullException("remoteEndPoint"); MIB_TCPROW row = new MIB_TCPROW(); row.dwState = TcpState.DeleteTcb; #pragma warning disable 612,618 row.dwLocalAddr = (int)localEndPoint.Address.Address; #pragma warning restore 612,618 row.dwLocalPort = TranslatePort(localEndPoint.Port); #pragma warning disable 612,618 row.dwRemoteAddr = (int)remoteEndPoint.Address.Address; #pragma warning restore 612,618 row.dwRemotePort = TranslatePort(remoteEndPoint.Port); return SetTcpEntry(ref row) == 0; } publicstatic TcpConnectionInfo[] GetTableByProcess(int pid) { MIB_TCPROW_OWNER_PID[] tcpRows = GetAllTcpConnections(); if (tcpRows == null) returnnull; List<TcpConnectionInfo> list = new List<TcpConnectionInfo>(); foreach (MIB_TCPROW_OWNER_PID row in tcpRows) { if (row.dwOwningPid == pid) { int localPort = TranslatePort(row.dwLocalPort); int remotePort = TranslatePort(row.dwRemotePort); TcpConnectionInfo conn = new TcpConnectionInfo( new IPEndPoint(row.dwLocalAddr, localPort), new IPEndPoint(row.dwRemoteAddr, remotePort), row.dwState); list.Add(conn); } } return list.ToArray(); } publicstatic TcpConnectionInfo[] GetTalbeByCurrentProcess() { return GetTableByProcess(Process.GetCurrentProcess().Id); } } }TcpConnectionInfo.cs /** <code> <revsion>$Rev: 608 $</revision> <owner name="Zealic" mail="rszealic(at)gmail.com" /> </code> **/ using System; using System.Collections.Generic; using System.Net; using System.Net.NetworkInformation; namespace Zealic.Network { /// <summary> /// TCP 连接信息 /// </summary> publicsealedclass TcpConnectionInfo : IEquatable<TcpConnectionInfo>, IEqualityComparer<TcpConnectionInfo> { privatereadonly IPEndPoint _LocalEndPoint; privatereadonly IPEndPoint _RemoteEndPoint; privatereadonly TcpState _State; public TcpConnectionInfo(IPEndPoint localEndPoint, IPEndPoint remoteEndPoint, TcpState state) { if (localEndPoint == null) thrownew ArgumentNullException("localEndPoint"); if (remoteEndPoint == null) thrownew ArgumentNullException("remoteEndPoint"); _LocalEndPoint = localEndPoint; _RemoteEndPoint = remoteEndPoint; _State = state; } public IPEndPoint LocalEndPoint { get { return _LocalEndPoint; } } public IPEndPoint RemoteEndPoint { get { return _RemoteEndPoint; } } public TcpState State { get { return _State; } } publicbool Equals(TcpConnectionInfo x, TcpConnectionInfo y) { return (x.LocalEndPoint.Equals(y.LocalEndPoint) && x.RemoteEndPoint.Equals(y.RemoteEndPoint)); } publicint GetHashCode(TcpConnectionInfo obj) { return obj.LocalEndPoint.GetHashCode() ^ obj.RemoteEndPoint.GetHashCode(); } publicbool Equals(TcpConnectionInfo other) { return Equals(this, other); } publicoverridebool Equals(object obj) { if (obj == null || !(obj is TcpConnectionInfo)) returnfalse; return Equals(this, (TcpConnectionInfo)obj); } } }  至此,我们可以通过 TcpManager 类的 GetTableByProcess 方法获取进程中所有的 TCP 连接信息,然后通过  Kill 方法强制关连接以回收系统资源,虽然很C很GX,但是很有效。 通常情况下,我们可以使用 Timer 来定时检测进程中的 TCP 连接状态,确定其是否处于 CLOSE_WAIT 状态,当超过指定的次数/时间时,就把它干掉。 不过,相对这样的解决方法,我还是推荐在设计 Socket 服务端程序的时候,一定要管理所有的连接,而非上述方法。   b) 网络/硬件故障  现在我们再来看第二种情况,当网络/硬件故障时,如何应对;与上面不同,这样的情况 TCP 可能处于 ESTABLISHED、CLOSE_WAIT、FIN_WAIT 等状态中的任何一种,这时才是 Keepalive 该出马的时候。 默认情况下 Keepalive 的时间设置为两小时,如果是请求比较多的服务端程序,两小时未免太过漫长,等到它时间到,估计连黄花菜都凉了,好在我们可以通过 Socket.IOControl 方法手动设置其属性,以达到我们的目的。 关键代码如下: // 假设 accepted 到的 Socket 为变量 client ... // 设置 TCP 心跳,空闲 15 秒,每 5 秒检查一次 byte[] inOptionValues = newbyte[4 * 3]; BitConverter.GetBytes((uint)1).CopyTo(inOptionValues, 0); BitConverter.GetBytes((uint)15000).CopyTo(inOptionValues, 4); BitConverter.GetBytes((uint)5000).CopyTo(inOptionValues, 8); client.IOControl(IOControlCode.KeepAliveValues, inOptionValues, null);  以上代码的作用就是设置 TCP 心跳为 5 秒,当三次检测到无法与客户端连接后,将会关闭 Socket。 相信上述代码加上说明,对于有一定基础读者理解起来应该不难,今天到此为止。   c) 结束语  其实对于 Socket程序设计来说,良好的通信协议才是稳定的保证,类似于这样的问题,如果在应用程序通信协议中加入自己的心跳包,不仅可以处理多种棘手的问题, 还可以在心跳中加入自己的简单校验功能,防止包数据被 WPE 等软件篡改。但是,很多情况下这些都不是我们所能决定的,因此,才有了本文中提出的方法。
  • 相关阅读:
    Hibernate常用查询
    Hibernate多对多
    Hibernate简单检索方式(查询方式)
    Hibernate入门代码
    Hibernate一对多
    什么是Hibernate
    SpirngMVC入门第一天
    Docker一键部署Hadoop心得(二)
    Docker一键部署Hadoop心得(一)
    安装Docker的三种方式
  • 原文地址:https://www.cnblogs.com/adodo1/p/4328050.html
Copyright © 2011-2022 走看看