zoukankan      html  css  js  c++  java
  • SQL Server死锁产生原因及解决办法 .

    其实所有的死锁最深层的原因就是一个:资源竞争

    表现一:

      一个用户A 访问表A(锁住了表A),然后又访问表B,另一个用户B 访问表B(锁住了表B),然后企图访问表A,这时用户A由于用户B已经锁住表B,它必须等待用户B释放表B,才能继续,好了他老人家就只好老老实实在这等了,同样用户B要等用户A释放表A才能继续这就死锁了。

      解决方法:

      这种死锁是由于你的程序的BUG产生的,除了调整你的程序的逻辑别无他法

      仔细分析你程序的逻辑:

      1:尽量避免同时锁定两个资源

      2: 必须同时锁定两个资源时,要保证在任何时刻都应该按照相同的顺序来锁定资源.

    表现二:

      用户A读一条纪录,然后修改该条纪录。这是用户B修改该条纪录,这里用户A的事务里锁的性质由共享锁企图上升到独占锁(for update),而用户B里的独占锁由于A有共享锁存在所以必须等A释放掉共享锁,而A由于B的独占锁而无法上升的独占锁也就不可能释放共享锁,于是出现了死锁。

      这种死锁比较隐蔽,但其实在稍大点的项目中经常发生。

      解决方法:

      让用户A的事务(即先读后写类型的操作),在select 时就是用Update lock

      语法如下:

            select * from table1 with(updlock) where ....

    --------------------------------------------------------------------------------

    接上面文章,继续探讨数据库死锁问题 

    死锁,简而言之,两个或者多个trans,同时请求对方正在请求的某个对象,导致双方互相等待。简单的例子如下:
       trans1                                                    trans2
       ------------------------------------------------------------------------------------------------
       1.IDBConnection.BeginTransaction    1.IDBConnection.BeginTransaction
       2.update table A                                2.update table B
       3.update table B                                3.update table A
       4.IDBConnection.Commit                   4.IDBConnection.Commit
       那么,很容易看到,如果trans1和trans2,分别到达了step3,那么trans1会请求对于B的X锁,trans2会请求对于A的X锁,而二者的锁在step2上已经被对方分别持有了。由于得不到锁,后面的Commit无法执行,这样双方开始死锁。

       好,我们看一个简单的例子,来解释一下,应该如何解决死锁问题。


       -- Batch #1


       CREATE DATABASE deadlocktest
       GO


       USE deadlocktest
       SET NOCOUNT ON
       DBCC TRACEON (1222, -1)
       -- 在SQL2005中,增加了一个新的dbcc参数,就是1222,原来在2000下,我们知道,可以执行dbcc   
       -- traceon(1204,3605,-1)看到所有的死锁信息。SqlServer 2005中,对于1204进行了增强,这就是1222。
       GO  
      
       IF OBJECT_ID ('t1') IS NOT NULL DROP TABLE t1
       IF OBJECT_ID ('p1') IS NOT NULL DROP PROC p1
       IF OBJECT_ID ('p2') IS NOT NULL DROP PROC p2
       GO

       CREATE TABLE t1 (c1 int, c2 int, c3 int, c4 char(5000))
       GO

       DECLARE @x int
       SET @x = 1
       WHILE (@x <= 1000) BEGIN
                INSERT INTO t1 VALUES (@x*2, @x*2, @x*2, @x*2)
                SET @x = @x + 1
       END
       GO

       CREATE CLUSTERED INDEX cidx ON t1 (c1)
       CREATE NONCLUSTERED INDEX idx1 ON t1 (c2)
       GO

       CREATE PROC p1 @p1 int AS SELECT c2, c3 FROM t1 WHERE c2 BETWEEN @p1 AND @p1+1
       GO

       CREATE PROC p2 @p1 int AS
                UPDATE t1 SET c2 = c2+1 WHERE c1 = @p1
                UPDATE t1 SET c2 = c2-1 WHERE c1 = @p1
       GO

       上述sql创建一个deadlock的示范数据库,插入了1000条数据,并在表t1上建立了c1列的聚集索引,和c2列的非聚集索引。另外创建了两个sp,分别是从t1中select数据和update数据。

       好,打开一个新的查询窗口,我们开始执行下面的query:


       -- Batch #2

       USE deadlocktest
       SET NOCOUNT ON
       WHILE (1=1) EXEC p2 4
       GO

       开始执行后,然后我们打开第三个查询窗口,执行下面的query:


       -- Batch #3

       USE deadlocktest
       SET NOCOUNT ON
       CREATE TABLE #t1 (c2 int, c3 int)
       GO

       WHILE (1=1) BEGIN
                 INSERT INTO #t1 EXEC p1 4
                 TRUNCATE TABLE #t1
       END
       GO

       开始执行,哈哈,很快,我们看到了这样的错误信息:
       Msg 1205, Level 13, State 51, Procedure p1, Line 4
       Transaction (Process ID 54) was deadlocked on lock resources with another process and has been chosen as the deadlock victim. Rerun the transaction.

       spid54发现了死锁。
       那么,我们该如何解决它?

       在SqlServer 2005中,我们可以这么做:
       1.在trans3的窗口中,选择EXEC p1 4,然后right click,看到了菜单了吗?选择Analyse Query in Database Engine Tuning Advisor。
       2.注意右面的窗口中,wordload有三个选择:负载文件、表、查询语句,因为我们选择了查询语句的方式,所以就不需要修改这个radio option了。
       3.点左上角的Start Analysis按钮
       4.抽根烟,回来后看结果吧!出现了一个分析结果窗口,其中,在Index Recommendations中,我们发现了一条信息:大意是,在表t1上增加一个非聚集索引索引:t2+t1。
       5.在当前窗口的上方菜单上,选择Action菜单,选择Apply Recommendations,系统会自动创建这个索引。

       重新运行batch #3,呵呵,死锁没有了。

    为什么会死锁呢?再回顾一下两个sp的写法:
       CREATE PROC p1 @p1 int AS
          SELECT c2, c3 FROM t1 WHERE c2 BETWEEN @p1 AND @p1+1
       GO


       CREATE PROC p2 @p1 int AS
             UPDATE t1 SET c2 = c2+1 WHERE c1 = @p1
             UPDATE t1 SET c2 = c2-1 WHERE c1 = @p1
       GO

       很奇怪吧!p1没有insert,没有delete,没有update,只是一个select,p2才是update。这个和我们前面说过的,trans1里面updata A,update B;trans2里面upate B,update A,根本不贴边啊!
       那么,什么导致了死锁?

       需要从事件日志中,看sql的死锁信息:
       Spid X is running this query (line 2 of proc [p1], inputbuffer “… EXEC p1 4 …”):
       SELECT c2, c3 FROM t1 WHERE c2 BETWEEN @p1 AND @p1+1
       Spid Y is running this query (line 2 of proc [p2], inputbuffer “EXEC p2 4”):
       UPDATE t1 SET c2 = c2+1 WHERE c1 = @p1
                   
       The SELECT is waiting for a Shared KEY lock on index t1.cidx.  The UPDATE holds a conflicting X lock.
       The UPDATE is waiting for an eXclusive KEY lock on index t1.idx1.  The SELECT holds a conflicting S lock.

       首先,我们看看p1的执行计划。怎么看呢?可以执行set statistics profile on,这句就可以了。下面是p1的执行计划


       SELECT c2, c3 FROM t1 WHERE c2 BETWEEN @p1 AND @p1+1
            |--Nested Loops(Inner Join, OUTER REFERENCES:([Uniq1002], [t1].[c1]))
                   |--Index Seek(OBJECT:([t1].[idx1]), SEEK:([t1].[c2] >= [@p1] AND [t1].[c2] <= [@p1]+(1)) ORDERED FORWARD)
                         |--Clustered Index Seek(OBJECT:([t1].[cidx]), SEEK:([t1].[c1]=[t1].[c1] AND [Uniq1002]=[Uniq1002]) LOOKUP ORDERED FORWARD)

       我们看到了一个nested loops,第一行,利用索引t1.c2来进行seek,seek出来的那个rowid,在第二行中,用来通过聚集索引来查找整行的数据。这是什么?就是bookmark lookup啊!为什么?因为我们需要的c2、c3不能完全的被索引t1.c1带出来,所以需要书签查找。
       好,我们接着看p2的执行计划。


       UPDATE t1 SET c2 = c2+1 WHERE c1 = @p1
             |--Clustered Index Update(OBJECT:([t1].[cidx]), OBJECT:([t1].[idx1]), SET:([t1].[c2] = [Expr1004]))
                   |--Compute Scalar(DEFINE:([Expr1013]=[Expr1013]))
                         |--Compute Scalar(DEFINE:([Expr1004]=[t1].[c2]+(1), [Expr1013]=CASE WHEN CASE WHEN ...
                               |--Top(ROWCOUNT est 0)
                                     |--Clustered Index Seek(OBJECT:([t1].[cidx]), SEEK:([t1].[c1]=[@p1]) ORDERED FORWARD)

       通过聚集索引的seek找到了一行,然后开始更新。这里注意的是,update的时候,它会申请一个针对clustered index的X锁的。

       实际上到这里,我们就明白了为什么update会对select产生死锁。update的时候,会申请一个针对clustered index的X锁,这样就阻塞住了(注意,不是死锁!)select里面最后的那个clustered index seek。死锁的另一半在哪里呢?注意我们的select语句,c2存在于索引idx1中,c1是一个聚集索引cidx。问题就在这里!我们在p2中更新了c2这个值,所以sqlserver会自动更新包含c2列的非聚集索引:idx1。而idx1在哪里?就在我们刚才的select语句中。而对这个索引列的更改,意味着索引集合的某个行或者某些行,需要重新排列,而重新排列,需要一个X锁。
       SO………,问题就这样被发现了。

       总结一下,就是说,某个query使用非聚集索引来select数据,那么它会在非聚集索引上持有一个S锁。当有一些select的列不在该索引上,它需要根据rowid找到对应的聚集索引的那行,然后找到其他数据。而此时,第二个的查询中,update正在聚集索引上忙乎:定位、加锁、修改等。但因为正在修改的某个列,是另外一个非聚集索引的某个列,所以此时,它需要同时更改那个非聚集索引的信息,这就需要在那个非聚集索引上,加第二个X锁。select开始等待update的X锁,update开始等待select的S锁,死锁,就这样发生鸟。

       那么,为什么我们增加了一个非聚集索引,死锁就消失鸟?我们看一下,按照上文中自动增加的索引之后的执行计划:


       SELECT c2, c3 FROM t1 WHERE c2 BETWEEN @p1 AND @p1+1
          |--Index Seek(OBJECT:([deadlocktest].[dbo].[t1].[_dta_index_t1_7_2073058421__K2_K1_3]), SEEK:([deadlocktest].[dbo].[t1].[c2] >= [@p1] AND [deadlocktest].[dbo].[t1].[c2] <= [@p1]+(1)) ORDERED FORWARD)

       哦,对于clustered index的需求没有了,因为增加的覆盖索引已经足够把所有的信息都select出来。就这么简单。

       实际上,在sqlserver 2005中,如果用profiler来抓eventid:1222,那么会出现一个死锁的图,很直观的说。

       下面的方法,有助于将死锁减至最少(详细情况,请看SQLServer联机帮助,搜索:将死锁减至最少即可。

           . 按同一顺序访问对象。 
           . 避免事务中的用户交互。 
           . 保持事务简短并处于一个批处理中。 
           . 使用较低的隔离级别。 
           . 使用基于行版本控制的隔离级别。 
                  . 将 READ_COMMITTED_SNAPSHOT 数据库选项设置为 ON,使得已提交读事务使用行版本控制。 
                  . 使用快照隔离。 
           . 使用绑定连接。

    --------------------------------------------------------------------------------
    那么需要我们弄懂一个问题,什么是索引,如何添加索引及其使用规则?
    这里有前辈总接出得文章,拿来直接用,我就没必要在重写一次了
    SQL Server 索引结构及其使用(一)
    作者:freedk
    一、深入浅出理解索引结构
      实际上,您可以把索引理解为一种特殊的目录。微软的SQL SERVER提供了两种索引:聚集索引(clustered index,也称聚类索引、簇集索引)和非聚集索引(nonclustered index,也称非聚类索引、非簇集索引)。下面,我们举例来说明一下聚集索引和非聚集索引的区别:
      其实,我们的汉语字典的正文本身就是一个聚集索引。比如,我们要查“安”字,就会很自然地翻开字典的前几页,因为“安”的拼音是“an”,而按照拼音排序汉字的字典是以英文字母“a”开头并以“z”结尾的,那么“安”字就自然地排在字典的前部。如果您翻完了所有以“a”开头的部分仍然找不到这个字,那么就说明您的字典中没有这个字;同样的,如果查“张”字,那您也会将您的字典翻到最后部分,因为“张”的拼音是“zhang”。也就是说,字典的正文部分本身就是一个目录,您不需要再去查其他目录来找到您需要找的内容。我们把这种正文内容本身就是一种按照一定规则排列的目录称为“聚集索引”。
      如果您认识某个字,您可以快速地从自动中查到这个字。但您也可能会遇到您不认识的字,不知道它的发音,这时候,您就不能按照刚才的方法找到您要查的字,而需要去根据“偏旁部首”查到您要找的字,然后根据这个字后的页码直接翻到某页来找到您要找的字。但您结合“部首目录”和“检字表”而查到的字的排序并不是真正的正文的排序方法,比如您查“张”字,我们可以看到在查部首之后的检字表中“张”的页码是672页,检字表中“张”的上面是“驰”字,但页码却是63页,“张”的下面是“弩”字,页面是390页。很显然,这些字并不是真正的分别位于“张”字的上下方,现在您看到的连续的“驰、张、弩”三字实际上就是他们在非聚集索引中的排序,是字典正文中的字在非聚集索引中的映射。我们可以通过这种方式来找到您所需要的字,但它需要两个过程,先找到目录中的结果,然后再翻到您所需要的页码。我们把这种目录纯粹是目录,正文纯粹是正文的排序方式称为“非聚集索引”。
      通过以上例子,我们可以理解到什么是“聚集索引”和“非聚集索引”。进一步引申一下,我们可以很容易的理解:每个表只能有一个聚集索引,因为目录只能按照一种方法进行排序。
     
    二、何时使用聚集索引或非聚集索引
    下面的表总结了何时使用聚集索引或非聚集索引(很重要):
    动作描述 使用聚集索引 使用非聚集索引
    列经常被分组排序
    返回某范围内的数据 不应
    一个或极少不同值 不应 不应
    小数目的不同值 不应
    大数目的不同值 不应
    频繁更新的列 不应
    外键列
    主键列
    频繁修改索引列 不应
      事实上,我们可以通过前面聚集索引和非聚集索引的定义的例子来理解上表。如:返回某范围内的数据一项。比如您的某个表有一个时间列,恰好您把聚合索引建立在了该列,这时您查询2004年1月1日至2004年10月1日之间的全部数据时,这个速度就将是很快的,因为您的这本字典正文是按日期进行排序的,聚类索引只需要找到要检索的所有数据中的开头和结尾数据即可;而不像非聚集索引,必须先查到目录中查到每一项数据对应的页码,然后再根据页码查到具体内容。
    三、结合实际,谈索引使用的误区
      理论的目的是应用。虽然我们刚才列出了何时应使用聚集索引或非聚集索引,但在实践中以上规则却很容易被忽视或不能根据实际情况进行综合分析。下面我们将根据在实践中遇到的实际问题来谈一下索引使用的误区,以便于大家掌握索引建立的方法。
    1、主键就是聚集索引
      这种想法笔者认为是极端错误的,是对聚集索引的一种浪费。虽然SQL SERVER默认是在主键上建立聚集索引的。
      通常,我们会在每个表中都建立一个ID列,以区分每条数据,并且这个ID列是自动增大的,步长一般为1。我们的这个办公自动化的实例中的列Gid就是如此。此时,如果我们将这个列设为主键,SQL SERVER会将此列默认为聚集索引。这样做有好处,就是可以让您的数据在数据库中按照ID进行物理排序,但笔者认为这样做意义不大。
      显而易见,聚集索引的优势是很明显的,而每个表中只能有一个聚集索引的规则,这使得聚集索引变得更加珍贵。
      从我们前面谈到的聚集索引的定义我们可以看出,使用聚集索引的最大好处就是能够根据查询要求,迅速缩小查询范围,避免全表扫描。在实际应用中,因为ID号是自动生成的,我们并不知道每条记录的ID号,所以我们很难在实践中用ID号来进行查询。这就使让ID号这个主键作为聚集索引成为一种资源浪费。其次,让每个ID号都不同的字段作为聚集索引也不符合“大数目的不同值情况下不应建立聚合索引”规则;当然,这种情况只是针对用户经常修改记录内容,特别是索引项的时候会负作用,但对于查询速度并没有影响。
      在办公自动化系统中,无论是系统首页显示的需要用户签收的文件、会议还是用户进行文件查询等任何情况下进行数据查询都离不开字段的是“日期”还有用户本身的“用户名”。
      通常,办公自动化的首页会显示每个用户尚未签收的文件或会议。虽然我们的where语句可以仅仅限制当前用户尚未签收的情况,但如果您的系统已建立了很长时间,并且数据量很大,那么,每次每个用户打开首页的时候都进行一次全表扫描,这样做意义是不大的,绝大多数的用户1个月前的文件都已经浏览过了,这样做只能徒增数据库的开销而已。事实上,我们完全可以让用户打开系统首页时,数据库仅仅查询这个用户近3个月来未阅览的文件,通过“日期”这个字段来限制表扫描,提高查询速度。如果您的办公自动化系统已经建立的2年,那么您的首页显示速度理论上将是原来速度8倍,甚至更快。
      在这里之所以提到“理论上”三字,是因为如果您的聚集索引还是盲目地建在ID这个主键上时,您的查询速度是没有这么高的,即使您在“日期”这个字段上建立的索引(非聚合索引)。下面我们就来看一下在1000万条数据量的情况下各种查询的速度表现(3个月内的数据为25万条):
    (1)仅在主键上建立聚集索引,并且不划分时间段:
    Select gid,fariqi,neibuyonghu,title from tgongwen
    用时:128470毫秒(即:128秒)
    (2)在主键上建立聚集索引,在fariq上建立非聚集索引:
    select gid,fariqi,neibuyonghu,title from Tgongwen
    where fariqi> dateadd(day,-90,getdate())
    用时:53763毫秒(54秒)
    (3)将聚合索引建立在日期列(fariqi)上:
    select gid,fariqi,neibuyonghu,title from Tgongwen
    where fariqi> dateadd(day,-90,getdate())
    用时:2423毫秒(2秒)
      虽然每条语句提取出来的都是25万条数据,各种情况的差异却是巨大的,特别是将聚集索引建立在日期列时的差异。事实上,如果您的数据库真的有1000万容量的话,把主键建立在ID列上,就像以上的第1、2种情况,在网页上的表现就是超时,根本就无法显示。这也是我摒弃ID列作为聚集索引的一个最重要的因素。得出以上速度的方法是:在各个select语句前加:
    declare @d datetime
    set @d=getdate()
    并在select语句后加:
    select [语句执行花费时间(毫秒)]=datediff(ms,@d,getdate())
    2、只要建立索引就能显著提高查询速度
      事实上,我们可以发现上面的例子中,第2、3条语句完全相同,且建立索引的字段也相同;不同的仅是前者在fariqi字段上建立的是非聚合索引,后者在此字段上建立的是聚合索引,但查询速度却有着天壤之别。所以,并非是在任何字段上简单地建立索引就能提高查询速度。
      从建表的语句中,我们可以看到这个有着1000万数据的表中fariqi字段有5003个不同记录。在此字段上建立聚合索引是再合适不过了。在现实中,我们每天都会发几个文件,这几个文件的发文日期就相同,这完全符合建立聚集索引要求的:“既不能绝大多数都相同,又不能只有极少数相同”的规则。由此看来,我们建立“适当”的聚合索引对于我们提高查询速度是非常重要的。
    3、把所有需要提高查询速度的字段都加进聚集索引,以提高查询速度
      上面已经谈到:在进行数据查询时都离不开字段的是“日期”还有用户本身的“用户名”。既然这两个字段都是如此的重要,我们可以把他们合并起来,建立一个复合索引(compound index)。
      很多人认为只要把任何字段加进聚集索引,就能提高查询速度,也有人感到迷惑:如果把复合的聚集索引字段分开查询,那么查询速度会减慢吗?带着这个问题,我们来看一下以下的查询速度(结果集都是25万条数据):(日期列fariqi首先排在复合聚集索引的起始列,用户名neibuyonghu排在后列):
    (1)select gid,fariqi,neibuyonghu,title from Tgongwen where fariqi>''2004-5-5''
    查询速度:2513毫秒
    (2)select gid,fariqi,neibuyonghu,title from Tgongwen where fariqi>''2004-5-5'' and neibuyonghu=''办公室''
    查询速度:2516毫秒
    (3)select gid,fariqi,neibuyonghu,title from Tgongwen where neibuyonghu=''办公室''
    查询速度:60280毫秒
      从以上试验中,我们可以看到如果仅用聚集索引的起始列作为查询条件和同时用到复合聚集索引的全部列的查询速度是几乎一样的,甚至比用上全部的复合索引列还要略快(在查询结果集数目一样的情况下);而如果仅用复合聚集索引的非起始列作为查询条件的话,这个索引是不起任何作用的。当然,语句1、2的查询速度一样是因为查询的条目数一样,如果复合索引的所有列都用上,而且查询结果少的话,这样就会形成“索引覆盖”,因而性能可以达到最优。同时,请记住:无论您是否经常使用聚合索引的其他列,但其前导列一定要是使用最频繁的列。
    四、其他书上没有的索引使用经验总结
    1、用聚合索引比用不是聚合索引的主键速度快
      下面是实例语句:(都是提取25万条数据)
    select gid,fariqi,neibuyonghu,reader,title from Tgongwen where fariqi=''2004-9-16''使用时间:3326毫秒
    select gid,fariqi,neibuyonghu,reader,title from Tgongwen where gid<=250000使用时间:4470毫秒
    这里,用聚合索引比用不是聚合索引的主键速度快了近1/4。
    2、用聚合索引比用一般的主键作order by时速度快,特别是在小数据量情况下
    select gid,fariqi,neibuyonghu,reader,title from Tgongwen order by fariqi用时:12936
    select gid,fariqi,neibuyonghu,reader,title from Tgongwen order by gid用时:18843
      这里,用聚合索引比用一般的主键作order by时,速度快了3/10。事实上,如果数据量很小的话,用聚集索引作为排序列要比使用非聚集索引速度快得明显的多;而数据量如果很大的话,如10万以上,则二者的速度差别不明显。
    3、使用聚合索引内的时间段,搜索时间会按数据占整个数据表的百分比成比例减少,而无论聚合索引使用了多少个:
    select gid,fariqi,neibuyonghu,reader,title from Tgongwen where fariqi>''2004-1-1''用时:6343毫秒(提取100万条)
    select gid,fariqi,neibuyonghu,reader,title from Tgongwen where fariqi>''2004-6-6''用时:3170毫秒(提取50万条)
    select gid,fariqi,neibuyonghu,reader,title from Tgongwen where fariqi=''2004-9-16''用时:3326毫秒(和上句的结果一模一样。如果采集的数量一样,那么用大于号和等于号是一样的)
    select gid,fariqi,neibuyonghu,reader,title from Tgongwen
                where fariqi>''2004-1-1'' and fariqi<''2004-6-6''用时:3280毫秒
    4、日期列不会因为有分秒的输入而减慢查询速度
      下面的例子中,共有100万条数据,2004年1月1日以后的数据有50万条,但只有两个不同的日期,日期精确到日;之前有数据50万条,有5000个不同的日期,日期精确到秒。
    select gid,fariqi,neibuyonghu,reader,title from Tgongwen
              where fariqi>''2004-1-1'' order by fariqi用时:6390毫秒
    select gid,fariqi,neibuyonghu,reader,title from Tgongwen
                where fariqi<''2004-1-1'' order by fariqi用时:6453毫秒
     
    五、其他注意事项
      “水可载舟,亦可覆舟”,索引也一样。索引有助于提高检索性能,但过多或不当的索引也会导致系统低效。因为用户在表中每加进一个索引,数据库就要做更多的工作。过多的索引甚至会导致索引碎片。
      所以说,我们要建立一个“适当”的索引体系,特别是对聚合索引的创建,更应精益求精,以使您的数据库能得到高性能的发挥。
      当然,在实践中,作为一个尽职的数据库管理员,您还要多测试一些方案,找出哪种方案效率最高、最为有效。
    感觉笔者讲比较透彻,并参考了另一篇:索引的使用和优化

     思想基本一致的,总结下来,对日期建立聚集索引比较合适。

     还有一有关索引性能的MS的文章:使用 SQL Server 2000 索引视图提高性能

  • 相关阅读:
    基于Lucene/XML的站内全文检索解决方案
    内容管理系统(CMS)的设计和选型
    Lucene入门与使用[转]
    为自己的系统搞个全文搜索 参考值:2 (转)
    C# 时间函数
    Lucene倒排索引原理(转)
    什么是内容管理系统CMS?
    网络测试常用命令
    C#与C的区别
    人生致命的八个经典问题
  • 原文地址:https://www.cnblogs.com/firstdream/p/4624595.html
Copyright © 2011-2022 走看看