zoukankan
html css js c++ java
Lucene.net 系列三 index 中
本文将进一步讨论有关Lucene.net建立索引的问题:
主要包含以下主题:
1
.索引的权重
2
.利用IndexWriter 属性对建立索引进行高级管理
3
.利用RAMDirectory充分发挥内存的优势
4
.利用RAMDirectory并行建立索引
5
.控制索引内容的长度
6
.Optimize 优化的是什么
?
源代码下载
本文将进一步讨论有关Lucene.net建立索引的问题:
索引的权重
根据文档的重要性的不同,显然对于某些文档你希望提高权重以便将来搜索的时候,更符合你想要的结果. 下面的代码演示了如何提高符合某些条件的文档的权重.
比如对公司内很多的邮件做了索引,你当然希望主要查看和公司有关的邮件,而不是员工的个人邮件.这点根据邮件的地址就可以做出判断比如包含@alphatom.com的就是公司邮件,而@gmail.com等等就是私人邮件.如何提高相应邮件的权重
?
代码如下:
public
static
String COMPANY_DOMAIN
=
"
alphatom.com
"
;
Document doc
=
new
Document();
String senderEmail
=
GetSenderEmail();
String senderName
=
getSenderName();
String subject
=
GetSubject();
String body
=
GetBody();
doc.Add(Field.Keyword(
"
senderEmail”, senderEmail));
doc.Add(Field.Text(
"
senderName
"
, senderName));
doc.Add(Field.Text(
"
subject
"
, subject));
doc.Add(Field.UnStored(
"
body
"
, body));
if
(GetSenderDomain().EndsWith(COMPANY_DOMAIN))
//
如果是公司邮件,提高权重,默认权重是1.0
doc.SetBoost(
1.5
);
else
//
如果是私人邮件,降低权重.
doc.SetBoost(
0.1
);
writer.AddDocument(doc);
不仅如此你还可以对Field也设置权重.比如你对邮件的主题更感兴趣.就可以提高它的权重.
Field senderNameField
=
Field.Text(
"
senderName
"
, senderName);
Field subjectField
=
Field.Text(
"
subject
"
, subject);
subjectField.SetBoost(
1.2
);
lucene搜索的时候会对符合条件的文档按匹配的程度打分,这点就和google的PageRank有点类似, 而SetBoost中的Boost就是其中的一个因素,当然还有其他的因素.这要放到搜索里再说.
利用IndexWriter 变量对建立索引进行高级管理
在建立索引的时候对性能影响最大的地方就是在将索引写入文件的时候, 所以在具体应用的时候就需要对此加以控制.
在建立索引的时候对性能影响最大的地方就是在将索引写入文件的时候所以在具体应用的时候就需要对此加以控制 IndexWriter属性
默认值
描述
MergeFactory
10
控制segment合并的频率和大小
MaxMergeDocs
Int32.MaxValue
限制每个segment中包含的文档数
MinMergeDocs
10
当内存中的文档达到多少的时候再写入segment
Lucene默认情况是每加入10份文档就从内存往index文件写入并生成一个segement,然后每10个segment就合并成一个segment.通过MergeFactory这个变量就可以对此进行控制.
MaxMergeDocs用于控制一个segment文件中最多包含的Document数.比如限制为100的话,即使当前有10个segment也不会合并,因为合并后的segmnet将包含1000个文档,超过了限制.
MinMergeDocs用于确定一个当内存中文档达到多少的时候才写入文件,该项对segment的数量和大小不会有什么影响,它仅仅影响内存的使用,进一步影响写索引的效率.
为了生动的体现这些变量对性能的影响,用一个小程序对此做了说明.
这里有点不可思议.Lucene
in
Action书上的结果比我用dotLucene做的结果快了近千倍.这里给出书中用Lucene的数据,希望大家比较一下看看是不是我的问题.
Lucene
in
Action书中的数据:
%
java lia.indexing.IndexTuningDemo
100000
10
9999999
10
Merge factor:
10
Max merge docs:
9999999
Min merge docs:
10
Time:
74136
ms
%
java lia.indexing.IndexTuningDemo
100000
100
9999999
10
Merge factor:
100
Max merge docs:
9999999
Min merge docs:
10
Time:
68307
ms
我的数据:
336684128
ms
可以看出MinMergeDocs(主要用于控制内存)和MergeFactory(控制合并的次数和合并后的大小) 对建立索引有显著的影响.但是并不是MergeFactory越大越好,因为如果一个segment的文档数很多的话,在搜索的时候必然也会影响效率,所以这里MergeFactory的取值是一个需要平衡的问题.而MinMergeDocs主要受限于内存.
利用RAMDirectory充分发挥内存的优势
从上面来看充分利用内存的空间,减少读写文件(写入index)的次数是优化建立索引的重要方法.其实在Lucene中提供了更强大的方法来利用内存建立索引.使用RAMDirectory来替代FSDirectory. 这时所有的索引都将建立在内存当中,这种方法对于数据量小的搜索业务很有帮助,同时可以使用它来进行一些小的测试,避免在测试时频繁建立删除索引文件.
在实际应用中RAMDirectory和FSDirectory协作可以更好的利用内存来优化建立索引的时间.
具体方法如下:
1
.建立一个使用FSDirectory的IndexWriter
2
.建立一个使用RAMDirectory的IndexWriter
3
把Document添加到RAMDirectory中
4
当达到某种条件将RAMDirectory 中的Document写入FSDirectory.
5
重复第三步
示意代码:
private
FSDirectory fsDir
=
FSDirectory.GetDirectory(
"
index
"
,
true
);
private
RAMDirectory ramDir
=
new
RAMDirectory();
private
IndexWriter fsWriter
=
IndexWriter(fsDir,
new
SimpleAnalyzer(),
true
);
private
IndexWriter ramWriter
=
new
IndexWriter(ramDir,
new
SimpleAnalyzer(),
true
);
while
(there are documents to index)
{
ramWriter.addDocument(doc);
if
(condition
for
flushing memory to disk has been met)
{
fsWriter.AddIndexes(Directory[]
{ramDir}
) ;
ramWriter.Close();
//
why not support flush?
ramWriter
=
new
IndexWriter(ramDir,
new
SimpleAnalyzer(),
true
);
}
}
这里的条件完全由用户控制,而不是FSDirectory采用对Document计数的方式控制何时写入文件.相比之下有更大的自由性,更能提升性能.
利用RAMDirectory并行建立索引
RAMDirectory还提供了使用多线程来建立索引的可能性.下面这副图很好的说明了这一点.
甚至你可以在一个高速的网络里使用多台计算机来同时建立索引.就像下面这种图所示.
虽然有关并行同步的问题需要你自己进行处理,不过通过这种方式可以大大提高对大量数据建立索引的能力.
控制索引内容的长度.
在我的一篇速递介绍过Google Desktop Search只能搜索到文本中第5000个字的.也就是google在建立索引的时候只考虑前5000个字,在Lucene中同样也有这个配置功能.
Lucene对一份文本建立索引时默认的索引长度是10,
000
. 你可以通过IndexWriter 的MaxFieldLength属性对此加以修改.还是用一个例子说明问题.
[Test]
public
void
FieldSize()
//
AddDocuments 和 GetHitCount都是自定义的方法,详见源代码
{
AddDocuments(dir,
10
);
//
第一个参数是目录,第二个配置是索引的长度
Assert.AreEqual(
1
, GetHitCount(
"
contents
"
,
"
bridges
"
))
//
原文档的contents为”Amsterdam has lots of bridges”
//
当索引长度为10个字时能找到bridge
AddDocuments(dir,
1
);
Assert.AreEqual(
0
, GetHitCount(
"
contents
"
,
"
bridges
"
));
//
当索引长度限制为1个字时就无法发现第5个字bridges
}
对索引内容限长往往是处于效率和空间大小的考虑.能够对此进行配置是建立索引必备的一个功能.
Optimize 优化的是什么
?
在以前的例子里,你可能已经多次见过writer.Optimize()这段代码.Optimize到底做了什么
?
让你吃惊的是这里的优化对于建立索引不仅没有起到加速的作用,反而是延长了建立索引的时间.为什么
?
因为这里的优化不是为建立索引做的,而是为搜索做的.之前我们提到Lucene默认每遇到10个Segment就合并一次,尽管如此在索引完成后仍然会留下几个segmnets,比如6,
7
.
而Optimize的过程就是要减少剩下的Segment的数量,尽量让它们处于一个文件中.
它的过程很简单,就是新建一个空的Segmnet,然后把原来的几个segmnet全合并到这一个segmnet中,在此过程中,你的硬盘空间会变大,因为同时存在两份一样大小的索引.不过在优化完成后,Lucene会自动将原来的多份Segments删除,只保留最后生成的一份包含原来所有索引的segment.
尽量减少segments的个数主要是为了增加查询的效率.假设你有一个Server,同时有很多的Client建立了各自不同的索引,如果此时搜索,那么必然要同时打开很多的索引文件,这样显然会受到很大的限制,对性能产生影响.
当然也不是随时做Optimize就好,如前所述做优化时要花费更多的时间和空间,而且在做优化的时候是不能进行查询的.所以索引建立的后期,并且索引的内容不会再发生太多的变化的时候做优化是一个比较好的时段.
查看全文
相关阅读:
在生成安装和部署项目时出现“Unrecoverable Build Error”(不可恢复的生成错误)错误信息
SqlHelper(带详细中文注释)
原创企业级控件库之大数据量分页控件
MSSql技巧之快速得到表的记录总数
ASP.NET 程序中常用的三十三种代码
团队项目开发"编码规范"系列文章
信息系统项目管理系列之二:项目生命期和组织
原创企业级控件库之组合查询控件
C# 中的常用正则表达式总结
asp.net页面生存周期
原文地址:https://www.cnblogs.com/kokoliu/p/615340.html
最新文章
H.264术语
Fedora下的远程桌面连接
帧内预测之函数Intra16x16_Mode_Decision的分析与理解
视频编解码学习之二:编解码框架
JM中一些流程图
JM86中多参考帧相关问题
视频编解码学习之五:差错控制及传输
JM8.6中对数据分割的一点解释
Hadamard 变换中的归一化问题
信息系统项目管理系列之四:项目可行性研究与评估
热门文章
ASP.NET页面生命周期与应用程序生命周期
如何有效创建工作分解结构?
ADO.NET的最佳实践技巧
介绍一篇关于session的好文章,写的很详细
130道ASP.NET面试题
信息系统项目管理系列之五:项目整体管理
信息系统项目管理系列之一:绪论
WCF绑定类型选择
.NET开发者常会忽略的几个错误
信息系统项目管理系列之三:项目管理过程
Copyright © 2011-2022 走看看