zoukankan      html  css  js  c++  java
  • 【solr】SolrCloud中索引数据存储于HDFS

    SolrCloud中索引数据存储于HDFS

      本人最近使用SolrCloud存储索引日志条件,便于快速索引,因为我的索引条件较多,每天日志记录较大,索引想到将日志存入到HDFS中,下面就说说怎么讲solr的索引条件数据存储到HDFS中。

    一、准备工作

    • Solr环境或SolrCloud集群,如果不会安装可以看一下Solr5.5.4单机部署或者SolrCloud集群部署
    • HDFS分布式系统环境,如果不会安装的可以看一下Hadoop2.5.0安装部署
    • 本人就以Solr5.5.4+Tomcat8.5.6单机部署为基础,下面是我单机Solr信息
    名称 配置
    Solr+Tomcat位置 /home/anu/page/tomcat8
    Solr_home位置 /home/anu/page/tomcat8/solr_home
    HDFS入口地址 hdfs://192.168.219.13:9000

     

    二、配置索引数据存储到HDFS中

     1、启动HDFS系统,并创建存储Solr数据路径

      1)首先启动HDFS系统,本人使用的是一拖二的HDFS集群,所以都要起起来

      进入namenode节点机器进入./hadoop/sbin 下,使用命令  ./start-all.sh 启动三台机器上的Hadoop,确保namenode和dataNode都起成功。

      

      其他两台机器上执行命令: jps能够查看到NodeManager和DataNode两个线程,如果存在说明我们的HDFS启动成功

       

      2)使用命令: hadoop fs -ls / 查看HDFS根目录下的文件,如果你的根路径下有文件就可以看到文件啦!

      

      3)使用命令: hadoop fs -mkdir -p /demo/data 在HDFS根路径下创建demo供Solr数据存储文件

      

     2、修改Solr_home下面文件配置

       1)进入solr_home目录下,使用命令: mkdir demo  创建demo目录,同时将./tomcat8/solr_home/configsets/basic_configs下的所有文件都拷贝到刚刚新建的demo下面

      

      2)文件拷贝后,进入./tomcat8/solr_home/demo/conf/ 目录下,修改solrconfig.xml文件

      替换原有directoryFactory配置为如下

    <directoryFactory name="DirectoryFactory" class="solr.HdfsDirectoryFactory">
       <str name="solr.hdfs.home">hdfs://192.168.219.13:9000/demo</str>
       <bool name="solr.hdfs.blockcache.enabled">true</bool>
       <int name="solr.hdfs.blockcache.slab.count">1</int>
       <bool name="solr.hdfs.blockcache.direct.memory.allocation">true</bool>
       <int name="solr.hdfs.blockcache.blocksperbank">16384</int>
       <bool name="solr.hdfs.blockcache.read.enabled">true</bool>
       <bool name="solr.hdfs.blockcache.write.enabled">true</bool>
       <bool name="solr.hdfs.nrtcachingdirectory.enable">true</bool>
       <int name="solr.hdfs.nrtcachingdirectory.maxmergesizemb">16</int>
       <int name="solr.hdfs.nrtcachingdirectory.maxcachedmb">192</int>
    </directoryFactory>

      替换原有lockType为如下:

    <lockType>${solr.lock.type:hdfs}</lockType>

      替换原来dataDir为如下:

    <dataDir>${solr.data.dir:hdfs://192.168.219.13:9000/demo/data}</dataDir>

      注意:上面所有  hdfs://192.168.219.13:9000 都要换成自己的HDFS入口地址,

     hdfs://192.168.219.13:9000/demo/data  正是我们前面创建的存储solr数据的路径

        

      

      

     3、替换Solr中的HDFS使用相关jar包

      1)删除solr自身原有的jar包,进入tomcat8/webapps/solr/WEB-INF/lib 下删除hadoop-*.jar、protobuf-java-*.jar、htrace-core-3.0.4.jar 

    rm hadoop-*.jar
    rm protobuf-java-*.jar
    rm -rf htrace-core-3.0.4.jar

      

      2)从Hadoop-2.5.0的share文件夹下分别得到对应的jar到tomcat8/webapps/solr/WEB-INF/lib 目录下,主要jar包如下:

    hadoop-common-2.5.0-cdh5.2.0.jar(share/hadoop/common)
    hadoop-hdfs-2.5.0-cdh5.2.0.jar(share/hadoop/hdfs)
    hadoop-auth-2.6.0.jar(share/hadoop/common/lib)
    hadoop-annotations-2.6.0.jar(sharehadoopcommonlib)
    commons-collections-3.2.2.jar(sharehadoopcommonlib)
    protobuf-java-2.5.0.jar(sharehadoopcommonlib)

       

     4、创建core或collection(单机中创建core,集群中创建collection)

       1)启动Solr,在浏览器中访问http://192.168.219.12:8080/solr/index.html  Solr管理页面

     

        2)新建一个core或collection,起名为我们创建的目录名字demo

      

        3)最后看到这个位置data是指向HDFS的路径地址

       

     到此就大功告成啦!

    注意:在此过程中可能会出现错误,大家可以自己到solr日志下面看一下具体是什么错误,具体问题具体解决。下面说一下我在装的时候遇到的问题。

    (1)本人是第一次配置这个东东,第一次就出现了错误,通过日志看到有java.lang.OutOfMemoryError: Direct buffer memory tomcat错误。

    解决方案:这个由于内存不足造成的,因为我是在我的虚拟机做实验的,虚拟机装的东西有点多,所以报内存溢出,后来关闭几个程序,再调整一下tomcat的内存就完美解决啦。

    配置完后可以看一下Solr下面的HDFS数据备份和还原,后面可能有用。

     

  • 相关阅读:
    Prototype源码浅析——Object部分(一)
    JS构建页面的DOM节点结构(二)
    Prototype源码浅析——Object部分(二)之类型检测
    createElement与createDocumentFragment的点点区别
    Prototype源码浅析——Function.prototype部分(二)
    CSS3月食
    javascript管中窥豹——形参与实参
    JS获取整个页面的文档
    2012年总结
    Windows下Android环境搭建(最新最方便)
  • 原文地址:https://www.cnblogs.com/gaoxu007/p/7225704.html
Copyright © 2011-2022 走看看