前提:安装了JDK1.8
1、准备三台机器
hadoop100 192.168.33.100 hadoop101 192.168.33.101 hadoop102 192.168.33.102
2、准备一个非root账户(一定要使用非root用户,不然es启动不起来)
3、将elasticsearch-5.4.3.tar.gz包上传到hadoop100的机器上,并解压到指定目录
tar -zxvf elasticsearch-5.4.3.tar.gz -C /home/yangwj/
4、修改配置vim elasticsearch-5.4.3/config/elasticsearch.yml
#集群名称,通过组播的方式通信,通过名称判断属于哪个集群 cluster.name: bigdata #节点名称,要唯一 node.name: es-1 #数据存放位置 path.data: /home/yangwj/es/data #日志存放位置(可选) path.logs: /home/yangwj/es/logs #es绑定的ip地址 network.host: 192.168.33.100 #初始化时可进行选举的节点 discovery.zen.ping.unicast.hosts: ["hadoop100", "hadoop101", "hadoop102"]
5、将hadoop100的elasticsearch包复制到其他机器
scp -r ./elasticsearch-5.4.3.tar.gz yangwj@hadoop101:/home/yangwj/
scp -r ./elasticsearch-5.4.3.tar.gz yangwj@hadoop102:/home/yangwj/
6、修改其他两台机器的配置文件
node.name: es-2
network.host: 192.168.33.101
node.name: es-3 network.host: 192.168.33.102
7、创建目录(三台机器都要)
cd /home/yangwj
mkdir - es/data es/logs
8、出现错误
[1]: max file descriptors [4096] for elasticsearch process is too low, increase to at least [65536]
[2]: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
解决方法:
#最大虚拟内存太小 sudo vi /etc/sysctl.conf vm.max_map_count=262144 #用户最大可创建文件数太小 sudo vi /etc/security/limits.conf * soft nofile 65536 * hard nofile 65536
9、一定要重启机器,三台都要,然后执行
./elasticsearch-5.4.3/bin/elasticsearch -d #后台执行
10、查看每台机器是否正常启动
方式1:看日志 ,没有报错,最后出现start 方式2:看端口, ss -tanlp 方式3:http://hadoop100:9200/
11、查看集群状态
curl -XGET 'http://hadoop100:9200/_cluster/health?pretty'
完毕,如果问题,可留言.....