设置 IP 地址
vi /etc/sysconfig/network-scripts/ifcfg-ens32
重启网卡
[root@localhost ~] systemctl restart network
查看防火墙状态
firewall-cmd --state
关闭防火墙
[root@localhost ~]# systemctl stop firewalld
[root@localhost ~]# systemctl disable firewalld
修改 hostname
[root@localhost ~]# hostnamectl set-hostname centos_07
主机名和 IP 映射
[root@localhost ~]# vim /etc/hosts
注:如果是最小化安装,运行如下命令安装基本工具
yum install wget httpd-tools vim lrzsz
添加用户
[root@localhost ~]# adduser hadoop
[root@localhost ~]# passwd hadoop
添加目录
[root@localhost ~]# mkdir /bd
[root@localhost ~]# chown -R 用户名 文件夹路径
以下授权步骤可省略
[root@localhost ~]# whereis sudoers
[root@localhost ~]# ls -l /etc/sudoers
[root@localhost ~]# vi /etc/sudoers
## Allow root to run any commands anywher
root ALL=(ALL) ALL
hadoop ALL=(ALL) ALL #这个是新增的用户
[root@localhost ~]# chmod -v u-w /etc/sudoers
[root@localhost ~]# su hadoop
安装jdk1.8
[hadoop@localhost jdk1.8]# tar -zxvf jdk-8u171-linux-x64.tar.gz –C /bd
设置 Java 环境变量
[hadoop@localhost jdk1.8.0_171]# vi /etc/profile
在文件最后添加
export JAVA_HOME=/bd/jdk/jdk1.8
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
[root@localhost jdk1.8.0_171]# source /etc/profile
[root@localhost jdk1.8.0_171]# java -version
java version "1.8.0_171"
Java(TM) SE Runtime Environment (build 1.8.0_171-b11)
Java HotSpot(TM) 64-Bit Server VM (build 25.171-b11, mixed mode)
运行ES
elasticsearch 不能运行在 root 用户下
如果本机内存不够 可以修改 jvm 配置文件
[hadoop@localhost config]$ vi jvm.options
#设置浏览器访问(默认情况下只能本地访问 127.0.0.1 或 localhost)
[root@localhost bin]systemctl stop firewalld
[root@localhost bin]vi config/elasticsearch.yml
运行可能报错
解决方案
[root@localhost bin]# vi /etc/security/limits.conf
nofile - 打开文件的最大数目
noproc - 进程的最大数目
soft 指的是当前系统生效的设置值
hard 表明系统中所能设定的最大值
* hard nofile 65536
* soft nofile 65536
* hard nproc 4096
* soft nproc 2048
[root@localhost bin]# vi /etc/sysctl.conf
vm.max_map_count=655360
fs.file-max=655360
使配置生效:
[root@localhost bin]# sysctl –p
vm.max_map_count=65530,指缺省配置下,单个 jvm 能开启的最大线程数为其一半
file-max 是设置 系统所有进程一共可以打开的文件数量
运行就OK了
#后台启动
[hadoop@localhost bin]$ ./elasticsearch -d