hadoop Nodes of the cluster 中Node HTTP Address地址全部错误显示为localhost的解决办法
配置完hadoop spark环境后,用Wordcount来测试hadoop集群,发现Job一直执行超时,打开hadoop管理界面,查看Nodes发现Node HTTP Address
显示的路径为localhost:端口
,因为我配置的是集群非单机,所以这是不对的。
解决方法
对应修改的host文件,在各节点服务器上分配修改主机名同HOST文件的一致即可,比如host文件配置如下:
192.168.242.140 worker1
192.168.242.141 worker2
192.168.242.139 master
则
- 1、 对应上面host文件,在主节点master上执行
vim /etc/hostname
删掉原来的内容,改为master
- 2、 对应上面host文件,在重节点worker1上执行
vim /etc/hostname
删掉原来的内容,改为worker1
- 3、 对应上面host文件,在重节点worker2上执行
vim /etc/hostname
删掉原来的内容,改为worker2