参考:https://i.cnblogs.com/posts/edit
1、Hadoop与Hive整合
使用root用户登录
su root
因为Hive需要把数据存储在HDFS上,并且通过MapReduce作为执行引擎处理数据;
因此需要在Hadoop中添加相关配置属性,以满足Hive在Hadoop上运行。
修改Hadoop中core-site.xml,并且Hadoop集群同步配置文件,重启生效。
cd /kkb/install/hadoop-3.1.4/etc/hadoop
vim core-site.xml
- 添加
<!-- 整合hive --> <property> <name>hadoop.proxyuser.root.hosts</name> <value>*</value> <property> <property> <name>hadoop.proxyuser.root.groups</name> <value>*</value> <property>
[root@node01 hive]# rm -rf lib/guava-19.0.jar [root@node01 hive]# cp /kkb/install/hadoop-3.1.4/share/hadoop/common/lib/guava-27.0-jre.jar ./lib/