解压hive文件
hadoop@master:~$sudo tar -zxvf apache-hive-2.1.0-bin.tar.gz -C /opt/modules
配置环境变量
hadoop@master:~$vi /etc/profile
export HIVE_HOME=/opt/root/hive-1.1.0-cdh5.7.0
export PATH=$HIVE_HOME/bin:$PATH
hadoop@master:~$vi /opt/modules/hive-0.12.0/bin/hive-config.sh
export JAVA_HOME=/opt/modules/jdk1.7.0_79
export HADOOP_HOME=/opt/modules/hadoop-2.6.0
export HIVE_HOME=/opt/modules/hive-0.12.0
拷贝hive-env.sh.template 为hive-env.sh
hadoop@master:~$vi /opt/modules/hive-0.12.0/conf/hive-env.sh
export HADOOP_HOME=/opt/modules/hadoop-2.6.0
更新环境变量使其生效
hadoop@master:~$source /etc/profile
创建HIVE的工作目录
hadoop@master:~$hadoop fs -mkdir /tmp
hadoop@master:~$hadoop fs -mkdir /user/hive/warehouse
hadoop@master:~$hadoop fs -chmod g+w /tmp
hadoop@master:~$hadoop fs -chmod g+w /user/hive/warehouse
设定默认使用derby数据库库作为元数据库
hadoop@master:~$schematool -dbType derby -initSchema
建库
create database 库名;
使用库
use 库名;
建表
create table 表名(
id int,
name string,
pwd String
)row format delimited fields terminated by '截取规则';
create table user(
id int,
name string,
pwd String
)row format delimited fields terminated by ' ';
查询库
show databases;
查询表
show tables;
查看表的描述
desc 表名;
加载数据
1.使用命令加载数据 (hive中使用)
(1.hdfs加载
load data inpath '路径' into table 表名;
(2.本地加载
load data local inpath '路径' into table 表名;
2.将数据文件put到表的目录下
hadoop fs -put 文件名 地址名