zoukankan      html  css  js  c++  java
  • Spark&Hive结合起来

      1.spark与Hive结合起来

        前提:当你spark的版本是1.6.1的时候,你的Hive版本要1.2.1,用别的版本会有问题

        我们在做的时候,Hive的版本很简单,我们只需要解压缩,告诉他Hive的源数据在哪里即可

        1.首先我们进入/conf/hive-site.xml文件,进行修改jdbc的配置

        

          则此时这个IP要改为only的vm1下的那个IP,不能改为自己无线网络的IP

        2.进入bin:./bin/hive

          执行成功,会自动创建hive这个库

          hive中创建person表

          切记:在此之前,由于我们的mysql的字符集编码是utf-8,则我们要是用hive,则就要使用latin1

          alter databases hive character set latin1

        3.建表

          create table person(id int,name string,age int) row format delimited fields terminated by ","

        4.从hdfs导入数据

          load data inpath "hdfs://192.168.109.136:9000/person/person.txt" into table person

          此时上面的操作报

          Please check that values for params "default.name" and "hive.metastore.warehouse.dir" do

          not conf 是由于namenode的不一致

          此时修改为weekday01正确

          load data inpath "hdfs://weekday01:9000/person/person.txt" into table person

          

          select * from person

          

          select * from person order by id desc此时这个就会调用集群上的mapReduce

          

          不过这个样子有点慢,我们可以使用spark来进行计算

  • 相关阅读:
    课后作业
    动手动脑
    原码,补码,反码
    CodingSouls团队项目冲刺-个人概况(7)
    《人月神话》阅读笔记03
    数据库学习
    家庭小账本——数据库的编写与测试
    家庭小账本——适配器的编写与测试
    UI高级组件
    UI高级组件
  • 原文地址:https://www.cnblogs.com/wnbahmbb/p/6284089.html
Copyright © 2011-2022 走看看