我尝试着在classpath中加n入mysql的驱动仍不行
解决方法:在启动的时候加入参数--driver-class中加入mysql 驱动
[hadoop@master spark-1.0.1-bin-hadoop2]$ bin/spark-shell --driver-class-path lib/mysql-connector-java-5.1.30-bin.jar
总结:
1.spark的版本必须编译的时候加上了hive 1.0.0预编译版没有加入hive 1.0.1是含有hive的
2.需要将hive-site.xml这个配置文件放到spark conf下面
3.需要将mysql驱动加载到classpath中