步骤:
spark-env.sh
加入:

HADOOP_CONF_DIR=/root/------ 表示使用hdfs上的资源,如果需要使用本地资源,请把这一句注销

2,slaves

3,spark-defalts.conf

-----------------------------------------------------------------------------------------------------------------
启动:

cd /root/soft/spark-1.3.1
sbin/start-master.sh 启动master
sbin/start-slaves.sh 启动worker
