| 注册
请输入搜索内容

热门搜索

Java Linux MySQL PHP JavaScript Hibernate jQuery Nginx
jopen
10年前发布

搭建Spark完全分布式集群

写在前面一:

本文详细总结Spark分布式集群的安装步骤,帮助想要学习Spark的技术爱好者快速搭建Spark的学习研究环境。

搭建Spark完全分布式集群

写在前面二:

使用软件说明

搭建Spark完全分布式集群

约定,Spark相关软件存放目录: /usr/local/yujianxin/spark,

Hadoop 相关软件存放目录: /home/yujianxin/hadoop。

Spark集群示意图

搭建Spark完全分布式集群

一、具体安装步骤

1、安装jdk

2、安装Hadoop集群,参考 http://blog.csdn.net/aaronhadoop/article/details/24867257

3、安装 Scala

cd /usr/local/yujianxin/spark/

tar -zxvf scala-2.9.3.tgz

修改/etc/profile

搭建Spark完全分布式集群

4、安装Spark

4.1、修改/etc/profile

cd /usr/local/yujianxin/spark/

tar -zxvf spark-0.7.2-prebuilt-hadoop1.tgz

搭建Spark完全分布式集群

4.2、配置Spark

4.2.1、修改配置文件 spark-env.sh

cd /usr/local/yujianxin/spark/spark-0.7.2/conf

cp spark-env.sh.template  spark-env.sh

vi  spark-env.sh

搭建Spark完全分布式集群

4.2.2、修改配置文件

slaves

搭建Spark完全分布式集群

至此,master节点上的Spark已配置完毕。 把master上Spark相关配置copy到slave1、 slave2中,注意,三台机器spark所在目录必须一致,因为master会登陆到worker上执行命令,master认为worker的spark路径与自己一样。

二、安装测试

2.1、测试1——通过命令行

cd $SPARK_HOME/bin

start-all.sh

搭建Spark完全分布式集群

搭建Spark完全分布式集群

2.2、测试2——通过浏览器

搭建Spark完全分布式集群

原文  http://blog.csdn.net/aaronhadoop/article/details/37757639

 本文由用户 jopen 自行上传分享,仅供网友学习交流。所有权归原作者,若您的权利被侵害,请联系管理员。
 转载本站原创文章,请注明出处,并保留原始链接、图片水印。
 本站是一个以用户分享为主的开源技术平台,欢迎各类分享!
 本文地址:https://www.open-open.com/lib/view/open1421414773406.html
Spark 分布式/云计算/大数据