【头歌】Spark的安装与使用 答案

06-01 1274阅读

本专栏已收集头歌大数据所有答案 以供参考

第1关:Scala语言开发环境的部署

 

以下是解题步骤

题目中已经说明在平台已经将spark安装包下载到/opt目录下了,所以不需要再下载了。

  • 1.所以要先将目录跳转到/opt目录中:
    cd /opt
    • 2.接下来,解压到/app目录下:
      mkdir /app    //创建 app 目录
      tar -zxvf  scala-2.12.7.tgz -C /app

      【头歌】Spark的安装与使用 答案

      配置环境

      接下来我们开始配置环境,在自己本机上需要配置好Java环境,因为Scala是基于jvm的(在平台已经将Java环境配置好了):

      vi /etc/profile

      #set scala
      SCALA_HOME=/app/scala-2.12.7
      export PATH=$PATH:$SCALA_HOME/bin

      【头歌】Spark的安装与使用 答案不要忘了配置好之后source /etc/profile

      校验

      在命令行输入:scala -version出现如下结果就配置成功了

      【头歌】Spark的安装与使用 答案

      按照惯例,我们在开始一个编程语言要进行一个仪式,哈哈,那就是,Hello World,接下来我们使用Scala输出Hello World:

      在命令行中输入scala进入Scala命令行,输入println("Hello World") 就可以啦。

      【头歌】Spark的安装与使用 答案

      【头歌】Spark的安装与使用 答案

      第2关:安装与配置Spark开发环境

      解答步骤

      题目中已经说明在平台已经将spark安装包下载到/opt目录下了,所以不需要再下载了。

      • 1.所以要先将目录跳转到/opt目录中:
        cd /opt
        • 2.然后按照步骤解压
          tar -zxvf spark-2.2.2-bin-hadoop2.7.tgz -C /app

          【头歌】Spark的安装与使用 答案

          • 3.配置环境变量
            vim /etc/profile
            • 将以下代码加入到编辑文件末尾
              #set spark enviroment
              SPARK_HOME=/app/spark-2.2.2-bin-hadoop2.7
              export PATH=$PATH:$SPARK_HOME/bin

              【头歌】Spark的安装与使用 答案

              • 保存后使用以下代码更新环境变量
                source /etc/profile
                • 修改Spark配置文件
                • 切换到conf目录下:
                  cd /app/spark-2.2.2-bin-hadoop2.7/conf
                  • 在这里我们需要配置的是spark-env.sh文件,但是查看目录下文件只发现一个spark-env.sh.template文件,我们使用命令复制该文件并重命名为spark-env.sh即可;

                    【头歌】Spark的安装与使用 答案

                    • 接下来编辑spark-env.sh,在文件末尾添加如下配置:
                      export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_111
                      export SCALA_HOME=/app/scala-2.12.7
                      export HADOOP_HOME=/usr/local/hadoop/
                      export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
                      export SPARK_MASTER_IP=machine_name   # machine_name 根据自己的主机确定
                      export SPARK_LOCAL_IP=machine_name    # machine_name 根据自己的主机确定

                      在命令行输入hostname查询自己的主机名

                      【头歌】Spark的安装与使用 答案

                      我这里的主机名是educoder

                      所以将

                      export SPARK_MASTER_IP=machine_name   # machine_name 根据自己的主机确定
                      export SPARK_LOCAL_IP=machine_name    # machine_name 根据自己的主机确定


                      修改为

                      export SPARK_MASTER_IP=educoder   # educoder 根据自己的主机确定
                      export SPARK_LOCAL_IP=educoder    # educoder 根据自己的主机确定

                      【头歌】Spark的安装与使用 答案

                      校验

                      最后我们需要校验是否安装配置成功了;

                      现在我们启动spark并且运行spark自带的demo:

                      首先我们在spark根目录下启动spark:

                      在spark的根目录下输入命令./sbin/start-all.sh即可启动,使用jps命令查看是否启动成功,有woker和master节点代表启动成功。

                      【头歌】Spark的安装与使用 答案

                      接下来运行demo:

                      在Spark根目录使用命令./bin/run-example SparkPi > SparkOutput.txt运行示例程序

                      在运行的时候我们可以发现打印了很多日志,最后我们使用cat SparkOutput.txt可以查看计算结果(计算是有误差的所以每次结果会不一样):

                      【头歌】Spark的安装与使用 答案

                      【头歌】Spark的安装与使用 答案

免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理! 图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库和百度,360,搜狗等多加搜索引擎自动关键词搜索配图,如有侵权的图片,请第一时间联系我们。

目录[+]

取消
微信二维码
微信二维码
支付宝二维码