centOS7下Spark安裝配置

来源:https://www.cnblogs.com/aiaitie/archive/2018/07/13/9306604.html
-Advertisement-
Play Games

啟動spark#啟動spark之前先要把hadoop節點啟動起來#cd /usr/hadoop/hadoop-3.1.0/#sbin/start-all.sh#jps //檢查啟動的線程是否已經把hadoop啟動起來了#cd /usr/spark/spark-2.3.1-bin-hadoop2.7# ...


    環境說明:
        操作系統: centos7 64位 3台
        centos7-1 192.168.190.130 master
        centos7-2 192.168.190.129 slave1
        centos7-3 192.168.190.131 slave2

    安裝spark需要同時安裝如下內容:
    jdk  scale  

    1.安裝jdk,配置jdk環境變數
    這裡不講如何安裝配置jdk,自行百度。

    2.安裝scala

    下載scala安裝包,https://www.scala-lang.org/download/選擇符合要求的版本進行下載,使用客戶端工具上傳到伺服器上。解壓:
    #tar -zxvf scala-2.13.0-M4.tgz

    再次修改/etc/profile文件,添加如下內容:
    export SCALA_HOME=$WORK_SPACE/scala-2.13.0-M4
    export PATH=$PATH:$SCALA_HOME/bin

    #source /etc/profile      // 讓其立即生效
    #scala -version           //查看scala是否安裝完成

    3.安裝spark

    spark下載地址:http://spark.apache.org/downloads.html 
    說明:有不同的版本包下載,選則你需要的下載安裝即可
    Source code: Spark 源碼,需要編譯才能使用,另外 Scala 2.11 需要使用源碼編譯才可使用
    Pre-build with user-provided Hadoop: “Hadoop free” 版,可應用到任意 Hadoop 版本
    Pre-build for Hadoop 2.7 and later: 基於 Hadoop 2.7 的預先編譯版,需要與本機安裝的 Hadoop 版本對應。可選的還有 Hadoop 2.6。我這裡因為裝的hadoop是3.1.0,所以直接安裝for hadoop 2.7 and later的版本。
            註:hadoop的安裝請查看我的上一篇博客,不在重覆描述。

centOS7下Spark安裝配置

#mkdir spark 
#cd /usr/spark
#tar -zxvf spark-2.3.1-bin-hadoop2.7.tgz
#vim /etc/profile
#添加spark的環境變數,加如PATH下、export出來
#source /etc/profile
#進入conf目錄下,把spark-env.sh.template拷貝一份改名spark-env.sh
#cd /usr/spark/spark-2.3.1-bin-hadoop2.7/conf
#cp spark-env.sh.template spark-env.sh
#vim spark-env.sh
export SCALA_HOME=/usr/scala/scala-2.13.0-M4
export JAVA_HOME=/usr/lib/jvm/jre-1.8.0-openjdk-1.8.0.171-8.b10.el7_5.x86_64
export HADOOP_HOME=/usr/hadoop/hadoop-3.1.0
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export SPARK_HOME=/usr/spark/spark-2.3.1-bin-hadoop2.7
export SPARK_MASTER_IP=master
export SPARK_EXECUTOR_MEMORY=1G
#進入conf目錄下,把slaves.template拷貝一份改名為slaves
#cd /usr/spark/spark-2.3.1-bin-hadoop2.7/conf
#cp slaves.template slaves
#vim slaves
#添加節點功能變數名稱到slaves文件中
#master     //該功能變數名稱為centos7-1的功能變數名稱
#slave1     //該功能變數名稱為centos7-2的功能變數名稱
#slave2     //該功能變數名稱為centos7-3的功能變數名稱

啟動spark
#啟動spark之前先要把hadoop節點啟動起來
#cd /usr/hadoop/hadoop-3.1.0/
#sbin/start-all.sh
#jps //檢查啟動的線程是否已經把hadoop啟動起來了
#cd /usr/spark/spark-2.3.1-bin-hadoop2.7
#sbin/start-all.sh

備註:在slave1\slave2節點上也必須按照上面的方式安裝spark,或者直接拷貝一份到slave1,slave2節點上
#scp -r /usr/spark root@slave1ip:/usr/spark

啟動信息如下:

starting org.apache.spark.deploy.master.Master, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.master.Master-1-master.out
slave2: starting org.apache.spark.deploy.worker.Worker, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-slave2.com.cn.out
slave1: starting org.apache.spark.deploy.worker.Worker, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-slave1.com.cn.out
master: starting org.apache.spark.deploy.worker.Worker, logging to /usr/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-master.out

測試Spark集群:
用瀏覽器打開master節點上的spark集群url:http://192.168.190.130:8080/

centOS7下Spark安裝配置


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 1、cd到mysql安裝目錄bin目錄: 2、輸入id、用戶名和密碼: 3、查看資料庫實例: 4、創建一個實例: 5、刪除一個實例: 6、創建一個表: 7、刪除一個表: 8、表結構: 9、修改表: 你想在一個庫裡面建表的時候 首先你要記得use 使用當前的庫 use庫名 創建表: create ta ...
  • 簡介 在資料庫中,我們除了存儲數據外,還存儲了大量的元數據。它們主要的作用就是描述資料庫怎麼建立、配置、以及各種對象的屬性等。本篇簡單介紹如何使用和查詢元數據,如何更有效的管理SQLServer 資料庫。 對一些有經驗的資料庫開發和管理人員而言,元數據是非常有價值的。下麵我會介紹一下簡單的原理,然後 ...
  • 占座 ...
  • 這種情況一般是你以前安裝過MySQL資料庫服務項被占用了。解決方法: 方法一:安裝MySQL的時候在這一步時它預設的服務名是“MySQL” 只需要把這個名字改了就可以了。可以把預設的伺服器的名稱手動改為你沒用過的其他名稱。 方法二:1、卸載MySQL 2、刪除安裝目錄及數據存放目錄 3、在註冊表(r ...
  • 1.瞭解大數據理論要學習大數據你至少應該知道什麼是大數據,大數據一般運用在什麼領域。對大數據有一個大概的瞭解,你才能清楚自己對大數據究竟是否有興趣,如果對大數據一無所知就開始學習,有可能學著學著發現自己其實不喜歡,這樣浪費了時間精力,可能還浪費了金錢。所以如果想要學習大數據,需要先對大數據有一個大概 ...
  • 背景: 朋友的環境第二天突然訪問不了SQL Server,遠程SQL Server用戶無法登陸,但是本地SQL Server用戶登錄正常。 報錯: 用戶XX登錄失敗(MicroSoft SQL Server,錯誤18456) 排查: 對與無法連接伺服器的,一般的排查手段,也是最常用的手段。 1.因為 ...
  • 一、前言 背景:一些公立單位伺服器是不允許使用window7以上的系統的,而大部分都是window server系列的系統 首先大部分軟體安裝預設是在C盤,而一部分人安裝軟體是不喜歡預設安裝在C盤的,window7以上的系統安裝MySql都可以修改Data文件的存儲路徑。 但是我在window se ...
  • 目錄: (3)Android 官方網站 對 MediaPlayer的介紹 正文: Android 官方網站 對 MediaPlayer的介紹 MediaPlayer public class MediaPlayer extends Object implements VolumeAutomation ...
一周排行
    -Advertisement-
    Play Games
  • 概述:在C#中,++i和i++都是自增運算符,其中++i先增加值再返回,而i++先返回值再增加。應用場景根據需求選擇,首碼適合先增後用,尾碼適合先用後增。詳細示例提供清晰的代碼演示這兩者的操作時機和實際應用。 在C#中,++i 和 i++ 都是自增運算符,但它們在操作上有細微的差異,主要體現在操作的 ...
  • 上次發佈了:Taurus.MVC 性能壓力測試(ap 壓測 和 linux 下wrk 壓測):.NET Core 版本,今天計劃準備壓測一下 .NET 版本,來測試並記錄一下 Taurus.MVC 框架在 .NET 版本的性能,以便後續持續優化改進。 為了方便對比,本文章的電腦環境和測試思路,儘量和... ...
  • .NET WebAPI作為一種構建RESTful服務的強大工具,為開發者提供了便捷的方式來定義、處理HTTP請求並返迴響應。在設計API介面時,正確地接收和解析客戶端發送的數據至關重要。.NET WebAPI提供了一系列特性,如[FromRoute]、[FromQuery]和[FromBody],用 ...
  • 原因:我之所以想做這個項目,是因為在之前查找關於C#/WPF相關資料時,我發現講解圖像濾鏡的資源非常稀缺。此外,我註意到許多現有的開源庫主要基於CPU進行圖像渲染。這種方式在處理大量圖像時,會導致CPU的渲染負擔過重。因此,我將在下文中介紹如何通過GPU渲染來有效實現圖像的各種濾鏡效果。 生成的效果 ...
  • 引言 上一章我們介紹了在xUnit單元測試中用xUnit.DependencyInject來使用依賴註入,上一章我們的Sample.Repository倉儲層有一個批量註入的介面沒有做單元測試,今天用這個示例來演示一下如何用Bogus創建模擬數據 ,和 EFCore 的種子數據生成 Bogus 的優 ...
  • 一、前言 在自己的項目中,涉及到實時心率曲線的繪製,項目上的曲線繪製,一般很難找到能直接用的第三方庫,而且有些還是定製化的功能,所以還是自己繪製比較方便。很多人一聽到自己畫就害怕,感覺很難,今天就分享一個完整的實時心率數據繪製心率曲線圖的例子;之前的博客也分享給DrawingVisual繪製曲線的方 ...
  • 如果你在自定義的 Main 方法中直接使用 App 類並啟動應用程式,但發現 App.xaml 中定義的資源沒有被正確載入,那麼問題可能在於如何正確配置 App.xaml 與你的 App 類的交互。 確保 App.xaml 文件中的 x:Class 屬性正確指向你的 App 類。這樣,當你創建 Ap ...
  • 一:背景 1. 講故事 上個月有個朋友在微信上找到我,說他們的軟體在客戶那邊隔幾天就要崩潰一次,一直都沒有找到原因,讓我幫忙看下怎麼回事,確實工控類的軟體環境複雜難搞,朋友手上有一個崩潰的dump,剛好丟給我來分析一下。 二:WinDbg分析 1. 程式為什麼會崩潰 windbg 有一個厲害之處在於 ...
  • 前言 .NET生態中有許多依賴註入容器。在大多數情況下,微軟提供的內置容器在易用性和性能方面都非常優秀。外加ASP.NET Core預設使用內置容器,使用很方便。 但是筆者在使用中一直有一個頭疼的問題:服務工廠無法提供請求的服務類型相關的信息。這在一般情況下並沒有影響,但是內置容器支持註冊開放泛型服 ...
  • 一、前言 在項目開發過程中,DataGrid是經常使用到的一個數據展示控制項,而通常表格的最後一列是作為操作列存在,比如會有編輯、刪除等功能按鈕。但WPF的原始DataGrid中,預設只支持固定左側列,這跟大家習慣性操作列放最後不符,今天就來介紹一種簡單的方式實現固定右側列。(這裡的實現方式參考的大佬 ...