大數據學習系列之九---- Hive整合Spark和HBase以及相關測試

来源:https://www.cnblogs.com/xuwujing/archive/2018/01/20/8322022.html
-Advertisement-
Play Games

前言 在之前的 "大數據學習系列之七 Hadoop+Spark+Zookeeper+HBase+Hive集群搭建" 中介紹了集群的環境搭建,但是在使用hive進行數據查詢的時候會非常的慢,因為hive預設使用的引擎是MapReduce。因此就將spark作為hive的引擎來對hbase進行查詢,在成 ...


前言

在之前的大數據學習系列之七 ----- Hadoop+Spark+Zookeeper+HBase+Hive集群搭建 中介紹了集群的環境搭建,但是在使用hive進行數據查詢的時候會非常的慢,因為hive預設使用的引擎是MapReduce。因此就將spark作為hive的引擎來對hbase進行查詢,在成功的整合之後,我將如何整合的過程寫成本篇博文。具體如下!

事前準備

在進行整合之前,首先確保Hive、HBase、Spark的環境已經搭建成功!如果沒有成功搭建,具體可以看我之前寫的大數據學習系列之七 ----- Hadoop+Spark+Zookeeper+HBase+Hive集群搭建 這篇文章。
那麼開始將hive、hbase、spark整合吧。
目前集群的配置如下:
這裡寫圖片描述

Hive整合HBase

因為Hive與HBase整合的實現是利用兩者本身對外的API介面互相通信來完成的,其具體工作交由Hive的lib目錄中的hive-hbase-handler-*.jar工具類來實現。所以只需要將hive的 hive-hbase-handler-*.jar 複製到hbase/lib中就可以了。
切換到hive/lib目錄下
輸入:

cp hive-hbase-handler-*.jar /opt/hbase/hbase1.2/lib

: 如果在hive整合hbase中,出現版本之類的問題,那麼以hbase的版本為主,將hbase中的jar包覆蓋hive的jar包。

至於Hive和HBase之間的相關測試可以查看我之前的大數據學習系列之五 ----- Hive整合HBase圖文詳解 這篇文章,本篇就不再過多描述了。

Hive整合Spark

其實Hive整合Spark其實就是Hive使用Spark成功編譯好的架包,但是Hive整合Spark比較坑的是版本不能隨意,必須使用指定的進行編譯。當初因為這個問題困擾了很久,最後查閱資料找到了已經編譯好的spark和hive的版本,我們只需要將編譯好的jar拿過來進行使用就行了。具體使用如下。

hive的配置更改

切換到hive/conf 目錄下
編輯 hive-env.sh 文件
添加spark的環境:

export  SPARK_HOME=/opt/spark/spark1.6-hadoop2.4-hive

然後編輯 hive-site.xml 文件
在hive-site.xml 添加 這些配置
這些配置的說明:

hive.execution.engine: 表示 hive 執行的預設引擎是,這裡我們填的是spark。如果不想 加這個配置,希望手動使用spark,那麼進入hive shell之後,輸入:
set hive.execution.engine=spark;

spark.master: spark的主機地址,這裡我們填spark的預設地址。
spark.home: spark 的安裝路徑,寫spark的安裝路徑。
spark.submit.deployMode:spark的提交方式,預設就寫client。
spark.serializer: spark 的序列化方式。
spark.eventLog.enabled:是否使用spark的日誌,預設true。
spark.eventLog.dir : spark的日誌存放路徑,註意這個路徑要用hadoop創建!
spark.executor.memory:分配給spark的執行記憶體,根據個人機器來配置。
spark.driver.memory: spark總記憶體,根據個人機器來配置。

完整配置:

<!--  Hive On Spark 配置 -->
  
    <property>
       <name>hive.execution.engine</name>
        <value>spark</value>
    </property>

     <property>
           <name>spark.master</name>
           <value>spark://master:7077</value>
    </property>

        <property>
        <name>spark.home</name>
        <value>/opt/spark/spark1.6-hadoop2.4-hive</value>
        </property>

        <property>
        <name>spark.submit.deployMode</name>
        <value>client</value>
        </property>

        <property>
           <name>spark.serializer</name>
           <value>org.apache.spark.serializer.KryoSerializer</value>
        </property>

    <property>
       <name>spark.eventLog.enabled</name>
       <value>true</value>
    </property>

    <property>
       <name>spark.eventLog.dir</name>
       <value>hdfs://master:9000/directory</value>
    </property>

   <property>
       <name>spark.executor.memory</name>
       <value>10G</value>
    </property>

   <property>
       <name>spark.driver.memory</name>
       <value>10G</value>
    </property>

成功配置這些之後,進入hive shell中。
簡單進行兩個表的關聯查詢
這裡寫圖片描述
可以看到hive已經成功使用spark作為引擎了。

Hive on HBase 使用spark引擎測試

在成功整合環境之後,並且建立了兩張hive 外聯hbase的表之後。進行數據查詢測試。
兩張表的創建腳本:

create table t_student(id int,name string) stored by 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' with serdeproperties("hbase.columns.mapping"=":key,st1:name") tblproperties("hbase.table.name"="t_student","hbase.mapred.output.outputtable" = "t_student");

create table t_student_info(id int,age int,sex string) stored by 'org.apache.hadoop.hive.hbase.HBaseStorageHandler' with serdeproperties("hbase.columns.mapping"=":key,st1:age,st1:sex") tblproperties("hbase.table.name"="t_student_info","hbase.mapred.output.outputtable" = "t_student_info");

然後在兩張表中個插入插入100萬數據測試
註:我這裡是在HBase中直接插入100w數據的,使用HBase的Api完成的,具體可以大數據學習系列之三 ----- HBase Java Api 圖文詳解這篇博文。

這裡寫圖片描述

成功插入之後,我們在hive shell中來測試查詢速度。

條數測試:
這裡寫圖片描述

主鍵管理查詢測試:
這裡寫圖片描述

非主鍵查詢測試:
這裡寫圖片描述

註:其實也是可以使用hive的Api ,就是普通的JDBC連接,只不過連接驅動要換成

Class.forName("org.apache.hive.jdbc.HiveDriver");

具體實現可以看我的github中的代碼:https://github.com/xuwujing/pancm_project/blob/master/src/main/java/com/pancm/test/hiveTest/hiveUtil.java

結論: 使用 hive on spark 查詢可以看出,如果查詢條件是主鍵,也就是hbase中的rowkey的話,查詢100w數據可以在2.3s左右就查出來了(個人感覺打開spark估計就要用2s左右,如果量大的話,速度估計也不會很慢), 但是如果使用非主鍵的條件去查詢,就可以看到速度明顯變慢了。
所以在使用 hive on hbase 的時候,儘量使用rowkey進行查詢。

後記

其實集群的環境搭建以及整合在我寫第一篇大數據學習系列博客的時候就已經搭建好了。至於博客為什麼寫得這麼遲,第一點是當初搭建環境的時候,並沒有真正的理解那些配置的作用;第二點是環境搭建有些莫名其妙,經常出現問題,不過大部分問題和解決反感我都記錄並寫成博客了,所以慢慢寫博客其實也是個人知識的重新整理;第三是個人的精力有限,無法一口氣將這些都寫成博客,畢竟寫博客也需要一定時間和精力的。
完成本篇博文之後,暫時先不寫大數據這方面的博客了。感覺目前的自己能力還不夠,如果就這樣勉強的去自學,估計也很難學到知識點,更何況將其寫成博客來講解了。所以目前就先放放,有能力之後再來續寫!
大數據學習系列的文章:http://blog.csdn.net/column/details/18120.html


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 一、介紹extundelete 1.extundelete的文件恢復工具,該工具最給力的一點就是支持ext3/ext4雙格式分區恢復。 2. 在實際線上恢復過程中,切勿將extundelete安裝到你誤刪的文件所在硬碟,這樣會有一定幾率將需要恢復的數據徹底覆蓋。 3. extundelete還是有很 ...
  • Ubuntu是一個以桌面應用為主的Linux操作系統。Ubuntu每六個月發佈一個新版本(一般是4和10月份,命名為YY.MM),每一個普通版本都將被支持 18個月,長期支持版(Long Term Support, LTS)的桌面版本支持 3年,伺服器版本則是 5 年。因為她安裝軟體很方便(對於有網 ...
  • 在CentOS7下,預設安裝的就是python2.7,我現在來教大家如何安裝python3: 1、首先安裝python3.6可能使用的依賴 2、下載python源碼包,地址為https://www.python.org/downloads/source/,然後通過xftp上傳上去,或者直接使用wge ...
  • 1.首先下載rpm包 32位 wget https://download.teamviewer.com/download/linux/teamviewer.i686.rpm 64位 wget https://download.teamviewer.com/download/linux/teamvie ...
  • 一、實現原理 使用一種被稱為"公私鑰"認證的方式來進行ssh登錄。"公私鑰"認證方式簡單的解釋是: 首先在客戶端上創建一對公私鑰(公鑰文件:~/.ssh/id_rsa.pub;私鑰文件:~/.ssh/id_rsa),然後把公鑰放到伺服器上(~/.ssh/authorized_keys),自己保留好私 ...
  • 最近要讀寫 24C256,沒有參考網上代碼,自己擼了幾個小時,總是不對,讀取結果總是 0xFF,但是ACK的返回都是正確的,經過一番努力,終於找到問題所在了。 在晶元規格書裡面時序圖只有 START 和 STOP,沒有 RESTART,問題就是出在 RESTART 上面, 下圖是 I2C 標準裡面的 ...
  • 資料庫:12.1.0.2,rac,cdb模式 筆者負責移動兩個12.1.0.2的cdb集群,一個在aix上,一個在linux上,不幸的是,它們都是混合型,數據有100多T。 由於其它部門交付的時候,已經是12c,之前對12c不是很熟悉,但還是想看看是否可以在不分庫的前提下,最大化性能。 結果不行,因 ...
  • 索引是一個模式對象,其中包含每個值的條目,該條目出現在表或集群的索引列中,並提供對行的直接快速訪問。 創建一個索引: create index 索引名 on 表名 (欄位名); 刪除索引: drop index 索引名 建立索引的目的就是為了加快查詢速度,建立索引後會使DML操作效率慢,但是對用戶查 ...
一周排行
    -Advertisement-
    Play Games
  • Dapr Outbox 是1.12中的功能。 本文只介紹Dapr Outbox 執行流程,Dapr Outbox基本用法請閱讀官方文檔 。本文中appID=order-processor,topic=orders 本文前提知識:熟悉Dapr狀態管理、Dapr發佈訂閱和Outbox 模式。 Outbo ...
  • 引言 在前幾章我們深度講解了單元測試和集成測試的基礎知識,這一章我們來講解一下代碼覆蓋率,代碼覆蓋率是單元測試運行的度量值,覆蓋率通常以百分比表示,用於衡量代碼被測試覆蓋的程度,幫助開發人員評估測試用例的質量和代碼的健壯性。常見的覆蓋率包括語句覆蓋率(Line Coverage)、分支覆蓋率(Bra ...
  • 前言 本文介紹瞭如何使用S7.NET庫實現對西門子PLC DB塊數據的讀寫,記錄了使用電腦模擬,模擬PLC,自至完成測試的詳細流程,並重點介紹了在這個過程中的易錯點,供參考。 用到的軟體: 1.Windows環境下鏈路層網路訪問的行業標準工具(WinPcap_4_1_3.exe)下載鏈接:http ...
  • 從依賴倒置原則(Dependency Inversion Principle, DIP)到控制反轉(Inversion of Control, IoC)再到依賴註入(Dependency Injection, DI)的演進過程,我們可以理解為一種逐步抽象和解耦的設計思想。這種思想在C#等面向對象的編 ...
  • 關於Python中的私有屬性和私有方法 Python對於類的成員沒有嚴格的訪問控制限制,這與其他面相對對象語言有區別。關於私有屬性和私有方法,有如下要點: 1、通常我們約定,兩個下劃線開頭的屬性是私有的(private)。其他為公共的(public); 2、類內部可以訪問私有屬性(方法); 3、類外 ...
  • C++ 訪問說明符 訪問說明符是 C++ 中控制類成員(屬性和方法)可訪問性的關鍵字。它們用於封裝類數據並保護其免受意外修改或濫用。 三種訪問說明符: public:允許從類外部的任何地方訪問成員。 private:僅允許在類內部訪問成員。 protected:允許在類內部及其派生類中訪問成員。 示 ...
  • 寫這個隨筆說一下C++的static_cast和dynamic_cast用在子類與父類的指針轉換時的一些事宜。首先,【static_cast,dynamic_cast】【父類指針,子類指針】,兩兩一組,共有4種組合:用 static_cast 父類轉子類、用 static_cast 子類轉父類、使用 ...
  • /******************************************************************************************************** * * * 設計雙向鏈表的介面 * * * * Copyright (c) 2023-2 ...
  • 相信接觸過spring做開發的小伙伴們一定使用過@ComponentScan註解 @ComponentScan("com.wangm.lifecycle") public class AppConfig { } @ComponentScan指定basePackage,將包下的類按照一定規則註冊成Be ...
  • 操作系統 :CentOS 7.6_x64 opensips版本: 2.4.9 python版本:2.7.5 python作為腳本語言,使用起來很方便,查了下opensips的文檔,支持使用python腳本寫邏輯代碼。今天整理下CentOS7環境下opensips2.4.9的python模塊筆記及使用 ...