[HDFS Manual] CH2 HDFS Users Guide

来源:https://www.cnblogs.com/Amaranthus/archive/2018/03/14/8568521.html
-Advertisement-
Play Games

2 HDFS Users Guide 2 HDFS Users Guide. 1 2.1目的... 1 2.2.概述... 1 2.3.先決條件... 2 2.4. Web Interface. 2 2.5. Shell Command. 2 2.5.1 DFSAdmin 命令... 3 2.6 S ...


2 HDFS Users Guide

2 HDFS Users Guide. 1

2.1目的... 1

2.2.概述... 1

2.3.先決條件... 2

2.4. Web Interface. 2

2.5. Shell Command. 2

2.5.1 DFSAdmin 命令... 3

2.6 Secondary Namenode. 3

2.7 Checkpoint Node. 3

2.8 Backup node. 4

2.9 Import Checkpoint. 4

2.10 均衡器... 5

2.11 Rack Awareness. 5

2.12 Safemode. 5

2.13 fsck. 5

2.14 fetchdt. 5

2.15 Recovery Mode. 5

2.16 更新和回滾... 6

2.17 Datanode熱切換磁碟... 7

2.18 文件許可權和安全性... 7

2.19 可擴展性... 7

2.20 相關閱讀... 7

 

2.1目的

2.2.概述

HDFSHadoop應用使用的主要的分散式存儲。HDFS集群使用namenode管理文件系統元數據,datanode保存實際數據。HDFS體繫結構中有詳細的描述。用戶手冊主要解決HDFS和用戶的交互和HDFS集群的管理。HDFS體繫結構中描述了namenodedatanodeclient的相互之間的交互。Clientnamenode獲取元數據,修改元數據,在datanode中操作實際的數據。

以下是hdfs主要的特性:

·         Hadoop包含hdfshdfs是非常適用於商用的硬體上面,進行分散式存儲和分散式處理的。Hdfs有很好的容錯性,可擴展性,擴大也很簡單。Mapreduce也是極簡的適用於龐大的分散式系統。

·         HDFS是高可配置的,預設配置適用於大多數安裝。只有在極大的集群下需要調整配置。

·         Hadoop使用java開發,適用於絕大多數平臺。

·         Hadoop支持類似shell的命令行,與hdfs直接交互。

·         Namenodedatanodeweb服務,可以很簡單的查看和檢查當前集群狀態。

·         HDFS有用的特性:

o   文件許可權和人認證

o   Rack awareness:在調度任務和分配存儲是,考慮node的物理位置

o   Safemode:一個管理模式用來進行對hdfs維護。

o   Fsck:一個用來診斷文件系統是否良好的工具,發現丟失的文件和塊。

o   Fetchdt:用來獲取DelegationToken 並且保存到本地。

o   Balancer:datanode數據分佈不均勻,使用這個工具來均衡。

o   Upgraderollback:軟體更新後,因為一些無法預計的問題,可以回滾HDFS的更新

o   Secondary Namenode:定期的執行checkpoint,保證hdfs事務日誌大小。

o   Checkpoint node:在命名空間上執行checkpoint,並且最小化namenode的修改日誌大小。

o   Backup nodecheckpoint node 的擴展。除了checkpoint之外會接受到一串修改,並且維護在記憶體中。和namenode 保持同步。一個namenode只能有一個backup node

2.3.先決條件

2.4. Web Interface

Namenodedatanode每個都運行了一個內部的web server,為了顯示cluster集群的基本信息。使用預設配置,namenode 的前段網站是http://hosts:9870。列出了cluster中的datanodecluster的基本信息。Web interface可以用來瀏覽文件系統(使用 browse the file system)

2.5. Shell Command

Hadoop 包含各種類似shell的命令,直接與HDFS和其他的文件系統進行交互。可以使用hdfs dfs –help查看支持的命令。hdfs dfs -help command-name可以查看命令的詳細內容。命令支持很多和正常文件系統一樣的操作,比如複製文件,修改文件許可權等等。也支持HDFS的一些操作比如複製的文件個數。具體可以查看: File System Shell Guide.

2.5.1 DFSAdmin 命令

 hdfs dfsadmin用來支持HDFS管理操作。hdfs dfsadmin –help列出所有支持的命令,比如:

·         -report 報告HDFS的基本信息。一些信息都可以在namenode 的端頁面上可以查看

·         -safemode 可以讓用戶手動進入和退出safemode

·         -finalizeupgrade 清理最後一次cluster升級的備份。

·         -refreshnodes 更新namenode可以連接的datanode。預設namenode讀取dfs.hosts,dfs.host.exclude定義的文件中讀取。Dfs.hosts包含了只允許註冊到namenodeDfs.host.exclude是不允許的datanode。另外如果dfs.namenode.hosts.provider.classname設置為org.apache.hadoop.hdfs.server.blockmanagement.CombinedHostFileManager,所有包含和不包含的host都以json格式在dfs.hosts中。Datanode中的所有副本都放到了其他datanode,那麼datanode會被停用。停用的node會自動被關閉。

·         -printTopology 列印cluster的拓撲,顯示了namenode 可以查看到的一個b樹。

2.6 Secondary Namenode

Namenode的修改以日誌方式被保存,append的方式被加入到本地的文件系統文件中。當namenode啟動,會從fsimage讀取hdfs的狀態,然後應用editlog。然後把新的fsimage寫回到磁碟並且清空editlog。因為namenode只會在startup狀態才會合併,editlog文件在繁忙的cluster中會變的很大。這樣會是namenode啟動話很長時間。

Secondary namenode定期合併fsimageeditlog,並且限制editlog大小。通常運行在另外一個設備上,因為需要的記憶體和primary namenode一樣。

Secondary namenode上執行的checkpoint有個2參數控制:

·         Dfs.namenode.checkpoint.period 預設為1個小時,指定2checkpoint的時間間隔。

·         Dfs.namenode.checkpoint.txns 預設為100萬,沒100萬事務進行一次checkpoint

Secondary namenode在目錄中保存了最後一次checkpoint,目錄結構和primary namenode一樣。Checkpointimage會準備等待primary namenode 來讀取。

Secondary namenode 相關命令 secondarynamenode

2.7 Checkpoint Node

Namenode使用2種文件來保存元數據,fsimage,最後一次checkpoint的元數據,editlog,從最後一次checkpoint到現在的元數據修改日誌。當namenode啟動,會使用fsimageeditlog合併,提供最新的文件系統狀態。Namenode然後使用新的hdfs狀態覆蓋fsimage,並啟動新的editlog

Checkpoint node定期的創建命名空間的檢查點。會從活動的namenode下載fsimageeditlog,在本地合併,並且把新的image重新上傳到namenodeCheckpoint通常運行在不同的伺服器上,因為記憶體的需求和namenode一樣。Checkpoint node根據配置文件使用hdfs namenode –checkpoint啟動。

Checkpoint node 或者backup node可以通過配置dfs.namenode.backup.address dfs.namenode.backup.http-address設置。

checkpoint有個2參數控制:

·         Dfs.namenode.checkpoint.period 預設為1個小時,指定2checkpoint的時間間隔。

·         Dfs.namenode.checkpoint.txns 預設為100萬,沒100萬事務進行一次checkpoint

Checkpoint node在目錄中保存了最後一次checkpoint,目錄結構和namenode一樣。Checkpointimage會準備等待namenode 來讀取。

2.8 Backup node

Backup node提供和checkpoint node一樣的功能,也維護了一份記憶體的,最新的文件系統命名空間,這個是和活動namenode 保持同步狀態的。接收namenode的修改的流,然後放到本地磁碟上,backup node也只應用這些修改到自己在記憶體的命名空間中,因此創建了一個namespace的備份。

Backup node不需要去下載fsimageeditlog,來創建checkpoint,因為已經在記憶體中有了最新的狀態。Backup node checkpoint更加高效,只需要把命名空間保存到本地fsimage並且重置edit

Namenode只支持一個backup node。如果使用了backup node就無法使用checkpoint node。使用多個backup node在以後會支持。

Backup nodecheckpoint node啟動方式一樣。使用hdfs namenode –backup啟動。

本地的backup node或者checkpoint nodeweb interface通過dfs.namenode.backup.addressdfs.namenode.backup.http-address參數配置。

使用backup node提供了選項,可以讓namenode在沒有持續化存儲下運行,委托了所有的持續化到backup nodeNamenode-importcheckpoint啟動,只配置 dfs.namenode.edits.dir

對於完整的討論checkpoint node backup node 可以看 HADOOP-4539命令的使用可以看:namenode.

2.9 Import Checkpoint

最後一次checkpoint可以導入到namenode上如果所有其他的imageeditlog沒有丟失:

·         創建一個空的目錄,dfs.namenode.name.dir指向這個目錄

·         指向checkpoint數據所在目錄,dfs.namenode.checkpoint.dir

·         使用-importcheckpoint啟動namenode

Namenode會從checkpoint目錄讀取數據,然後存放到namenode目錄中。如果dfs.namenode.name.dir有文件那麼就會報錯。Namenode會檢查dfs.namenode.checkpoint.dir的一致性,但是不會修改它。

2.10 均衡器

HDFS數據並不是統一的在datanode中。一個原因就是cluster加入了一個新的datanode。當放置新的blocknamenode會在選擇datanode,考慮很多:

·         在寫入的node上保留一份

·         跨機架需要一份

·         相同機架的不通伺服器上面需要一份

·         HDFS數據統一的分配到datanode

因為很多考慮因素,因此數據不能統一的分配到所有datanodeHdfs提供了一個工具來管理分析block的位置,並且重新平衡datanode。一個簡單的均衡器管理在HADOOP-1652命令使用查看 balancer.

2.11 Rack Awareness

HDFS集群可以識別rack的拓撲。為了最優化數據容量和使用這個配置很重要。可以查看文檔:rack awareness 

2.12 Safemode

當啟動namenode的時候從去載入fsimageeditlog文件。然後等待datanode 報告他們的block信息。如果副本不夠就開始複製副本,這個時候namenode都在safemode下。Safemodehdfs集群是只讀的。如果datanode報告絕大多數block可用,那麼就會推出safemode。如果需要,HDFS可以手動進入hdfs dfsadmin –safemodeNamenode的前端網站可以看出safemode是否打開。

2.13 fsck

HDFS支持fsck命令檢查各種不一致性。Fsck被設計用來報告各種文件問題。比如,塊丟失。不想傳統的fsck工具,這個命令並不會修複發現的錯誤。Namenode會自動修複絕大多數的錯誤。Fsck不是hadoopshell命令,使用hdfs fsck啟動。具體可以查看:fsck.

2.14 fetchdt

HDFS支持fetchdt命令來獲取Delegation Token並保存在本地系統中。這個token在後面用於訪問伺服器。工具使用RPC或者HTTPS獲取tokenhdfs fetchdt 是不是hadoop shell命令。可以使用hdfs fetchdt DTfile。如果獲取了token之後運行hdfs命令就不需要Kerberos tickets。通過參數HADOOP_TOKEN_FILE_LOCATION指向token文件。Fetchdt命令具體使用: fetchdt 

2.15 Recovery Mode

通常如果配置了多個元數據存儲位置。如果一個存儲位置損壞,可以從另外一個位置上讀取。

但是如果只有一個存儲位置,那麼怎麼辦?這裡有個namenode啟動的特別模式recovery mode,可以恢復絕大多數數據。

通過namenode –recover進入recovery mode

進入recovery modenamenode會互動式提示你如何進行恢復。

如果不想要提示,可以加-force參數。會強制恢復模式總是選擇第一個選項。通常都是合理的。

因為恢復模式會導致數據丟失,最要先備份editlogfsimage

2.16 更新和回滾

Hadoop在集群上的升級,和其他軟體升級一樣,都有可能會出現新的bug或者不相容的修改影響現有的應用程式。HDFS允許管理員回退到之前的hadoop版本,並且回退cluster狀態。HDFS升級可以看 Hadoop Upgrade 。在升級前,管理員需要刪除已經有的backup使用hadoop dfsadmin –finalizeUpgrade命令。升級過程:

·         在升級前,確認是否有backup node

·         關閉集群,並且安裝新的hadoop

·         使用-upgrade命令,start-dfs.sh –upgrade

·         很多情況下,cluster工作是沒問題的,一旦新的hdfs被認為沒問題,完成升級。

·         如果需要回退到老的版本:

o   關閉集群並且安裝之前的hadoop

o   運行rollback命令hdfs namenode –rollback

o   –rollback啟動cluster start-dfs.sh –rollback

當更新到新的HDFS,需要刪除為新版本保留的路徑。如果namenode在更新的時候碰到一個保留的路徑。就會輸出錯誤:

/.reserved is a reserved path and .snapshot is a reserved path component in this version of HDFS. Please rollback and delete or rename this path, or upgrade with the -renameReserved [key-value pairs] option to automatically rename these paths during upgrade.

使用-upgrade -renameReserved [optional key-value pairs]如果出現衝突那麼會自動重命名比如,.snapshot 變為.my-snapshot 並且.reserved 變為 .my-reserved-upgrade -renameReserved .snapshot=.my-snapshot,.reserved=.my-reserved.

如果-renameReserved後面沒有kv對,namenode會自動加一個尾碼.<LAYOUT-VERSION>.UPGRADE_RENAMED, e.g. .snapshot.-51.UPGRADE_RENAMED

推薦在升級之前先運行hdfs dfsadmin –saveNamespace。如果edit log指向的文件被自動重命名那麼就會有數據一致性問題。

2.17 Datanode熱切換磁碟

Datanode支持熱切換。用戶可以增加或者替換HDFS數據捲,但是不需要關閉datanode。熱切換過程:

·         如果有新的存儲目錄,用戶可以格式化,並且mount

·         用戶更新修改datanode配置dfs.datanote.data.dir

·         運行dfsadmin -reconfig datanode HOST:PORT start重新配置。然後可以通過命令dfsadmin -reconfig datanode HOST:PORT status查看重新配置的運行狀態。

·         一旦重新配置任務完成,用戶可以安全的umount老的數據捲。

2.18 文件許可權和安全性

文件許可權設計和其他的linux平臺的文件系統類似。現在只用於限制簡單的文件許可權。啟動namenode 的用戶是HDFS的超級用戶。未來的版本HDFS會支持網路驗證協議,類似Kerberos並且加密數據傳輸。

2.19 可擴展性

Hadoop當前一個集群可能有上千個nodeHDFS每個cluster有一個namenode。當前namenode 的記憶體使用時主要的可擴展性限制。對於非常龐大的集群來說,增加平均文件的大小,可以增加cluster 的大小,但是又不會消耗太多記憶體。預設配置不使用於非常大的集群。

2.20 相關閱讀

  • Hadoop Site: The home page for the Apache Hadoop site.
  • Hadoop Wiki: The home page (FrontPage) for the Hadoop Wiki. Unlike the released documentation, which is part of Hadoop source tree, Hadoop Wiki is regularly edited by Hadoop Community.
  • FAQ: The FAQ Wiki page.
  • Hadoop JavaDoc API.
  • Hadoop User Mailing List: user[at]hadoop.apache.org.
  • Explore hdfs-default.xml. It includes brief description of most of the configuration variables available.
  • HDFS Commands Guide: HDFS commands usage.

 

 

 


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • keepalived使用腳本進行健康檢查時的相關配置項。例如keepalived+haproxy實現haproxy的高可用。 keepalived分為vrrp實例的心跳檢查和後端服務的健康檢查。如果要配置後端服務,則後端服務只能是LVS。但vrrp能獨立與lvs存在,例如keepalive結合hap ...
  • 虛擬記憶體 demand paging 如何判斷是否在記憶體里:valid(legal + in memory)invalid(illegal or legal + not in memory)。 如何處理illegal的情況:page fault 到內核 ; 查看internal table(PCB) ...
  • 在上一篇文章中,分析了haproxy的stick table特性和用法,其中特性之一也是很實用的特性是stick table支持在haproxy多個節點之間進行複製(replication)。 本文僅討論如何配置實現stick table的複製功能,不考慮在什麼環境下實現它,以及它的雙主模型如何配置 ...
  • CentOS 修改用戶密碼 1.普通用戶 ①獲取超級用戶root許可權 命令:su 或者 su- 或者 su -root ②輸入命令: passwd 用戶名 ③輸入新密碼 2.超級用戶 ①打開system-auth文件 命令:vim /etc/pam.d/system-auth ②修改其中一行(設置最 ...
  • 一、問題發現 今天重啟了一下虛擬機之後,出現了一個問題,那就是突然間使用Nat配置的IP地址丟失了,嘗試了重啟網路,重啟虛擬機兩種辦法,發現都沒有用,好吧,那就查看一下發生了什麼問題: 輸入命令: 然後發現瞭如下的錯誤信息: 後來,百度了一下相關的問題,但是都說是虛擬機的mac地址有問題,什麼執行i ...
  • 對於MySQL資料庫中的誤操作刪除數據的恢復問題,可以使用基於MySQL中binlog做到類似於閃回或者生成反向操作的SQL語句來實現,是MySQL中一個非常實用的功能。原理不難理解,基於MySQL的row格式的binlog中,記錄歷史的增刪改SQL信息,基於此解析出來對應的SQL語句(回滾的話就是 ...
  • 嘗試了一下MySQL 8.0的部分新特性。 如果用過MSSQL或者是Oracle中的視窗函數(Oracle中叫分析函數), 然後再使用MySQL 8.0之前的時候,就知道需要在使用視窗函數處理邏輯的痛苦了,雖然純SQL也能實現類似於視窗函數的功能,但是這種SQL在可讀性和以及使用方式上大打折扣,看起 ...
  • 1.MySQL資料庫基礎 顯示當前的伺服器版本 SELECT VERSION(); 顯示當前的日期時間 SELECT NOW(); 顯示當前用戶 SELECT USER(); 查看資料庫 SHOW DATABASES; 查看警告 SHOW WARNINGS; 2.MySQL語句的規範 (1) 關鍵字 ...
一周排行
    -Advertisement-
    Play Games
  • 基於.NET Framework 4.8 開發的深度學習模型部署測試平臺,提供了YOLO框架的主流系列模型,包括YOLOv8~v9,以及其系列下的Det、Seg、Pose、Obb、Cls等應用場景,同時支持圖像與視頻檢測。模型部署引擎使用的是OpenVINO™、TensorRT、ONNX runti... ...
  • 十年沉澱,重啟開發之路 十年前,我沉浸在開發的海洋中,每日與代碼為伍,與演算法共舞。那時的我,滿懷激情,對技術的追求近乎狂熱。然而,隨著歲月的流逝,生活的忙碌逐漸占據了我的大部分時間,讓我無暇顧及技術的沉澱與積累。 十年間,我經歷了職業生涯的起伏和變遷。從初出茅廬的菜鳥到逐漸嶄露頭角的開發者,我見證了 ...
  • C# 是一種簡單、現代、面向對象和類型安全的編程語言。.NET 是由 Microsoft 創建的開發平臺,平臺包含了語言規範、工具、運行,支持開發各種應用,如Web、移動、桌面等。.NET框架有多個實現,如.NET Framework、.NET Core(及後續的.NET 5+版本),以及社區版本M... ...
  • 前言 本文介紹瞭如何使用三菱提供的MX Component插件實現對三菱PLC軟元件數據的讀寫,記錄了使用電腦模擬,模擬PLC,直至完成測試的詳細流程,並重點介紹了在這個過程中的易錯點,供參考。 用到的軟體: 1. PLC開發編程環境GX Works2,GX Works2下載鏈接 https:// ...
  • 前言 整理這個官方翻譯的系列,原因是網上大部分的 tomcat 版本比較舊,此版本為 v11 最新的版本。 開源項目 從零手寫實現 tomcat minicat 別稱【嗅虎】心有猛虎,輕嗅薔薇。 系列文章 web server apache tomcat11-01-官方文檔入門介紹 web serv ...
  • 1、jQuery介紹 jQuery是什麼 jQuery是一個快速、簡潔的JavaScript框架,是繼Prototype之後又一個優秀的JavaScript代碼庫(或JavaScript框架)。jQuery設計的宗旨是“write Less,Do More”,即倡導寫更少的代碼,做更多的事情。它封裝 ...
  • 前言 之前的文章把js引擎(aardio封裝庫) 微軟開源的js引擎(ChakraCore))寫好了,這篇文章整點js代碼來測一下bug。測試網站:https://fanyi.youdao.com/index.html#/ 逆向思路 逆向思路可以看有道翻譯js逆向(MD5加密,AES加密)附完整源碼 ...
  • 引言 現代的操作系統(Windows,Linux,Mac OS)等都可以同時打開多個軟體(任務),這些軟體在我們的感知上是同時運行的,例如我們可以一邊瀏覽網頁,一邊聽音樂。而CPU執行代碼同一時間只能執行一條,但即使我們的電腦是單核CPU也可以同時運行多個任務,如下圖所示,這是因為我們的 CPU 的 ...
  • 掌握使用Python進行文本英文統計的基本方法,並瞭解如何進一步優化和擴展這些方法,以應對更複雜的文本分析任務。 ...
  • 背景 Redis多數據源常見的場景: 分區數據處理:當數據量增長時,單個Redis實例可能無法處理所有的數據。通過使用多個Redis數據源,可以將數據分區存儲在不同的實例中,使得數據處理更加高效。 多租戶應用程式:對於多租戶應用程式,每個租戶可以擁有自己的Redis數據源,以確保數據隔離和安全性。 ...