Kafka 常見問題

来源:https://www.cnblogs.com/taojietaoge/archive/2022/11/17/16893771.html
-Advertisement-
Play Games

Kafka 常見問題 一年將盡夜,萬里未歸人。 1、Kafka 簡介 Apache Kafka是一個分散式發佈 - 訂閱消息系統和一個強大的隊列, 可以處理大量的數據, 並使您能夠將消息從一個端點傳遞到另一個端點。 Kafka適合離線和線上消息消費,Kafka消息保留在磁碟上, 併在群集內複製以防止 ...


Kafka 常見問題

    一年將盡夜,萬里未歸人。

1、Kafka 簡介

Apache Kafka是一個分散式發佈 - 訂閱消息系統和一個強大的隊列, 可以處理大量的數據, 並使您能夠將消息從一個端點傳遞到另一個端點。 Kafka適合離線和線上消息消費,Kafka消息保留在磁碟上, 併在群集內複製以防止數據丟失。 Kafka構建在ZooKeeper同步服務之上,依賴 Zookeeper,它與Apache Storm和Spark非常好地集成, 用於實時流式數據分析。 Kafka 依賴於日誌順序寫, 因此支持消息回溯和支撐高性能讀寫。

2、Kafka 的 Broker 基本概念

Kafka的 Server包含多個 Topic 、Partition 和 Replica,負責協調 Producer 和 Consumer。主從結構為: 主節點為 Controller, 從節點為從節點 Kafka 啟動是會往 Zookeeper 中註冊當前Broker 信息,誰先註冊誰就是 Controller,讀取註冊上來的從節點的數據(通過監聽機制), 生成集群的元數據信息, 之後把這些信息都分發給其他的伺服器, 讓其他伺服器能感知到集群中其它成員的存在

3、Kafka 的 Topic 基本概念

標準 MQ 中的 Queue,Kafka 中一個 Topic 的消息會保存在不同的 Partition (不同的 Broker)來保證高可用。

4、Kafka 的 Partition (分區) 基本概念

  • 可以理解為將標準 MQ 的 Queue 的消息進行拆分, 來實現高可用。
  • Producer 發送的 Message, 根據 key 和 partition 數進行 hash, 然後進行投遞。
  • 一個分區只能被同一個 Consumer Group 中的一個 Consumer 消費,分區內消費有序。

5、Replica (備份)

每一個 Partition 的備份。 Replica 的小於等於 Broker 的數量。 Leader: Replica領導節點, 每一個 Partition 都有對應的 Leader 節點(Broker),Producer 寫數據時, 只會往 Leader 中寫,Consumer 讀數據也是從 Leader 中讀。 Follower: Replica跟隨節點, 用於複製領導節點的數據,複製 Leader 消息採用 pull (拉)模式。、
# Broker 設置副本數量 預設為 3 
default.replication.factor
# Topic 設置副本數量
replication-factor

6、ISR (In-Sync Replica)

Leader維護一個與其基本保持同步的Replica列表, 每個Partition都會有一個ISR, 而且是由leader動態維護。如果一個flower比一個leader落後太多, 或者超過一定時間未發起數據複製請求, 則leader將其重ISR中移除。當ISR中所有Replica都向Leader發送ACK時, leader才commit。 Leader 宕機之後, 會從 ISR 選擇數據最新的 Follower 來當做 Leader 如果 ISR 全部宕機, 則選擇第一個回覆的 Replica 當做 Leader 節點 (消息可能會丟失或者重覆消費)。

7、水印備份機制

水印備份機制即 LEO (last end offffset),日誌末端位移, 記錄了該副本對象底層日誌文件中下一條消息的位移值, 副本寫入消息的時候, 會自動更新 LEO 值 Leader 會保存兩個 LEO 值, 一個是自己的 LEO 值, 另外一個是 remote 的 LEO 值。Follower 每次 fetch 請求都會攜帶當前 LEO, Leader 會選擇最小的 LEO來更新 HW HW (high watermark): 從名字可以知道, 該值叫高水印值, HW 一定不會大於 LEO 值, 小於 HW 值的消息被認為是"已提交"或"已備份"的消息, 並對消費者可見。

8、Message

標準 MQ 的 Queue 中的 Message,即一條消息。

9、Producer

標準 MQ 中的發送方,發送給 Broker 使用push (推)模式。

10、數據一致性保證 (消息不丟失)

request.required.asks=0
  • 0: 相當於非同步的, 不需要leader給予回覆, producer立即返回, 發送就是成功,那麼發送消息網路超時或broker crash(1.Partition的Leader還沒有commit消息 2.Leader與Follower數據不同步), 既有可能丟失也可能會重發。
  • 1:當leader接收到消息之後發送ack, 丟會重發, 丟的概率很小。
  • -1:當所有的follower都同步消息成功後發送ack. 不會丟失消息。

11、Consumer

標準 MQ 中的消費方,接受 Broker 使用 pull (拉)模式, 預設 100ms 拉一次,Consumer 消費的是Partition 的數據。 消息丟失: 手動確認 ack 而不是自動提交。 消息重覆: 消費端冪等處理。

12、Consumer Group

在 Kafka 中, 一個 Topic 是可以被一個消費組消費, 一個Topic 分發給 Consumer Group 中的Consumer 進行消費, 保證同一條 Message 不會被不同的 Consumer 消費。 註意: 當Consumer Group的 Consumer 數量大於 Partition 的數量時, 超過 Partition 的數量將會拿不到消息。

13、分片規則

Kafka分配Replica的演算法有兩種: RangeAssignor 和 RoundRobinAssignor 預設為RangeAssignor: 1. 將所有Broker(假設共n個Broker)和待分配的Partition排序 2. 將第i個Partition分配到第(i mod n)個Broker上 3. 將第i個Partition的第j個Replica分配到第((i + j) mod n)個Broker上

14、Rebalance (重平衡)

Rebalance 本質上是一種協議, 規定了一個 Consumer Group 下的所有 consumer 如何達成一致,來分配訂閱 Topic 的每個分區。 Rebalance 發生時, 所有的 Consumer Group 都停止工作, 直到 Rebalance 完成。

15、Coordinator

Group Coordinator 是一個服務, 每個 Broker 在啟動的時候都會啟動一個該服務 Group Coordinator 的作用是用來存儲 Group 的相關 Meta 信息, 並將對應 Partition 的 Offset 信息記錄到 Kafka 內置 Topic(__consumer_offsets)中 Kafka 在0.9之前是基於 Zookeeper 來存儲Partition的 offset 信息(consumers/{group}/offsets/{topic}/{partition}), 因為 Zookeeper 並不適用於頻繁的寫操作, 所以在0.9之後通過內置 Topic 的方式來記錄對應 Partition 的 offset。

16、Rebalace 流程

Rebalance 過程分為兩步:Join 和 Sync 1. Join: 顧名思義就是加入組。這一步中, 所有成員都向 Coordinator 發送 JoinGroup 請求, 請求加入消費組,一旦所有成員都發送了 JoinGroup 請求, Coordinator 會從中選擇一個Consumer 擔任 Leader 的角色, 並把組成員信息以及訂閱信息發給 Consumer Leader ,註意Consumer Leader 和 Coordinator不是一個概念。Consumer Leader負責消費分配方案的制定。 2. Sync: Consumer Leader 開始分配消費方案, 即哪個 Consumer 負責消費哪些 Topic 的哪些Partition。一旦完成分配, Leader 會將這個方案封裝進 SyncGroup 請求中發給 Coordinator,非 Leader 也會發 SyncGroup 請求, 只是內容為空。Coordinator 接收到分配方案之後會把方案塞進SyncGroup的Response中發給各個Consumer,這樣組內的所有成員就都知道自己應該消費哪些分區了。

17、日誌索引

Kafka 能支撐 TB 級別數據, 在日誌級別有兩個原因: 順序寫和日誌索引。 Kafka 在一個日誌文件達到一定數據量 (1G) 之後, 會生成新的日誌文件, 大數據情況下會有多個日誌文件, 通過偏移量來確定到某行紀錄時, 如果遍歷所有的日誌文件, 那效率自然是很差的。Kafka在日誌級別上抽出來一層日誌索引, 來方便根據 offset 快速定位到是某個日誌文件。 每一個 partition 對應多個個 log 文件(最大 1G), 每一個 log 文件又對應一個 index 文件。

18、Kafka 高性能、高吞吐 的原因?

分區、順序寫、批發送和數據壓縮等。

19、分區的原因

如果我們假設像標準 MQ 的 Queue, 為了保證一個消息只會被一個消費者消費, 那麼我們第一想到的就是加鎖。對於發送者, 在多線程並且非順序寫環境下, 保證數據一致性, 我們同樣也要加鎖。一旦考慮到加鎖, 就會極大的影響性能。我們再來看Kafka 的 Partition, Kafka 的消費模式和發送模式都是以 Partition 為分界,也就是說對於一個 Topic 的併發量限制在於有多少個 Partition, 就能支撐多少的併發,可以參考 Java 1.7 的 ConcurrentHashMap 的桶設計, 原理一樣, 有多少桶, 支持多少的併發。

20、順序寫

磁碟的順序寫的性能要比記憶體隨機寫的還要強。

21、批發送

批處理是一種常用的用於提高I/O性能的方式。對Kafka而言, 批處理既減少了網路傳輸的Overhead, 又提高了寫磁碟的效率。Kafka 0.82 之後是將多個消息合併之後再發送, 而並不是send一條就立馬發送(之前支持)。
# 批量發送的基本單位, 預設是16384Bytes, 即16kB 
batch.size 
# 延遲時間 linger.ms 
# 兩者滿足其一便發送

22、數據壓縮

數據壓縮的一個基本原理是, 重覆數據越多壓縮效果越好. 因此將整個Batch的數據一起壓縮能更大幅度減小數據量, 從而更大程度提高網路傳輸效率Broker接收消息後,並不直接解壓縮,而是直接將消息以壓縮後的形式持久化到磁碟 Consumer接受到壓縮後的數據再解壓縮。 整體來講: Producer 到 Broker, 副本複製, Broker 到 Consumer 的數據都是壓縮後的數據, 保證高效率的傳輸。         一年將盡夜 萬里未歸人        
您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • 限流,通常講就是限制流量,也有很多其他的說法,比如:限頻、疲勞度控制等。 原文鏈接:自定義開發限流組件 之 場景需求分析-一隻小Coder 最近遇到一個需求,系統A作為一個專門推送消息給客戶的消息中心系統,對於每個客戶是否能接受消息,能接受多少消息,接收消息的速度,能接受哪些消息等都要進行控制,這也 ...
  • 5.4 介面開發-根據id刪除附件 第2-1-2章 傳統方式安裝FastDFS-附FastDFS常用命令 第2-1-3章 docker-compose安裝FastDFS,實現文件存儲服務 第2-1-5章 docker安裝MinIO實現文件存儲服務-springboot整合minio-minio全網最 ...
  • 自己的客服系統做好了,官網頁面也有了,但是沒有介紹性的內容文章。網站被收錄的太少,這樣會導致網站的權重不高,搜索排名比較低。 因此要簡單的加上一個小型的內容管理功能。 設計資料庫 很簡單的兩張表,分類表和內容表 DROP TABLE IF EXISTS `cms_cate`; CREATE TABL ...
  • jdk線程池工作原理解析(二) 本篇博客是jdk線程池ThreadPoolExecutor工作原理解析系列博客的第二篇,在第一篇博客中從源碼層面分析了ThreadPoolExecutor在RUNNING狀態下處理任務的核心邏輯,而在這篇博客中將會詳細講解jdk線程池ThreadPoolExecuto ...
  • RabbitMQ 常見問題 昔我往矣,楊柳依依。今我來思,雨雪霏霏。 1、什麼是RabbitMQ? RabbitMQ是一款開源的、Erlang編寫的消息中間件;最大的特點就是消費並不需要確保提供方存在,實現了服務之間的高度解耦,可以用它來:解耦、非同步、削峰。 2、MQ的優點 非同步處理 - 相比於傳統 ...
  • 實現02 3.實現任務階段3-處理Servlet02 3.3Servlet規範設計 3.3.1MyServlet 該類模仿Servlet介面,為了簡化,只聲明瞭三個方法:init(),service(),destroy() package com.li.MyTomcat.servlet; impor ...
  • 通過創建數據表索引,有效提升系統性能。 一、問題背景 在11月10日下午5點,出現channel非同步下發消息隊列消息積壓報警,經排查分析是因為channel請求鑫某億服務商落單時間過長,導致了channel消費消息隊列的消息變慢的情況。所以,專項對鑫某億系統相關業務進行優化。 一(1)、現場 查看當 ...
  • 眾所周知,某度本身就是最大的爬蟲腳本,那麼純純的去某個網站找壁紙,還不如去某度圖片直接找,瞬間格局打開! 話不多說,直接用Python來開發一下此處資源! 開發環境 & 第三方模塊 環境 解釋器版本 >>> python 3.8 代碼編輯器 >>> pycharm 2021.2 模塊 request ...
一周排行
    -Advertisement-
    Play Games
  • 基於.NET Framework 4.8 開發的深度學習模型部署測試平臺,提供了YOLO框架的主流系列模型,包括YOLOv8~v9,以及其系列下的Det、Seg、Pose、Obb、Cls等應用場景,同時支持圖像與視頻檢測。模型部署引擎使用的是OpenVINO™、TensorRT、ONNX runti... ...
  • 十年沉澱,重啟開發之路 十年前,我沉浸在開發的海洋中,每日與代碼為伍,與演算法共舞。那時的我,滿懷激情,對技術的追求近乎狂熱。然而,隨著歲月的流逝,生活的忙碌逐漸占據了我的大部分時間,讓我無暇顧及技術的沉澱與積累。 十年間,我經歷了職業生涯的起伏和變遷。從初出茅廬的菜鳥到逐漸嶄露頭角的開發者,我見證了 ...
  • C# 是一種簡單、現代、面向對象和類型安全的編程語言。.NET 是由 Microsoft 創建的開發平臺,平臺包含了語言規範、工具、運行,支持開發各種應用,如Web、移動、桌面等。.NET框架有多個實現,如.NET Framework、.NET Core(及後續的.NET 5+版本),以及社區版本M... ...
  • 前言 本文介紹瞭如何使用三菱提供的MX Component插件實現對三菱PLC軟元件數據的讀寫,記錄了使用電腦模擬,模擬PLC,直至完成測試的詳細流程,並重點介紹了在這個過程中的易錯點,供參考。 用到的軟體: 1. PLC開發編程環境GX Works2,GX Works2下載鏈接 https:// ...
  • 前言 整理這個官方翻譯的系列,原因是網上大部分的 tomcat 版本比較舊,此版本為 v11 最新的版本。 開源項目 從零手寫實現 tomcat minicat 別稱【嗅虎】心有猛虎,輕嗅薔薇。 系列文章 web server apache tomcat11-01-官方文檔入門介紹 web serv ...
  • 1、jQuery介紹 jQuery是什麼 jQuery是一個快速、簡潔的JavaScript框架,是繼Prototype之後又一個優秀的JavaScript代碼庫(或JavaScript框架)。jQuery設計的宗旨是“write Less,Do More”,即倡導寫更少的代碼,做更多的事情。它封裝 ...
  • 前言 之前的文章把js引擎(aardio封裝庫) 微軟開源的js引擎(ChakraCore))寫好了,這篇文章整點js代碼來測一下bug。測試網站:https://fanyi.youdao.com/index.html#/ 逆向思路 逆向思路可以看有道翻譯js逆向(MD5加密,AES加密)附完整源碼 ...
  • 引言 現代的操作系統(Windows,Linux,Mac OS)等都可以同時打開多個軟體(任務),這些軟體在我們的感知上是同時運行的,例如我們可以一邊瀏覽網頁,一邊聽音樂。而CPU執行代碼同一時間只能執行一條,但即使我們的電腦是單核CPU也可以同時運行多個任務,如下圖所示,這是因為我們的 CPU 的 ...
  • 掌握使用Python進行文本英文統計的基本方法,並瞭解如何進一步優化和擴展這些方法,以應對更複雜的文本分析任務。 ...
  • 背景 Redis多數據源常見的場景: 分區數據處理:當數據量增長時,單個Redis實例可能無法處理所有的數據。通過使用多個Redis數據源,可以將數據分區存儲在不同的實例中,使得數據處理更加高效。 多租戶應用程式:對於多租戶應用程式,每個租戶可以擁有自己的Redis數據源,以確保數據隔離和安全性。 ...