Flink入門寶典(詳細截圖版)

来源:https://www.cnblogs.com/tree1123/archive/2019/09/18/11539955.html
-Advertisement-
Play Games

本文基於java構建Flink1.9版本入門程式,需要Maven 3.0.4 和 Java 8 以上版本。需要安裝Netcat進行簡單調試。 這裡簡述安裝過程,並使用IDEA進行開發一個簡單流處理程式,本地調試或者提交到Flink上運行,Maven與JDK安裝這裡不做說明。 一、Flink簡介 Fl ...


file
本文基於java構建Flink1.9版本入門程式,需要Maven 3.0.4 和 Java 8 以上版本。需要安裝Netcat進行簡單調試。

這裡簡述安裝過程,並使用IDEA進行開發一個簡單流處理程式,本地調試或者提交到Flink上運行,Maven與JDK安裝這裡不做說明。

一、Flink簡介

Flink誕生於歐洲的一個大數據研究項目StratoSphere。該項目是柏林工業大學的一個研究性項目。早期,Flink是做Batch計算的,但是在2014年,StratoSphere裡面的核心成員孵化出Flink,同年將Flink捐贈Apache,併在後來成為Apache的頂級大數據項目,同時Flink計算的主流方向被定位為Streaming,即用流式計算來做所有大數據的計算,這就是Flink技術誕生的背景。

2015開始阿裡開始介入flink 負責對資源調度和流式sql的優化,成立了阿裡內部版本blink在最近更新的1.9版本中,blink開始合併入flink,

未來flink也將支持java,scala,python等更多語言,併在機器學習領域施展拳腳。

二、Flink開發環境搭建

首先要想運行Flink,我們需要下載並解壓Flink的二進位包,下載地址如下:https://flink.apache.org/downloads.html

我們可以選擇Flink與Scala結合版本,這裡我們選擇最新的1.9版本Apache Flink 1.9.0 for Scala 2.12進行下載。

Flink在Windows和Linux下的安裝與部署可以查看 Flink快速入門--安裝與示例運行,這裡演示windows版。

安裝成功後,啟動cmd命令行視窗,進入flink文件夾,運行bin目錄下的start-cluster.bat

$ cd flink
$ cd bin
$ start-cluster.bat
Starting a local cluster with one JobManager process and one TaskManager process.
You can terminate the processes via CTRL-C in the spawned shell windows.
Web interface by default on http://localhost:8081/.

顯示啟動成功後,我們在瀏覽器訪問 http://localhost:8081/可以看到flink的管理頁面。

file

三、Flink快速體驗

請保證安裝好了flink,還需要Maven 3.0.4 和 Java 8 以上版本。這裡簡述Maven構建過程。

其他詳細構建方法歡迎查看:快速構建第一個Flink工程

1、搭建Maven工程

使用Flink Maven Archetype構建一個工程。

 $ mvn archetype:generate                               \
      -DarchetypeGroupId=org.apache.flink              \
      -DarchetypeArtifactId=flink-quickstart-java      \
      -DarchetypeVersion=1.9.0

你可以編輯自己的artifactId groupId

目錄結構如下:

$ tree quickstart/
quickstart/
├── pom.xml
└── src
    └── main
        ├── java
        │   └── org
        │       └── myorg
        │           └── quickstart
        │               ├── BatchJob.java
        │               └── StreamingJob.java
        └── resources
            └── log4j.properties

在pom中核心依賴:

<dependencies>
    <dependency>
        <groupId>org.apache.flink</groupId>
        <artifactId>flink-java</artifactId>
        <version>${flink.version}</version>
    </dependency>
    <dependency>
        <groupId>org.apache.flink</groupId>
        <artifactId>flink-streaming-java_2.11</artifactId>
        <version>${flink.version}</version>
    </dependency>
    <dependency>
        <groupId>org.apache.flink</groupId>
        <artifactId>flink-clients_2.11</artifactId>
        <version>${flink.version}</version>
    </dependency>
</dependencies>

2、編寫代碼

StreamingJob

import org.apache.flink.api.common.functions.FlatMapFunction;
import org.apache.flink.api.java.tuple.Tuple2;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.streaming.api.windowing.time.Time;
import org.apache.flink.util.Collector;
public class StreamingJob {

    public static void main(String[] args) throws Exception {
        final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        DataStream<Tuple2<String, Integer>> dataStreaming = env
                .socketTextStream("localhost", 9999)
                .flatMap(new Splitter())
                .keyBy(0)
                .timeWindow(Time.seconds(5))
                .sum(1);

        dataStreaming.print();

        // execute program
        env.execute("Flink Streaming Java API Skeleton");
    }
    public static class Splitter implements FlatMapFunction<String, Tuple2<String, Integer>> {

        @Override
        public void flatMap(String sentence, Collector<Tuple2<String, Integer>> out) throws Exception {
            for(String word : sentence.split(" ")){
                out.collect(new Tuple2<String, Integer>(word, 1));
            }
        }

    }
}

3、調試程式

安裝netcat工具進行簡單調試。

啟動netcat 輸入:

nc -l 9999

啟動程式

file

在netcat中輸入幾個單詞 逗號分隔

file

在程式一端查看結果

file

啟動flink

windows為 start-cluster.bat    linux為start-cluster.sh

localhost:8081查看管理頁面

file

通過maven對代碼打包

file

將打好的包提交到flink上

file

查看log

tail -f log/flink-***-jobmanager.out

在netcat中繼續輸入單詞,在Running Jobs中查看作業狀態,在log中查看輸出。

file

Flink提供不同級別的抽象來開發流/批處理應用程式。

file

最低級抽象只提供有狀態流

在實踐中,大多數應用程式不需要上述低級抽象,而是針對Core API編程, 如DataStream API(有界/無界流)和DataSet API(有界數據集)。

Table Api聲明瞭一個表,遵循關係模型。

最高級抽象是SQL

我們這裡只用到了DataStream API。

Flink程式的基本構建塊是轉換

一個程式的基本構成:

l 獲取execution environment

l 載入/創建原始數據

l 指定這些數據的轉化方法

l 指定計算結果的存放位置

l 觸發程式執行

file

五、DataStreaming API使用

1、獲取execution environment

StreamExecutionEnvironment是所有Flink程式的基礎,獲取方法有:

getExecutionEnvironment()

createLocalEnvironment()

createRemoteEnvironment(String host, int port, String ... jarFiles)

一般情況下使用getExecutionEnvironment。如果你在IDE或者常規java程式中執行可以通過createLocalEnvironment創建基於本地機器的StreamExecutionEnvironment。如果你已經創建jar程式希望通過invoke方式獲取裡面的getExecutionEnvironment方法可以使用createRemoteEnvironment方式。

2、載入/創建原始數據

StreamExecutionEnvironment提供的一些訪問數據源的介面

(1)基於文件的數據源

readTextFile(path)
readFile(fileInputFormat, path)
readFile(fileInputFormat, path, watchType, interval, pathFilter, typeInfo)

(2)基於Socket的數據源(本文使用的)

socketTextStream

 

(3)基於Collection的數據源

fromCollection(Collection)
fromCollection(Iterator, Class)
fromElements(T ...)
fromParallelCollection(SplittableIterator, Class)
generateSequence(from, to)

3、轉化方法

(1)Map方式:DataStream -> DataStream

功能:拿到一個element並輸出一個element,類似Hive中的UDF函數

舉例:

DataStream<Integer> dataStream = //...
dataStream.map(new MapFunction<Integer, Integer>() {
    @Override
    public Integer map(Integer value) throws Exception {
        return 2 * value;
    }
});

(2)FlatMap方式:DataStream -> DataStream

功能:拿到一個element,輸出多個值,類似Hive中的UDTF函數

舉例:

dataStream.flatMap(new FlatMapFunction<String, String>() {
    @Override
    public void flatMap(String value, Collector<String> out)
        throws Exception {
        for(String word: value.split(" ")){
            out.collect(word);
        }
    }
});

(3)Filter方式:DataStream -> DataStream

功能:針對每個element判斷函數是否返回true,最後只保留返回true的element

舉例:

dataStream.filter(new FilterFunction<Integer>() {
    @Override
    public boolean filter(Integer value) throws Exception {
        return value != 0;
    }
});

(4)KeyBy方式:DataStream -> KeyedStream

功能:邏輯上將流分割成不相交的分區,每個分區都是相同key的元素

舉例:

dataStream.keyBy("someKey") // Key by field "someKey"
dataStream.keyBy(0) // Key by the first element of a Tuple

(5)Reduce方式:KeyedStream -> DataStream

功能:在keyed data stream中進行輪訓reduce。

舉例:

keyedStream.reduce(new ReduceFunction<Integer>() {
    @Override
    public Integer reduce(Integer value1, Integer value2)
    throws Exception {
        return value1 + value2;
    }
});

(6)Aggregations方式:KeyedStream -> DataStream

功能:在keyed data stream中進行聚合操作

舉例:

keyedStream.sum(0);
keyedStream.sum("key");
keyedStream.min(0);
keyedStream.min("key");
keyedStream.max(0);
keyedStream.max("key");
keyedStream.minBy(0);
keyedStream.minBy("key");
keyedStream.maxBy(0);
keyedStream.maxBy("key");

(7)Window方式:KeyedStream -> WindowedStream

功能:在KeyedStream中進行使用,根據某個特征針對每個key用windows進行分組。

舉例:

dataStream.keyBy(0).window(TumblingEventTimeWindows.of(Time.seconds(5))); // Last 5 seconds of data

(8)WindowAll方式:DataStream -> AllWindowedStream

功能:在DataStream中根據某個特征進行分組。

舉例:

dataStream.windowAll(TumblingEventTimeWindows.of(Time.seconds(5))); // Last 5 seconds of data

(9)Union方式:DataStream* -> DataStream

功能:合併多個數據流成一個新的數據流

舉例:

dataStream.union(otherStream1, otherStream2, ...);

(10)Split方式:DataStream -> SplitStream

功能:將流分割成多個流

舉例:

SplitStream<Integer> split = someDataStream.split(new OutputSelector<Integer>() {
    @Override
    public Iterable<String> select(Integer value) {
        List<String> output = new ArrayList<String>();
        if (value % 2 == 0) {
            output.add("even");
        }
        else {
            output.add("odd");
        }
        return output;
    }
});

(11)Select方式:SplitStream -> DataStream

功能:從split stream中選擇一個流

舉例:

SplitStream<Integer> split;
DataStream<Integer> even = split.select("even");
DataStream<Integer> odd = split.select("odd");
DataStream<Integer> all = split.select("even","odd");

4、輸出數據

writeAsText()
writeAsCsv(...)
print() / printToErr() 
writeUsingOutputFormat() / FileOutputFormat
writeToSocket
addSink

更多Flink相關原理:

穿梭時空的實時計算框架——Flink對時間的處理

大數據實時處理的王者-Flink

統一批處理流處理——Flink批流一體實現原理

Flink快速入門--安裝與示例運行

快速構建第一個Flink工程

更多實時計算,Flink,Kafka等相關技術博文,歡迎關註實時流式計算:

file


您的分享是我們最大的動力!

-Advertisement-
Play Games
更多相關文章
  • Redis實例安裝 安裝說明:自動解壓縮安裝包,按照指定路徑編譯安裝,複製配置文件模板到Redis實例路的數據徑下,根據埠號修改配置文件模板 配置文件,當前shell腳本,安裝包 參數1:basedir,redis安裝包路徑 參數2:安裝實例路徑 參數3:安裝包名稱 參數4:安裝實例的埠號 #! ...
  • [root@localhost ~]# firewall-cmd --zone=public --add-port=1521/tcp --permanent success [root@localhost ~]# firewall-cmd --reload success ...
  • Spark 的 RDD 學習第二節,筆記相關: 1.如何向 Spark 傳遞函數 2.Spark 常用的一些轉化和行動操作 3.Spark 的持久化級別 ...
  • [toc] 發表日期:2019年9月18日 什麼是ElasticSearch ElasticSearch是一個集 數據存儲 、 數據搜索 和 數據分析 為一體的系統。它是分散式的,所以能利用分散式來提高其處理能力,具有高可用性和高伸縮性。如果你需要一個能夠提供高性能的搜索服務的系統,那麼它或許是一個 ...
  • 概敘 關係資料庫的基本特征是使用關係模型的組織數據,20世紀80年代以後,在商用DBMS中,關係模型逐步取代早期的網狀模型和層次模型。 關係數據模型 作為數據模型,關係模型包含三個組成要素:關係數據結構、關係操作集合和關係完整性約束。 關係數據結構 重點 結構只包含單一的數據結構(關係),現實世界的 ...
  • 【作者】 王棟:攜程技術保障中心資料庫專家,對資料庫疑難問題的排查和資料庫自動化智能化運維工具的開發有強烈的興趣。 【問題描述】 我們知道當mysqld進程使用到SWAP時,就會嚴重影響到MySQL的性能。SWAP的問題比較複雜,本文會從SWAP的原理開始,分享我們碰到的案例和分析思路。 【SWAP ...
  • 目錄結構 mysql 目錄下的 data 為數據目錄,mysql 的數據表、二進位日誌文件就在這裡。.env 文件包含了一些變數,這些變數可以在 docker compose.yml 文件中通過 ${variable_name} 來引用。 當然也可以把 mysql 的目錄放到其它地方,這裡圖個方便, ...
  • ACID特性: 原子性(Atomicity)、一致性(Consistency)、隔離性(Isolation)、持久性(Durability) 原子性:一個事務必須被視為一個不可分割的最小工作單元,整個事務中的所有操作要麼全部提交成功,要麼全部失敗回滾,事務要麼成功(可見),要麼失敗(不可見),不存在 ...
一周排行
    -Advertisement-
    Play Games
  • 基於.NET Framework 4.8 開發的深度學習模型部署測試平臺,提供了YOLO框架的主流系列模型,包括YOLOv8~v9,以及其系列下的Det、Seg、Pose、Obb、Cls等應用場景,同時支持圖像與視頻檢測。模型部署引擎使用的是OpenVINO™、TensorRT、ONNX runti... ...
  • 十年沉澱,重啟開發之路 十年前,我沉浸在開發的海洋中,每日與代碼為伍,與演算法共舞。那時的我,滿懷激情,對技術的追求近乎狂熱。然而,隨著歲月的流逝,生活的忙碌逐漸占據了我的大部分時間,讓我無暇顧及技術的沉澱與積累。 十年間,我經歷了職業生涯的起伏和變遷。從初出茅廬的菜鳥到逐漸嶄露頭角的開發者,我見證了 ...
  • C# 是一種簡單、現代、面向對象和類型安全的編程語言。.NET 是由 Microsoft 創建的開發平臺,平臺包含了語言規範、工具、運行,支持開發各種應用,如Web、移動、桌面等。.NET框架有多個實現,如.NET Framework、.NET Core(及後續的.NET 5+版本),以及社區版本M... ...
  • 前言 本文介紹瞭如何使用三菱提供的MX Component插件實現對三菱PLC軟元件數據的讀寫,記錄了使用電腦模擬,模擬PLC,直至完成測試的詳細流程,並重點介紹了在這個過程中的易錯點,供參考。 用到的軟體: 1. PLC開發編程環境GX Works2,GX Works2下載鏈接 https:// ...
  • 前言 整理這個官方翻譯的系列,原因是網上大部分的 tomcat 版本比較舊,此版本為 v11 最新的版本。 開源項目 從零手寫實現 tomcat minicat 別稱【嗅虎】心有猛虎,輕嗅薔薇。 系列文章 web server apache tomcat11-01-官方文檔入門介紹 web serv ...
  • 1、jQuery介紹 jQuery是什麼 jQuery是一個快速、簡潔的JavaScript框架,是繼Prototype之後又一個優秀的JavaScript代碼庫(或JavaScript框架)。jQuery設計的宗旨是“write Less,Do More”,即倡導寫更少的代碼,做更多的事情。它封裝 ...
  • 前言 之前的文章把js引擎(aardio封裝庫) 微軟開源的js引擎(ChakraCore))寫好了,這篇文章整點js代碼來測一下bug。測試網站:https://fanyi.youdao.com/index.html#/ 逆向思路 逆向思路可以看有道翻譯js逆向(MD5加密,AES加密)附完整源碼 ...
  • 引言 現代的操作系統(Windows,Linux,Mac OS)等都可以同時打開多個軟體(任務),這些軟體在我們的感知上是同時運行的,例如我們可以一邊瀏覽網頁,一邊聽音樂。而CPU執行代碼同一時間只能執行一條,但即使我們的電腦是單核CPU也可以同時運行多個任務,如下圖所示,這是因為我們的 CPU 的 ...
  • 掌握使用Python進行文本英文統計的基本方法,並瞭解如何進一步優化和擴展這些方法,以應對更複雜的文本分析任務。 ...
  • 背景 Redis多數據源常見的場景: 分區數據處理:當數據量增長時,單個Redis實例可能無法處理所有的數據。通過使用多個Redis數據源,可以將數據分區存儲在不同的實例中,使得數據處理更加高效。 多租戶應用程式:對於多租戶應用程式,每個租戶可以擁有自己的Redis數據源,以確保數據隔離和安全性。 ...