Data Sources

源是程序读取输入数据的位置。可以使用 StreamExecutionEnvironment.addSource(sourceFunction) 将源添加到程序。Flink 有许多预先实现的源函数,也可以通过实现 SourceFunction 方法自定义非并行源 ,或通过实现 ParallelSourceFunction 或扩展 RichParallelSourceFunction 自定义并行源。

有几个预定义的流数据源可从 StreamExecutionEnvironment 访问:

基于文件:

  • readTextFile(path) 逐行读取文本文件(文件符合 TextInputFormat 格式),并作为字符串返回每一行。
  • readFile(fileInputFormat, path) 按指定的文件输入格式(fileInputFormat)读取指定路径的文件。

  • readFile(fileInputFormat, path, watchType, interval, pathFilter) 前两个方法的内部调用方法。根据给定文件格式(fileInputFormat)读取指定路径的文件。根据 watchType,定期监听路径下的新数据(FileProcessingMode.PROCESS_CONTINUOUSLY),或者处理当前在路径中的数据并退出(FileProcessingMode.PROCESS_ONCE)。使用 pathFilter,可以进一步排除正在处理的文件。

基于Socket:

  • socketTextStream 从 Socket 读取,元素可以用分隔符分隔。

基于集合:

  • fromCollection(Seq) 用 Java.util.Collection 对象创建数据流。集合中的所有元素必须属于同一类型。

  • fromCollection(Iterator) 用迭代器创建数据流。指定迭代器返回的元素的数据类型。

  • fromElements(elements: _*) 从给定的对象序列创建数据流。所有对象必须属于同一类型。

  • fromParallelCollection(SplittableIterator) 并行地从迭代器创建数据流。指定迭代器返回的元素的数据类型。

  • generateSequence(from, to) 并行生成给定间隔的数字序列。

自定义:

  • addSource 附加新的源函数。例如,要从 Apache Kafka 中读取,可以使用 addSource(new FlinkKafkaConsumer08<>(...))。请详细查看 连接器

DataStream Transformation

转换函数

Map
DataStream -> DataStream,一个数据元生成一个新的数据元。
将输入流的元素翻倍:
dataStream.map { x => x * 2 }

FlatMap
DataStream -> DataStream,一个数据元生成多个数据元(可以为0)。将句子分割为单词:
dataStream.flatMap { str => str.split(" ") }

Filter
DataStream -> DataStream,每个数据元执行布尔函数,只保存函数返回 true 的数据元。过滤掉零值的过滤器:
dataStream.filter { _ != 0 }

KeyBy
DataStream -> KeyedStream,将流划分为不相交的分区。具有相同 Keys 的所有记录在同一分区。指定 key 的取值:

dataStream.keyBy("someKey") // Key by field "someKey"
dataStream.keyBy(0) // Key by the first element of a Tuple

Reduce
KeyedStream -> DataStream,KeyedStream 元素滚动执行 Reduce。将当前数据元与最新的一个 Reduce 值组合作为新值发送。创建 key 的值求和:

keyedStream.reduce { _ + _ }

Fold
KeyedStream -> DataStream,具有初始值的 Reduce。将当前数据元与最新的一个 Reduce 值组合作为新值发送。当应用于序列(1,2,3,4,5)时,发出序列"start-1","start-1-2","start-1-2-3", ...:

keyedStream.fold("start")((str, i) => { str + "-" + i })

Aggregations
KeyedStream -> DataStream,应用于 KeyedStream 上的滚动聚合。minminBy 的区别是是 min 返回最小值,minBy 具有最小值的数据元(maxmaxBy 同理):

keyedStream.sum(0)
keyedStream.sum("key")
keyedStream.min(0)
keyedStream.min("key")
keyedStream.max(0)
keyedStream.max("key")
keyedStream.minBy(0)
keyedStream.minBy("key")
keyedStream.maxBy(0)
keyedStream.maxBy("key")

Window
KeyedStream -> WindowedStream,Windows 可以在已经分区的 KeyedStream 上定义。Windows 根据某些特征(例如,在最近5秒内到达的数据)对每个Keys中的数据进行分组。更多说明参考 Windows译版

// Last 5 seconds of data
dataStream.keyBy(0).window(TumblingEventTimeWindows.of(Time.seconds(5)))

WindowAll
DataStream -> AllWindowedStream,Windows 也可以在 DataStream 上定义。在许多情况下,这是非并行转换。所有记录将收集在 windowAll 算子的一个任务中。

// Last 5 seconds of data
dataStream.windowAll(TumblingEventTimeWindows.of(Time.seconds(5)))

Window Apply
WindowedStream -> DataStream 或 AllWindowedStream -> DataStream,将函数应用于整个窗口。一个对窗口数据求和:

windowedStream.apply { WindowFunction }

// applying an AllWindowFunction on non-keyed window stream
allWindowedStream.apply { AllWindowFunction }

Window Reduce
WindowedStream -> DataStream,Reduce 函数应用于窗口并返回结果值。

windowedStream.reduce { _ + _ }

Window Fold
WindowedStream -> DataStream,Fold 函数应用于窗口并返回结果值。当函数应用于窗口的序列(1,2,3,4,5)时,发送出 "start-1-2-3-4-5":

val result: DataStream[String] =
windowedStream.fold("start", (str, i) => { str + "-" + i })

Aggregations on windows
WindowedStream -> DataStream,聚合窗口的内容:

windowedStream.sum(0)
windowedStream.sum("key")
windowedStream.min(0)
windowedStream.min("key")
windowedStream.max(0)
windowedStream.max("key")
windowedStream.minBy(0)
windowedStream.minBy("key")
windowedStream.maxBy(0)
windowedStream.maxBy("key")

Union
DataStream* -> DataStream,两个或多个数据流的合并,创建包含来自所有流的所有数据元的新流。如果将数据流与自身联合,则会在结果流中获取两次数据元。

dataStream.union(otherStream1, otherStream2, ...)

Window Join
DataStream,DataStream -> DataStream,Join 连接两个流,指定 Key 和窗口。

dataStream.join(otherStream)
.where(<key selector>).equalTo(<key selector>)
.window(TumblingEventTimeWindows.of(Time.seconds(3)))
.apply { ... }

Window CoGroup
DataStream,DataStream -> DataStream,CoGroup 连接两个流,指定 Key 和窗口。

dataStream.coGroup(otherStream)
.where(0).equalTo(1)
.window(TumblingEventTimeWindows.of(Time.seconds(3)))
.apply {}

Connect
DataStream,DataStream -> ConnectedStreams,连接两个有各自类型的数据流。允许两个流之间的状态共享。

someStream : DataStream[Int] = ...
otherStream : DataStream[String] = ... val connectedStreams = someStream.connect(otherStream)

可用于数据流关联配置流

CoMap, CoFlatMap
ConnectedStreams -> DataStream,作用域连接数据流(connected data stream)上的 mapflatMap

connectedStreams.map(
(_ : Int) => true,
(_ : String) => false
)
connectedStreams.flatMap(
(_ : Int) => true,
(_ : String) => false
)

Split
DataStream -> SplitStream,将数据流拆分为两个或更多个流。

val split = someDataStream.split(
(num: Int) =>
(num % 2) match {
case 0 => List("even")
case 1 => List("odd")
}
)

Select
SplitStream -> DataStream,从 SpliteStream 中选择一个流或多个流。

val even = split select "even"
val odd = split select "odd"
val all = split.select("even","odd")

Iterate
DataStream -> IterativeStream -> DataStream,将一个算子的输出重定向到某个先前的算子,在流中创建 feedback 循环。这对于定义不断更新模型的算法特别有用。以下代码以流开头并连续应用迭代体。大于0的数据元将被发送回 feedback,其余数据元将向下游转发。

initialStream.iterate {
iteration => {
val iterationBody = iteration.map {/*do something*/}
(iterationBody.filter(_ > 0), iterationBody.filter(_ <= 0))
}
}

Extract Timestamps
DataStream -> DataStream,从记录中提取时间戳,以便使用事件时间窗口。

stream.assignTimestamps (new TimeStampExtractor() {...});

Project
DataStream -> DataStream,作用于元组的转换,从元组中选择字段的子集。

DataStream<Tuple3<Integer, Double, String>> in = // [...]
DataStream<Tuple2<String, Integer>> out = in.project(2,0);

分区函数

Custom partitioning
DataStream -> DataStream,使用自定义的分区函数(Partitioner)为每个数据元选择目标分区和所在任务。

dataStream.partitionCustom(partitioner, "someKey");
dataStream.partitionCustom(partitioner, 0);

Random partitioning
DataStream -> DataStream,随机均匀分布分配数据元。

dataStream.shuffle();

Rebalancing (Round-robin partitioning)
DataStream -> DataStream,轮询为数据元分区,每个分区创建相等的负载。在存在数据偏斜时用于性能优化。

dataStream.rebalance()

Rescaling
DataStream -> DataStream,根据上下游的分区数量,轮询为数据元分区。

dataStream.rescale();

Broadcasting
DataStream -> DataStream,向每个分区广播数据元。

dataStream.broadcast()

Task chaining and resource groups

Chaining 两个后续转换意味着将它们定位在同一个线程中以获得更好的性能。Flink 默认会链接一些算子(例如,连续两个的 map 转换)。API可以对链接进行细粒度控制:

使用 StreamExecutionEnvironment.disableOperatorChaining() 可以禁用整个工作的算子链接。对于更细粒度的控制,可以使用以下函数。(这些函数只能在 DataStream 转换后立即使用。例如,可以使用 someStream.map(...).startNewChain(),但不能使用 someStream.startNewChain()

Resource group 是 Flink 中的一个 slot。如果需要,可以在单独的 slot 中手动隔离算子。

Start new chain
从这个算子开始,开始一个新的链。两个 map 将被链接,filter 将不会在链接当中。

someStream.filter(...).map(...).startNewChain().map(...)

Disable chaining
不要链接 map 算子

someStream.map(...).disableChaining()

Set slot sharing group
设置算子操作的 slot sharing。将把具有相同 slot sharing 的算子操作放入同一个 slot,同时保证其他 slot 中没有 slot sharing 的算子操作。可用于隔离 slot。默认 slot sharing group 的名称为"default",可以通过调用 slotSharingGroup("groupName") 将算子操作显式放入此组中。

someStream.filter(...).slotSharingGroup("name")

Data Sinks

Data Sink 消费 DataStream 并转发到文件,套接字,外部系统或打印到页面。Flink 带有各种内置输出格式,封装在 DataStreams 上的算子操作后面:

  • writeAsText() / TextOutputFormat, 按字符串顺序写入文件。通过调用每个元素的 toString() 方法获得字符串。

  • writeAsCsv(...) / CsvOutputFormat,将元组写为逗号分隔的形式写入文件。行和字段分隔符是可配置的。每个字段的值来自对象的 toString() 方法。

  • print() / printToErr(),在标准输出/标准错误流上打印每个元素的 toString() 值。可以定义输出前缀,这有助于区分不同的打印调用。如果并行度大于1,输出也包含生成输出的任务的标识符。

  • writeUsingOutputFormat() / FileOutputFormat,自定义文件输出的方法和基类。支持自定义对象到字节的转换。

  • writeToSocket,将元素写入 Socket,使用 SerializationSchema 进行序列化。

  • addSink,调用自定义接收器函数。请详细查看 连接器

DataStream 的 write*() 方法主要用于调试目的。他们没有参与 Flink checkpoint,这意味着这些函数通常具有至少一次的语义。刷新到目标系统的数据取决于 OutputFormat 的实现,并非所有发送到 OutputFormat 的数据都会立即显示在目标系统中。此外,在失败的情况下,这些记录可能会丢失。

要将流可靠、准确地传送到文件系统,请使用 flink-connector-filesystem。通过 .addSink(...) 方法的自定义实现,可以实现在 checkpoint 中精确一次的语义。

Iterations

迭代流程序将函数嵌入到 IterativeStream。由于 DataStream 程序可能永远不会完成,因此没有最大迭代次数。相反,需要指定流的哪个部分反馈到迭代,哪个部分使用 split 或 filter 转发到下游。

下面是一个示例迭代,其中主体(重复的计算部分)是一个简单的 map 转换,反馈的元素由使用过滤器向下游转发的元素区分。

val iteratedStream = someDataStream.iterate(
iteration => {
val iterationBody = iteration.map(/* this is executed many times */)
(iterationBody.filter(/* one part of the stream */), iterationBody.filter(/* some other part of the stream */))
})

例如,从一系列整数中连续减去1直到它们达到零的程序:

val someIntegers: DataStream[Long] = env.generateSequence(0, 1000)

val iteratedStream = someIntegers.iterate(
iteration => {
val minusOne = iteration.map( v => v - 1)
val stillGreaterThanZero = minusOne.filter (_ > 0)
val lessThanZero = minusOne.filter(_ <= 0)
(stillGreaterThanZero, lessThanZero)
}
)

Reference:
https://ci.apache.org/projects/flink/flink-docs-release-1.6/dev/datastream_api.html

转载:https://www.jianshu.com/p/3e3d43e2bee0

05-11 22:28