使用算子开发流数据处理任务


EnOS 流数据处理服务提供一整套底层封装好的算子,供开发者基于业务需求开发定制化的流数据处理任务。你也可以使用自定算子包来开发定制化的流数据处理任务。

算子简介

EnOS流数据处理提供拖拽式的可视化流数据任务设计界面,开发者不需要写代码,通过编排算子组合成流数据处理任务,实现数据采集、数据过滤,数据处理、和数据存储等任务。


流数据处理任务(Pipeline)一般由多个阶段(Stage)和连线连接而成,组成有序的通路,数据会通过这个通路按顺序进行有序的流转。每一个阶段代表了对数据进行的一次读写或者操作。这样的流程构成了一条流数据处理任务。一条流数据处理任务一般包含以下几种类型的 Stage:

  • 数据源(Origin)

    用于指定数据来源的 Stage,数据可从不同的数据源抽取,并将数据输出传递给后面的阶段,例如 Kafka Consumer。

  • 处理器(Processor)

    用于进行数据转化的 Stage,对输入的数据进行规范化或者流转处理(过滤、分流、计算等)。

  • 目标源(Destination)

    用于数据存储的 Stage,将数据处理完后存入目标系统或者转入另一个 Pipeline 进行再次处理。


EnOS 流数据处理服务支持开发常规流任务和高阶流任务。详细信息,参考以下说明: