Flink在唯品会的实践

标签: flink 唯品会 实践 | 发表时间:2021-04-23 15:49 | 作者:aoxiang
出处:http://weekly.dockone.io

唯品会自2017年开始基于Kubernetes深入打造高性能、稳定、可靠、易用的实时计算平台,支持唯品会内部业务在平时以及大促的平稳运行。现平台支持Flink、Spark、Storm等主流框架。本文主要分享Flink的容器化实践应用以及产品化经验。

发展概览

平台支持公司内部所有部门的实时计算应用。主要的业务包括实时大屏,推荐,实验平台,实时监控和实时数据清洗等。

集群规模


平台现有异地双机房双集群,具有2000多的物理机节点,利用Kubernetes的namespaces,labels和taints等实现业务隔离以及初步的计算负载隔离。目前线上实时应用有大概1000个,平台最近主要支持Flink SQL任务的上线。

平台架构


如上图所示,是唯品会实时计算平台的整体架构。
  • 最底层是计算任务节点的资源调度层,实际以deployment的模式运行Kubernetes上,平台虽然是支持yarn调度,但是yarn调度是与批任务共享资源,所以主流任务还是运行在Kubernetes上。
  • 存储层这一层,支持公司内部基于Kafka实时数据VMS,基于BinLog的VDP数据和原生Kafka作为消息总线,状态存储在HDFS上,数据主要存入Redis,MySQL,HBase,Kudu,Clickhouse等。
  • 计算引擎层,平台支持Flink,Spark,Storm主流框架容器化,提供了一些框架的封装和组件等。每个框架会都会支持几个版本的镜像满足不同的业务需求。
  • 平台层提供作业配置、调度、版本管理、容器监控、job监控、告警、日志等功能,提供多租户的资源管理(quota,label管理),提供Kafka监控。在Flink 1.11版本之前,平台自建元数据管理系统为Flink SQL管理schema,1.11版本开始,通过Hive Metastore与公司元数据管理系统融合。
  • 最上层就是各个业务的应用层。


Flink容器化实践

容器化实践


如上图所示,是实时平台Flink容器化的架构。Flink容器化是基于Standalone模式部署的。
  • 部署模式共有Client,JobManager和TaskManager三个角色,每一个角色都由一个deployment控制。
  • 用户通过平台上传任务jar包,配置等,存储于HDFS上。同时由平台维护的配置,依赖等也存储在HDFS上,当Pod启动时,会进行拉取等初始化操作。
  • Client中主进程是一个由Go开发的agent,当Client启动时,会首先检查集群状态,当集群ready后,从HDFS上拉取jar包向Flink集群提交任务,Client的主要功能还有监控任务状态,做savepoint等操作。
  • 通过部署在每台物理机上的smart-agent采集容器的指标写入m3,以及通过Flink暴漏的接口将Metrics写入Prometheus,结合Grafana展示。同样通过部署在每台物理机上的Filebeat采集挂载出来的相关日志写入ES,在DragonFly可以实现日志检索。


Flink平台化

在实践过程中,结合具体场景以及易用性考虑,做了平台化工作。
  • 平台的任务配置与镜像,Flink配置,自定义组件等解耦合,现阶段平台支持1.7、1.9、1.11、1.12等版本。
  • 平台支持流水线编译或上传jar,作业配置,告警配置,生命周期管理等,从而减少用户的开发成本。
  • 平台开发了容器级别的如火焰图等调优诊断的页面化功能,以及登陆容器的功能,支持用户进行作业诊断。


Flink稳定性

在应用部署和运行过程中,不可避免的会出现异常。平台保证任务在出现异常状况后的稳定性做的策略。
  • Pod的健康和可用,由livenessProbe和readinessProbe检测,同时指定Pod的重启策略。

  • Flink任务异常时:
    • Flink原生的restart策略和failover机制,作为第一层的保证。
    • 在client中会定时监控Flink状态,同时将最新的checkpoint地址更新到自己的缓存中,并汇报到平台,固化到MySQL中。当Flink无法再重启时,由Client重新从最新的成功Checkpoint提交任务。作为第二层保证。这一层将Checkpoint固化到MySQL中后,就不再使用Flink HA机制了,少了ZooKeeper的组件依赖。
    • 当前两层无法重启时或集群出现异常时,由平台自动从固化到MySQL中的最新chekcpoint重新拉起一个集群,提交任务,作为第三层保证。

  • 机房容灾:
    • 用户的jar包,Checkpoint都做了异地双HDFS存储
    • 异地双机房双集群


Kafka监控方案

Kafka监控是我们的任务监控里相对重要的一部分,整体监控流程如下所示。

平台提供监控Kafka堆积,消费message等配置信息,从MySQL中将用户Kafka监控配置提取后,通过JMX监控Kafka,写入下游Kafka,再通过另一个Flink任务实时监控,同时将这些数据写入ck,从而展示给用户。

Flink SQL平台化建设

基于Kubernetes的Flink容器化实现以后,方便了Flink API应用的发布,但是对于Flink SQL的任务仍然不够便捷。于是平台提供了更加方便的在线编辑发布、SQL管理等一栈式开发平台。

Flink SQL方案


平台的Flink SQL方案如上图所示,任务发布系统与元数据管理系统完全解耦。

Flink SQL任务发布平台化

在实践过程中,结合易用性考虑,做了平台化工作,主操作界面如下图所示:
  • Flink SQL的版本管理,语法校验,拓扑图管理等;
  • UDF通用和任务级别的管理,支持用户自定义UDF;
  • 提供参数化的配置界面,方便用户上线任务。




元数据管理

平台在1.11之前通过构建自己的元数据管理系统UDM,MySQL存储Kafka,Redis等Schemas,通过自定义catalog打通Flink与UDM,从而实现元数据管理。1.11之后,Flink集成hive逐渐完善,平台重构了FlinkSQL框架,通过部署一个SQL-gateway service服务,中间调用自己维护的sql-client jar包,从而与离线元数据打通,实现了实时离线元数据统一,为之后的流批一体做好工作。在元数据管理系统创建的Flink表操作界面如下所示,创建Flink表的元数据,持久化到hive里,Flink SQL启动时从hive里读取对应表的table schema信息。

Flink SQL相关实践

平台对于官方原生支持或者不支持的Connector进行整合和开发,镜像和Connector,Format等相关依赖进行解耦,可以快捷的进行更新与迭代。

Flink SQL 相关实践

  • Connector层,现阶段平台支持官方支持的Connector,并且构建了Redis,Kudu,Clickhouse,VMS,VDP等平台内部的Connector。平台构建了内部的pb format,支持Protobuf实时清洗数据的读取。平台构建了Kudu,VDP等内部Catalog,支持直接读取相关的Schema,不用再创建DDL。
  • 平台层主要是在UDF、常用运行参数调整、以及升级Hadoop 3。
  • Runtime层主要是支持拓扑图执行计划修改、维表关联keyBy cache优化等。


拓扑图执行计划修改

针对现阶段SQL生成的stream graph并行度无法修改等问题,平台提供可修改的拓扑预览修改相关参数。平台会将解析后的FlinkSQL的excution plan json提供给用户,利用uid保证算子的唯一性,修改每个算子的并行度,chain策略等,也为用户解决反压问题提供方法。例如针对clickhouse sink 小并发大批次的场景,我们支持修改clickhouse sink并行度,source并行度=72,sink并行度=24,提高clickhouse sink tps。


维表关联keyBy优化cache

针对维表关联的情况,为了降低IO请求次数,降低维表数据库读压力,从而降低延迟,提高吞吐,有以下几种措施:

  • 当维表数据量不大时,通过全量维表数据缓存在本地,同时ttl控制缓存刷新的时候,这可以极大的降低IO请求次数,但会要求更多但内存空间。
  • 当维表数据量很大时,通过async和LRU cache策略,同时ttl和size来控制缓存数据的失效时间和缓存大小,可以提高吞吐率并降低数据库的读压力。
  • 当维表数据量很大同时主流QPS很高时,可以开启把维表join的key作为hash的条件,将数据进行分区,即在calc节点的分区策略是hash,这样下游算子的subtask的维表数据是独立的,不仅可以提高命中率,也可降低内存使用空间。



优化之前维表关联LookupJoin算子和正常算子chain在一起。

优化之间维表关联LookupJoin算子和正常算子不chain在一起,将join key 作为hash策略的key。采用这种方式优化之后,例如原先3000W 数据量的维表,10个TM节点,每个节点都要缓存3000W的数据,总共需要缓存3000W*10=3亿的量。而经过keyBy优化之后,每个TM节点只需要缓存3000W/10 =300W的数据量,总共缓存的数据量只有3000W,大大减少缓存数据量。

维表关联延迟join

维表关联中,有很多业务场景,在维表数据新增数据之前,主流数据已经发生join操作,会出现关联不上的情况。因此,为了保证数据的正确,将关联不上的数据进行缓存,进行延迟join。
  • 最简单的做法是,在维表关联的function里设置重试次数和重试间隔,这个方法会增大整个流的延迟,但主流qps不高的情况下,可以解决问题。
  • 增加延迟join的算子,当join维表未关联时,先缓存起来,根据设置重试次数和重试间隔从而进行延迟的join。


应用案例

实时数仓

实时数据入仓

  • 流量数据一级Kafka通过实时清洗之后,写到二级清洗Kafka,主要是Protobuf格式,再通过Flink SQL写入hive 5min表,以便做后续的准实时ETL,加速ods层数据源的准备时间。
  • MySQL业务库的数据,通过VDP解析形成binlog cdc消息流,再通过Flink SQL写入hive 5min表。
  • 业务系统通过VMS API产生业务Kafka消息流,通过Flink SQL解析之后写入hive 5min表。支持string、json、csv等消息格式。
  • 使用Flink SQL做流式数据入仓,非常的方便,而且1.12版本已经支持了小文件的自动合并,解决了小文件的痛点。
  • 我们自定义分区提交策略,当前分区ready时候会调一下实时平台的分区提交API,在离线调度定时调度通过这个API检查分区是否ready。


采用Flink SQL统一入仓方案以后,我们可以获得的收益:可解决以前Flume方案不稳定的问题,而且用户可自助入仓,大大降低入仓任务的维护成本。提升了离线数仓的时效性,从小时级降低至5min粒度入仓。

实时指标计算

  • 实时应用消费清洗后Kafka,通过Redis维表、API等方式关联,再通过Flink window增量计算UV,持久化写到Hbase里。
  • 实时应用消费VDP消息流之后,通过Redis维表、API等方式关联,再通过Flink SQL计算出销售额等相关指标,增量upsert到Kudu里,方便根据range分区批量查询,最终通过数据服务对实时大屏提供最终服务。


以往指标计算通常采用Storm方式,需要通过API定制化开发,采用这样Flink方案以后,我们可以获得的收益:将计算逻辑切到Flink SQL上,降低计算任务口径变化快,修改上线周期慢等问题。切换至Flink SQL可以做到快速修改,快速上线,降低维护成本。

实时离线一体化ETL数据集成

  • Flink SQL在最近的版本中持续强化了维表join的能力,不仅可以实时关联数据库中的维表数据,现在还能关联Hive和Kafka中的维表数据,能灵活满足不同工作负载和时效性的需求。
  • 基于Flink强大的流式 ETL的能力,我们可以统一在实时层做数据接入和数据转换,然后将明细层的数据回流到离线数仓中。
  • 我们通过将presto内部使用的HyperLogLog(后面简称HLL)实现引入到Spark UDAF函数里,打通HLL对象在Spark SQL与presto引擎之间的互通,如Spark SQL通过prepare函数生成的HLL对象,不仅可以在Spark SQL里merge查询而且可以在presto里进行merge查询。具体流程如下:


UV近似计算示例:

Step 1:Spark SQL生成HLL对象
insert overwrite dws_goods_uv partition (dt='${dt}',hm='${hm}') AS select goods_id, estimate_prepare(mid) as pre_hll from dwd_table_goods group by goods_id where dt = ${dt} and hm = ${hm}   

Step 2:Spark SQL通过goods_id维度的HLL对象merge成品牌维度
insert overwrite dws_brand_uv partition (dt='${dt}',hm='${hm}') AS select b.brand_id, estimate_merge(pre_hll) as merge_hll from dws_table_brand A left join dim_table_brand_goods B on A.goods_id = B.goods_id where dt = ${dt} and hm = ${hm}   

Step 3:Spark SQL查询品牌维度的UV
select brand_id, estimate_compute(merge_hll ) as uv from dws_brand_uv where dt = ${dt}   

Step 4:presto merge查询Spark生成的HLL对象
select brand_id,cardinality(merge(cast(merge_hll AS HyperLogLog))) uv from dws_brand_uv group by brand_id  

所以基于实时离线一体化ETL数据集成的架构,我们能获得的收益:
  • 统一了基础公共数据源;
  • 提升了离线数仓的时效性;
  • 减少了组件和链路的维护成本。


实验平台(Flink实时数据入OLAP)

唯品会实验平台是通过配置多维度分析和下钻分析,提供海量数据的A/B-test实验效果分析的一体化平台。一个实验是由一股流量(比如用户请求)和在这股流量上进行的相对对比实验的修改组成。实验平台对于海量数据查询有着低延迟、低响应、超大规模数据(百亿级)的需求。整体数据架构如下:

通过Flink SQL将Kafka里的数据清洗解析展开等操作之后,通过Redis维表关联商品属性,通过分布式表写入到Clickhouse,然后通过数据服务adhoc查询。业务数据流如下:

我们通过Flink SQL redis connector,支持Redis的sink 、source维表关联等操作,可以很方便的读写Redis,实现维表关联,维表关联内可配置cache,极大提高应用的TPS。通过Flink SQL 实现实时数据流的Pipeline,最终将大宽表sink到CK 里,并按照某个字段粒度做murmurHash3_64存储,保证相同用户的数据都存在同一shard节点组内,从而使得ck大表之间的join变成local本地表之间的join,减少数据shuffle操作,提升join查询效率。

未来规划

提高Flink SQL易用性

当前我们的Flink SQL调试起来很有很多不方便的地方,对于做离线Hive用户来说还有一定的使用门槛,例如手动配置Kafka监控、任务的压测调优,如何能让用户的使用门槛降低至最低,是一个比较大的挑战。将来我们考虑做一些智能监控告诉用户当前任务存在的问题,尽可能自动化并给用户一些优化建议。

数据湖CDC分析方案落地

目前我们的VDP binlog消息流,通过Flink SQL写入到hive ods层,以加速ods层数据源的准备时间,但是会产生大量重复消息去重合并。我们会考虑Flink +数据湖的cdc入仓方案来做增量入仓。此外,像订单打宽之后的Kafka消息流、以及聚合结果都需要非常强的实时upsert能力,目前我们主要是用kudu,但是kudu集群,比较独立小众,维护成本高,我们会调研数据湖的增量upsert能力来替换Kudu增量upsert场景。

原文链接: https://mp.weixin.qq.com/s/gQRyD4igKHUCqEh4gRvZjw

相关 [flink 唯品会 实践] 推荐:

Flink在唯品会的实践

- - DockOne.io
唯品会自2017年开始基于Kubernetes深入打造高性能、稳定、可靠、易用的实时计算平台,支持唯品会内部业务在平时以及大促的平稳运行. 现平台支持Flink、Spark、Storm等主流框架. 本文主要分享Flink的容器化实践应用以及产品化经验. 平台支持公司内部所有部门的实时计算应用. 主要的业务包括实时大屏,推荐,实验平台,实时监控和实时数据清洗等.

Flink SQL 编程实践

- - Jark's Blog
注: 本教程实践基于 Ververica 开源的. sql-training 项目. 基于 Flink 1.7.2. 本文将通过五个实例来贯穿 Flink SQL 的编程实践,主要会涵盖以下几个方面的内容. 如何使用 SQL CLI 客户端. 如何在流上运行 SQL 查询. 运行 window aggregate 与 non-window aggregate,理解其区别.

美团点评基于 Flink 的实时数仓建设实践

- - 美团点评技术团队
近些年,企业对数据服务实时化服务的需求日益增多. 本文整理了常见实时数据组件的性能特点和适用场景,介绍了美团如何通过 Flink 引擎构建实时数据仓库,从而提供高效、稳健的实时数据服务. 此前我们美团技术博客发布过一篇文章《 流计算框架 Flink 与 Storm 的性能对比》,对 Flink 和 Storm 俩个引擎的计算性能进行了比较.

基于Flink构建实时数仓实践

- -
随着公司用户增长业务快速发展,陆续孵化出 部落、同镇、C 端会员、游戏等非常多的业务板块. 与此同时产品及运营对实时数据需求逐渐增多,帮助他们更快的做出决策,更好的进行产品迭代,实时数仓的建设变得越发重要起来. 本文主要介绍用户增长业务基于 Flink 构建实时数仓的实践之路. 如下图是早期的实时计算架构,实时数据需求较少,架构简单,数据链路少,一路到底的开发模式能很快满足业务需求;.

flink-watermark

- - ITeye博客
     当我们统计用户点击的时候,有时候会因为各种情况数据延迟,我们需要一个允许最大的延迟范围进行统计.        模拟初始数据:早上10:00 11.10 用户点击了一次,但是延迟到10:00 11.15 才发送过来,允许最大延迟5秒, 5秒窗口统计. /** 实际时间-偏移量 偏移后的时间*/.

实时计算框架 Flink 在教育行业的应用实践

- - U刻
如今,越来越多的业务场景要求 OLTP 系统能及时得到业务数据计算、分析后的结果,这就需要实时的流式计算如 Flink 等来保障. 例如,在 TB 级别数据量的数据库中,通过 SQL 语句或相关 API 直接对原始数据进行大规模关联、聚合操作,是无法做到在极短的时间内通过接口反馈到前端进行展示的. 若想实现大规模数据的 “即席查询”,就须用实时计算框架构建实时数仓来实现.

维度数据实时关联的实践(w/ Flink、Vert.x & Guava Cache) - 简书

- -
在流式处理作业(特别是实时数仓ETL作业)中,我们的数据流可以视为无界事实表,其中往往缺乏一些维度信息. 例如,对于埋点日志流而言,为了减少传输冗余,可能只会带有城市ID、商品ID等,如果要映射到对应的名称,就需要与外部存储中的维度表进行关联. 这里的外部存储一般是指适合OLTP场景的数据库,如MySQL、Redis、HBase等.

日均处理万亿数据!Flink在快手的应用实践与技术演进之路

- - SegmentFault 最新的文章
作者介绍:董亭亭,快手大数据架构实时计算引擎团队负责人. 目前负责 Flink 引擎在快手内的研发、应用以及周边子系统建设. 2013 年毕业于大连理工大学,曾就职于奇虎 360、58 集团. 主要研究领域包括:分布式计算、调度系统、分布式存储等系统. 本次的分享包括以下三个部分:. 介绍 Flink 在快手的应用场景以及目前规模;.

来自滴滴、微博、唯品会、魅族、点评关于全链路压测等问题实践分享

- - 研发管理 - ITeye博客
架构师小组交流会:每期选一个时下最热门的技术话题进行实践经验分享. 第二期:因为大家对全链路压测的问题比较感兴趣,因此做了一番探讨. 参与嘉宾:滴滴技术负责人彭令鹏、魅族系统架构师何伟、唯品会应用架构负责人张广平、新浪微博技术专家聂永、大众点评交易平台技术负责人陈一方、七牛云首席架构师李道兵. 本文是对此次交流的整理,欢迎探讨.

来自京东、唯品会对微服务编排、API网关、持续集成的实践分享(上)

- - 企业架构 - ITeye博客
架构师小组交流会:每期选一个时下最热门的技术话题进行实践经验分享. 微服务架构以其高度的弹性、灵活性和效率的巨大提升,快速受到各领域架构师和技术决策者的关注. 它的基本理念是将一个肥大的系统拆分成若干小的服务组件,组件之间的通讯采用轻量的协议完成. 我们本期小组交流会来探讨一下,现在互联网公司的微服务实践情况.