百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

基于Apache Flink的爱奇艺实时计算平台建设实践

ccwgpt 2024-10-26 08:43 49 浏览 0 评论

随着大数据的快速发展,行业大数据服务越来越重要。同时,对大数据实时计算的要求也越来越高。今天会和大家分享下爱奇艺基于Apache Flink的实时计算平台建设实践。

今天的介绍会围绕下面三点展开:

  • Flink的现状与改进
  • 平台化的探索和实践:实时计算平台
  • Flink业务案例

01

Flink的现状与改进

1. Flink现状

首先和大家分享下爱奇艺大数据服务的发展史。

我们从2012年到2019年,大数据服务经过了一系列持续的改进和发展:

  • 2012年搭建了第一个Hadoop集群,当时只有大概20几个节点,使用的计算框架是MapReduce和Hive等
  • 到2013,2014年,开始使用Hadoop 2.0,上线了Storm和Spark,由于Storm的使用性和稳定性不够好,被放弃使用,转而使用Spark
  • 2015年发布了第一个实时计算平台Europa,上线了Kafka
  • 2017年使用了Flink,同时我们基于Spark和Flink打造了流式计算引擎StreamingSQL
  • 2018年推出了自研的实时计算平台Real-time Analytics Platform (RAP)
  • 2019年基于Flink达到了内部的流数据生态平台;

然后介绍一下Flink在爱奇艺的使用情况:

这是Flink在爱奇艺的一些使用情况,目前的节点规模大约15000多台,总的作业规模有800多个,每天的数据流的生产量大概在万亿级别,约2500TB左右。注:本数据仅代表嘉宾分享时的数据。

下面是目前爱奇艺基于Spark,Flink打造的实时计算平台框架:

  • 底层存储使用的HDFS,HBase,Kafka和OSS。
  • 实时计算框架通过Spark和Flink部署,在这两个服务之上,构建了一个独立的流式系统引擎StreamingSQL。
  • 在引擎之上,打造了多种类型的平台,用来实现管理计算的任务,流数据的生产分发和实时数据分析等不同需求。
  • 实时计算在爱奇艺业务上有些典型的应用场景:实时分析、报警,信息流(如广告类)推荐,内部数据在线训练,实时风控(内容追踪等)。

2. Flink改进

Flink改进-监控和报警:

以前只是做了简单的状态监控,在出现问题之后,不知道内部状态是怎么样的。近期做了一些改进,并和内部的监控平台Hubble进行集成,主要有三个级别的监控指标:

  • Job级别监控指标:Job状态、Checkpoint状态和耗时。如果没有进入到running状态,会对其进行重启操作,防止其查询卡在不健康状态下
  • Operator级别监控指标:时延、反压、Source/Sink流量,对每个Operator进行指标聚合
  • TaskManager级别监控指标:CPU使用率、内存使用率、JVM GC等

Flink改进-状态管理:

问题一:长时间运行Flink job,会因为各种原因导致它重启。Checkpoint只在Flink作业内部有效,一旦主动重启或异常重启时,上一个job的状态会全部丢失。

解决方法:作业重启时,找到上一次运行成功的Checkpoint,从中恢复。

缺陷:对于状态很大的作业,会使用RockDBStateBackend做增量Checkpoint;上一次的Checkpoint被依赖而无法删除,会导致状态堆积(生产环境中的一个作业的Checkpoint总共多达8TB)。

对于这个缺陷也就是:

问题二:Checkpoint无限依赖

解决方法:使用Savepoint打断增量Checkpoint的依赖链,并与流计算平台集成。

主要有两种产品,一种是通过业务通过平台主动重启,重启之前对此job做一次Savepoint操作,启动时从Savepoint的路径去启动。

第二种是发生异常重启时,来不及做Savepoint。那么会在Checkpoint启动起来,一旦job进入到running状态以后,立即做一次Savepoint,解决依赖问题。

StreamingSQL:

StreamingSQL是基于Spark和Flink构建的一个统一的流数据ETL工具,具有以下一些特征:

  • SQL化:业务上去写流计算任务时,不需要去写Scala程序,只需要编写一些SQL代码即可完成流计算ETL任务的开发。
  • DDL:流表、临时表、维度表、结果表。
  • UDF:系统预定义常用函数、用户自定义函数。
  • 提供SQL编辑器。

下面是StreamingSQL的一个实例:

02

实时计算平台

1. 实时计算管理平台

上图是Spark、Flink任务开发和管理的web IDE的例子,用户可以在页面上配置一些参数和字段,进行任务的开发,上传,作业的重启,运行状态的查看等常规操作。

此外,还提供其他的一些管理:

  • 文件管理:任务Jar包、依赖库。
  • 函数管理:提供丰富的系统函数、支持用户注册UDF。
  • 版本管理:支持任务、文件的版本对比以及回滚。
  • 常规管理:监控大盘、报警订阅、资源审计、异常诊断。

2. 实时数据处理平台

为了确保数据发挥该有的价值,让数据的流转更加通畅,让业务处理数据、使用数据和分析数据更加便捷,我们改进服务,推出了数据处理平台和数据分析平台。

以下是实时数据处理平台演进过程:

2015 – 2016

  • 场景:离线报表为主,少量实时报表需求,数据生产规模50万QPS;
  • Venus 1.0数据采集平台:基于Apache Flume;在Venus agents上通过tail+grep/awk/sed等脚本过滤;
  • 缺陷:不方便变更过滤规则,需重启所有agents;不同用户需求存在大量重复处理逻辑。

2017 – 2018

  • 场景:实时分析、信息流推荐等实时需求增加,500万QPS
  • Venus 2.0数据采集分析平台:实时过滤从Venus agent迁移到Flink,采用两级Kafka;无需重启即可动态增减处理规则
  • 缺陷:Kafka数据冗余,不方便分享Kafka数据

2019

  • 场景:大量实时业务需求,1500万QPS
  • Venus 3.0流数据生产分发平台:通过web配置实时处理规则,可自由组合常见算子;参考离线数仓,按照数据使用场景构建流式数仓
  • 优点:减少流数据重复生产,促进流数据共享

下面是一个例子,流数据处理平台的一个页面。目前平台支持Projection、Filter、Split、Union、Window、UDF等常见算子。

3. 实时分析平台

目前我们实时数据OLAP分析平台主要有两大类:一类是实时报表,主要有A/B测试、精细化运营等;另一类是实时报警,主要有VV/UV、播放故障等。

下图是现在的一个架构图:

目前支持流处理平台,Kafka,Hubble监控系统,MySQL binlog这些数据源。用户可以通过UI配置处理规则,分析规则,需要展示的报表的风格,以及一些报警的规则。这些处理规则和分析规则等,后台会自动把它们的function对应的服务转成一个job,然后自动把结果上传到MySQL里。此外,用户可以在多平台上面进行分析查看、观测报警率等,也可以方便的通过api对接到自己的第三方的定制化平台里。

目前,我们实时分析平台拥有以下一些优势:

  • 开发门槛低:无需写程序或SQL
  • 开发效率高:由以前的几天到现在的半小时就能完成
  • 报表实时:从小时级别优化到现在只需要1分钟
  • 查询更快:支持大规模数据亚秒级查询

下面展示的是一些页面的模块。

配置处理规则:

配置OLAP模型:

03

Flink业务案例

1. 信息流推荐

我们所有的数据都是通过实时收集到二级Kafka里面,通过Stream处理平台分级成点击、查看、订阅、搜索等一系列行为不同的Kafka里。然后再经过处理平台处理以后,生产相应的用户特征,用户画像等实时流,最后被推荐引擎去使用。

我们从Spark Streaming迁移到Flink,消除了批处理延迟。目前单个任务延迟从1分钟缩短到1-2秒,端到端性能提升86倍,并且显著提升了推荐效果。

2. 使用Flink生产深度学习训练数据

上图是一个广告推荐相关的例子,这是以前的一个架构,通过Hive/Spark离线ETL生成广告深度学习算法所需要的训练数据,算法模型更新周期为6小时。

从2018年初开始,对框架做了实时的一个改造。实时过来的用户行为数据会实时投递到Kafka里,通过Flink处理完以后,生成一些新的Delta数据;过去7天分析的广告特征、用户特征投到Kafka,通过Flink处理完以后,存到HBase里。Kafka实时流(最近24小时)和HBase维度表(最近7天)这两部分数据Join之后生成一个Session流,再给算法预测使用。

通过框架的改进,目前算法模型更新从6小时缩短到1小时,并且支持实时CTR预估,更好指导广告决策,提升广告收益。

3. 端到端Exactly-Once处理

由于目前存在一个问题:Kafka节点故障重启或人工运维时,业务方重复消费数据。因此最近正在研究端到端Exactly-Once处理的一个方案:Kafka Exactly-Once Semantics + Flink two-phase commit.

但是,这个方案会造成Flink任务计算性能的20%损耗,从业务方向角度来讲,这个是在可接受范围内的。

4. 挑战与规划

以下是未来的一些规划:

  • 流批一体化
  • SQL化:进一步完善和推广StreamingSQL,降低开发门槛
  • 基于Flink的机器学习的尝试和使用
  • 提高Flink作业的资源利用率,支持动态资源调整
  • Flink on Kubernetes

作者:梁建煌,爱奇艺大数据服务负责人,2012-硕士毕业于上海交通大学后,先后在 SAP、爱奇艺工作,从 2013 年起开始负责爱奇艺大数据服务体系的建设工作,包括大数据存储、计算、OLAP 以及开发平台等。

相关推荐

土豪农村建个别墅不新鲜 建个车库都用框架结构?

农村建房子过去都是没车库,也没有那么多豪车,一般直接停在路边或者院子里。现在很多人都会在建房子的时候留一个车库,通过车库可以直接进入客厅,省得雨雪天气折腾。农村土豪都是有钱任性,建房子跟我们普通人不一...

自建框架结构出现裂缝怎么回事?

三层自建房梁底与墙体连接处裂缝是结构问题吗?去前帮我姑画了一份三层自建房的图纸,前天他们全部装修好了。我姑丈突然打电话给我说他发现二层的梁底与墙分离了,有裂缝。也就是图纸中前面8.3米那跨梁与墙体衔接...

钢结构三维图集-框架结构(钢柱对接)

1、实腹式钢柱对接说明1:1.上节钢柱的安装吊点设置在钢柱的上部,利用四个吊点进行吊装;2.吊装前,下节钢柱顶面和本节钢柱底面的渣土和浮锈要清除干净,保证上下节钢柱对接面接触顶紧;3.钢柱吊装到位后...

三层框架结构主体自建房设计案例!布局13*12米占地面积156平米!

绘创意设计乡村好房子设计小编今日头条带来分享一款:三层框架结构主体自建房设计案例!布局13*12米占地面积156平米!本案例设计亮点:这是一款三层新中式框架结构自建房,占地13×12米,户型占地面积...

Casemaker机箱框架结构3D图纸 STEP格式

农村自建房新宠!半框架结构凭啥这么火?内行人揭开3个扎心真相

回老家闲逛,竟发现个有意思的现象:村里盖新房,十家有八家都选了"半框架结构"。隔壁王叔家那栋刚封顶的二层小楼,外墙红砖还露着糙面没勾缝,里头的水泥柱子倒先支棱得笔直,这到底是啥讲究?蹲...

砖混结构与框架结构!究竟有何区别?千万别被坑!

农村自建房选结构,砖混省钱但出事真能保命吗?7月建材价格波动期,多地建房户因安全焦虑陷入选择困境——框架结构虽贵30%,却是地震区保命的关键。框架柱和梁组成的承重体系,受力分散得像一张网。砖混靠墙硬扛...

砖混结构与框架结构,究竟有何区别?千万别被坑!

农村建房选砖混结构还是框架结构?这个问题算是近期留言板里问得最多的问题了。今天咱们说说二者的区别,帮您选个合适的。01成本区别假如盖一栋砖混结构的房子需要30万,那么换成框架结构,一般要多掏30%的费...

6个小众却逆天的App神器,个个都是黑科技的代表

你的手机上有哪些好用的软件?今天我就给大家分享6个小众却逆天的App神器,个个都是黑科技的代表!01*Via浏览器推荐理由:体积极小的浏览器,没有任何广告。使用感受:它的体量真的很小,只有702KB,...

合肥App开发做一个app需要多少钱?制作周期有多久?

在移动互联网时代,开发一款APP已成为企业数字化转型与个人创业的重要途径。然而,APP的开发成本与制作周期受功能复杂度、技术架构、团队类型等多重因素影响,差异极大。好牛软件将从这两个维度展开分析,帮助...

详解应对App臃肿化的五大法则

编者注:本文转自腾讯ISUX。先来看一张图:图上看到,所有平台上用户花费时间都在减少,除了移动端。观察身边也是如此,回家不开电脑的小伙伴越来越多。手机平板加电视,下班场景全搞定。连那些以前电脑苦手的...

实战!如何从零搭建10万级 QPS 大流量、高并发优惠券系统

需求背景春节活动中,多个业务方都有发放优惠券的需求,且对发券的QPS量级有明确的需求。所有的优惠券发放、核销、查询都需要一个新系统来承载。因此,我们需要设计、开发一个能够支持十万级QPS的券系...

8种移动APP导航设计模式大对比

当我们确定了移动APP的设计需求和APP产品设计流程之后,开始着手设计APP界面UI或是APP原型图啦。这个时候我们都要面临的第一个问题就是如何将信息以最优的方式组合起来?也许我们对比和了解了其他一些...

数字资产支付 App 的技术框架

开发一款功能强大、安全可靠的数字资产支付App需要一个整合了区块链技术、后端服务、前端应用以及第三方集成的全栈技术框架。这个框架的核心在于保障数字资产的安全流通,并将其高效地桥接到传统的法币支付场...

从MyBatis到App架构:设计模式全景应用指南

从MyBatis到App架构:设计模式全景应用指南引言在企业级应用和服务端开发领域,MyBatis凭借其灵活、简洁、强大的ORM映射能力被广泛应用。而它之所以能拥有如此优秀的可扩展性和工程可维护性,正...

取消回复欢迎 发表评论: