新东方在线教育实时数仓的落地实践

star2017 1月前 ⋅ 103 阅读

图片

以下文章来源于ApacheDoris ,作者ApacheDoris

背景介绍

在传统数据仓库方面,通常以 T+1 离线批量计算为主,按照数仓建模方式,把要处理的业务按照主题域划分,构建各种数据模型,来满足公司经营分析,财务分析等各种公司管理层的数据需求。

然而,随着在线教育快速发展市场竞争非常激烈,T+1 的方式在某些需求上很难对业务产生实际的价值,很可能因为数据延迟导致业务动作滞后,管理要求跟进不及时,最终导致客户流失,影响公司业务发展。

目前我们遇到的主要痛点如下:

  • 续费业务场景: 在线教育上课主要分为 4 个时段(春季,暑假,秋季,寒假)。当每一个时段上课要结束的时候,就会有一个续费周期,每个学科每个班级续费率的高低直接影响公司是否盈利的问题。所以实时的观测每个学科每个班级每个学科负责人每个教学负责人的续费率完成情况就显得尤为重要。
  • 直播行课场景: 分析课中学员与老师互动行为,其中包含实时的连麦、发言、红包等行为数据,同时分析学员实时到课、完课、考试等数据对于管理学员和调整老师动作有重要的指导意义。
  • 销售场景 :监控新线索的实时分配,以及后续销售外呼频次、外呼时长,统计销售线索覆盖量,外呼覆盖量等指标。通过分析销售对于学员的跟进与转化数据,对比个人和团队当日人次和金额达成目标,指导运营管理动作。
  • 算法线索分场景 :每当进行广告投放的时候,针对每一个销售线索给出一个评分值,来评估这个线索可能转化的高低,利于销售人员更好的跟进,提高转化率。

实时数仓技术架构

01 实时数仓选型

在 2020 年以前公司实时数据部分,主要由小时级和分钟级的支持。小时级部分使用基于 Hive/Spark 的小时级任务方案,分钟级使用 Spark-Streaming 方案。

  • 基于 Hive/Spark 小时级方案虽然能满足快速响应业务需求和变化的特点,但延迟性还是很高,并且大量的小时任务对集群计算资源有很大压力,很有可能导致这一批小时任务根本跑不完。
  • 分钟级 Spark-Streaming 方案,能够满足数据时效性需求,但采用纯代码方式来开发,无法满足快速变化的数据需求

基于此,我们开始调研业界方案,目前业界有主要有两种实时数仓方案,分别是实时数仓方案和准实时数仓方案。

02 实时数仓方案

实时数仓方案分别可以采用 Lambda 架构和 Kappa 架构。

图片

Lambda 架构

如上图所示例,Lambda 架构存在离线和实时两条链路,实时部分以消息队列的方式实时增量消费,一般以 Flink 和 Kafka 的组合实现,维度表存在 MySQL 数据库或者 Hbase ;离线部分一般采用 T+1 周期调度分析历史存量数据,每天凌晨产出,更新覆盖前一天的结果数据,计算引擎通常会选择 Hive ,优点是数据准确度高,出错后容易修复数据;缺点是架构复杂,运维成本高。

图片

Kappa 架构

Kappa 架构是由 LinkedIn 的 Jay Kreps 提出的(参考 Paper: https://www.oreilly.com/radar/questioning-the-lambda-architecture/ ),作为 Lambda 方案的一个简化版,它移除了离线生产链路,思路是通过在 Kafka 里保存全量历史数据,当需要历史计算的时候,就启动一个任务从头开始消费数据。优点是架构相对简化,数据来源单一,共用一套代码,开发效率高;缺点是必须要求消息队列中保存了存量数据,而且主要业务逻辑在计算层,比较消耗内存计算资源。

但由于之前流处理系统本身不成熟,对窗口计算、事件时间、乱序问题和 SQL 支持上的不成熟,导致大部分公司普遍采用 Lambda 架构方案。但自从 2020 年 2 月 11 日,Flink 发布了 1.10 以及随后的 1.11 版本,引入了 Blink Planner 和 Hive 集成极大地增强了对于 SQL 和流批一体支持,这为真正实现 Kappa 架构带来了一丝希望。

03 准实时数仓方案

图片

准实时数仓方案

其核心思路是,采用 OLAP 引擎来解决聚合计算和明细数据查询问题,配合分钟级别调度(一般是 30 或者 15 分钟)能力来支持业务实时数据需求。该架构优点是:

  • 一般 OLAP 引擎都对 SQL 的支持度很好,开发成本极低少量人员都可以支持复杂的业务需求,灵活应对业务变化。对于差钱的公司来说无疑非常节约成本的(财大气粗的公司除外);
  • 对于数据修复成本低,因为可以基于一个周期内的数据进行全量计算,所以修复数据只需要重跑任务即可;
  • 对于运维成本也较低,只需要监控任务运行成功失败即可;
  • 对于数据时效性要求较高的场景,配合 Flink 实时计算能力,在数据接入的时候进行部分聚合计算,之后再把结果写入 OLAP 引擎,不需要再配合调度计算,以此来到达秒级延迟。

该架构的缺点是:

  • 将计算转移到了 OLAP 引擎并同时兼顾了计算和查询需求,对 OLAP 引擎性能有较高的要求;
  • 因为计算转移到了 OLAP 端,所以这种方案适用的数据体量规模有一定限制。

基于 Doris 的准实时方案

结合公司数据规模、业务灵活性、成本方面的考虑,我们选用的准实时的方案。那么接下来的就是确定采用什么 OLAP 引擎的问题了,目前业界开源的 OLAP 引擎主要有 Clickhouse、Durid、Doris、Impala+Kudu、Presto等。

这些引擎目前业界都有公司采用,比如:头条采用 Clickhouse(因为头条数据量巨大,并且头条专门有一个团队来优化和改进 Clickhouse 的内核,有钱就是好),快手采用 Durid 、Doris 美团/作业帮有采用,Impala+Kudu 网易是深度用户,Presto 主要用做 Adhoc 查询。



对此可以看到这些引擎都可以采用,主要问题是,是否对这些引擎有足够的掌握程度以及引擎本身学习成本。经过一番对比,结合之前本身对 Doris 有一定的了解,再横向对比了使用公司的规模,最后选择了 Doris 引擎。

Doris 的优点 如下:

  • 单表和多表 Join 查询性能都很强,可以同时较好支持宽表查询场景和复杂多表查询,灵活性高
  • 支持实时数据更新操作
  • 支持流式和批量数据导入
  • 兼容 MySQL 协议和标准 SQL
  • 支持 HA,在线升级扩容,运维成本低

总体架构

图片

系统架构方案

上图是目前公司采用的架构方案,总体流程如下:

    1. 数据接入部分,分为业务数据和日志数据。业务数据通过 Binlog 方式收集到 Kafka 后,再通过 Flink 写入到 Doris ODS 层中
    1. MDS 层,采用每 10 分钟、半小时、一小时进行增量或全量的方式更新,构建业务模型层
    1. ADS 层,构建大宽表层加速上层查询速度
    1. 对于一些临时的 Ad hoc 大查询需求,通过 Doris 的 Export 功能导出到 Hive 通过 Presto 提供查询,避免影响在线业务核心报表
    1. BI 查询直接通过 MySQL 协议访问 DB,配合查询层缓存来提供报表分析服务
    1. 每层 ETL 任务通过自研调度系统调度运行,报警监控一体化

在实际业务应用中也遇到了一些问题,主要有如下几个方面的问题。

Socket 文件描述符泄漏问题

因为进行查询和 ETL 都需要通过 JDBC 或 MySQL 客户端与 FE 的 9030 端口连接,在测试使用 0.10 版本时发现有的 Socket 的文件描述符没有办法正常关闭,每小时都会产生几十个 FD 泄露,最后达到上限无法创建新的 Socket 连接,只能通过重启的方式释放掉关闭异常的 FD 。

经过排查所有相关连接使用的代码,发现并没有可能产生连接不关闭的部分,咨询发现其他 Doris 使用者并没有出现过类似问题,经过反复和社区沟通最终确定是 MysqlNIOServer 的 Bug ,目前已经修复。

语法相关问题

  • union all null值问题
    在使用 with 语句生成的虚拟临时表时,如果有值为 null 的字段,这个字段在后续使用时的值会变成空字符串,不论是直接插入表还是通过 not null 进行过滤都无法得到正确结果。

  • 常量值 Join 时会关联出错误数据

    如果 with 查询中使用了 case when 等对字段进行常量值赋值的情况,如果 Join 关联时的关联条件使用到了这个字段,则有可能出现错误关联的情况,例如无法关联上的数据错误的关联上了。

图片

  • lead 和 lag 函数导致的数据错位

    如图所示,在使用 lead 或者 lag 函数对数据处理时,会出现时间数据错位的问题。

图片

以上三个在使用时发现的问题,经过与百度 Doris 团队开发者的反馈,现在这两个问题已经在新版本中完成修复。

副本不一致
为了保证数据的高可用,避免因为某个 BE 磁盘损坏导致的数据丢失,同时可以提高本地计算的概率,通常会给表设置大于 1 的副本数,虽然 TabletChecker 和 TabletScheduler 会定期检查所有分片,并对不健康的分片进行修复,然而依然会出现某些副本不一致的情况。
针对某些副本不一致的情况我们进行研究,发现在使用 Uniq 模型时,如果进行 ETL 插入的数据含有多条相同 Unique Key 且没有对这些数据进行排序时,不同副本中实际存入的数据可能会出现不一致的情况。后续对 SQL 进行改进,对 Unique Key 进行去重或者排序之后,这种情况的副本不一致就没有再次出现。

Json 解析时如果含有制表符则无法解析

在使用 getjsonobject 解析 Json 格式的字符串时,如果字符串中含有制表符,最后的解析会失败,这时必须对字符串进行字符替换,将制表符替换成空字符,然后再解析 Json 。

使用总结

  • 在资源有限的情况,实时数仓还不能完全代替离线数仓。实时数仓对资源要求较高,成本换时间。离线数仓是时间换成本。也许在不久的将来随着算力的提高,新的技术的应用可以实现,但目前还没有。
  • 随着数据量的增加计算延迟也会增加,两者呈线性关系,这就需要在业务需求和成本上做一个折中。
  • 使用 Doris 支撑了公司大部分实时数据需求,在保证开发成本和使用灵活性方面非常友好。
  • 未来随着 Flink SQL 方面越来越成熟可以把计算任务压力进一步转移到 Flink 上,结合Doris 的 OLAP 能力,可以提供更低延迟数据需求。

- 作者介绍 -

新东方在线大数据团队,负责公司整体大数据基础架构、数据中台及数据服务。


本文地址:https://www.6aiq.com/article/1634858018319
本文版权归作者和AIQ共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出

更多内容请访问:IT源点

相关文章推荐

全部评论: 0

    我有话说: