推广 热搜: 行业  机械  设备    系统  教师  经纪  参数    蒸汽 

跨数据中心下的 Kafka 高可用架构分析

   日期:2024-11-10     移动:http://dgaty.xhstdz.com/mobile/quote/66833.html

导语

跨数据中心下的 Kafka 高可用架构分析

本文介绍了 Kafka 跨数据中心的两种部署方式,简要分析两种方式下的不同架构以及优缺点,对这些架构可能碰到的问题也提供了一些解决思路;同时也说明了 Kafka 跨数据中心部署的社区解决方案和商业化解决方案。

背景

Kafka 作为世界上最流行的消息中间件之一,一般是客户数据链路中的核心组件,高可用性是客户很关注的因素。近期在对接云上客户时发现,客户对 Kafka 的高可用也有需求,行业架构师也想了解 Kafka 高可用的方案细节;有些客户是需要云上 Kafka 的高可用能力,有些客户需要 IDC 中的 Kafka 与云上 Kafka 建立高可用架构;有些客户需要与其他友商云进行跨云高可用。单集群的高可用讨论得比较多,但跨数据中心的方式比较多,相对复杂。本文希望借由对 Kafka 跨数据中心高可用架构的分析,为以上场景的解决方案提供一些思路。

相关术语

发生故障的场景

在当前基础设施丰富的时代,我们很容易认为不需要考虑故障场景。然而现实情况是,不论是在虚拟化或容器化架构下,还是在提供成熟服务的云厂商上,尽管概率各不相同,但都有可能发生局部和系统故障。架构师需要考虑特定类型故障的可能性以及对其整体系统可用性的影响。

下面列出一些典型的故障场景:

这篇文章重点围绕故障场景2、3、4说明 Kafka 中有哪些方案来应对这几类故障场景。第1种单节点故障,Kafka 集群高可用可以应对;第5、6种故障可以考虑将数据存储到第三方系统,如果在云上可以转储到 COS 。

Kafka体系架构简介

以下是 Kafka 的软件架构,整个 Kafka 体系结构由Producer、Consumer、Broker、ZooKeeper  组成。Broker 又由 Topic、分区、副本组成。

详细可以参考Kafka官方文档:https://kafka.apache.org/documentation/#introduction。

单套 Kafka 集群是通过副本复制来保障集群的高可用,但在实际生产情况下,单数据中心单集群不一定能满足生产上需要的高可用需求,也难以应对复杂的业务场景。我们下面来看看跨数据中心下几种常见的应用场景。

跨数据中心的应用场景

有时候,一家公司可能会在不同的地理区域、城市或大洲有多个数据中心。每个数据中心都有自己的 Kafka 集群。有些应用程序只需要与本地的 Kafka 集群通信,有些应用程序则需要访问多个数据中心的数据(否则就没有必要跨数据中心的复制方案了)。有很多情况需要跨数据中心访问数据,例如,根据供需情况修改商品价格就是一个典型的应用场景。该公司在每个城市都有一个数据中心,用于收集每个城市的供需信息,然后根据整体的供需情况调整商品价格。这些信息会被镜像到中心集群,然后业务分析员会基于中心集群中的数据生成整个公司的收益报告。

Kafka 集群可能因为某些原因不可用,为了实现冗余,需要有另外一个与第一个集群完全相同的集群。如果有第一个集群不可用的情况发生,可以将应用程序重新定向到第二个集群。

有些客户需要将生产环境数据镜像到测试环境,进行验证。

在云计算流行的今天,部分公司会将业务同时部署在本地IDC 和云端。本地 IDC 和每个云服务区域可能都会有 Kafka 集群,应用程序会在这些 Kafka 集群之间传输数据。例如,云端部署了一个应用,它需要访问 IDC 里的数据,IDC 里的应用程序负责更新这个数据,并保存在本地的数据库中,可以捕获这些数据变更,然后保存在 IDC 的 Kafka 集群中,然后再镜像到云端的 Kafka 集群中,让云端的应用程序可以访问这些数据。这样既有助于控制跨数据中心的流量成本,也有助于提高流量的监管合规性和安全性。

越来越多的国家和地区对数据安全都很重视,都有出台相应的信息保护法律法规。如果有数据涉及到跨境被访问,可以利用 Kafka 的镜像能力,在传输到境外之前,进行数据脱敏、传输加密等一系列的处理。为了符合不同国家的法律和监管要求,一家公司在不同国家的运营也可能需要不同的配置和策略。例如,一些数据可能需要被保存在具有严格访问控制的独立集群中,一些数据则可以被复制到具有宽松访问权限的其他集群。为了满足不同区域对数据保留期限的合规性要求,保存在不同区域集群中的数据可以使用不同的配置。

跨数据中心 Kafka 的部署形态

一般来说,Kafka跨数据中心部署大体分两种形态:Stretched Cluster和Connected Cluster。

Stretched Cluster

延展集群,它本质上是单个集群,是使用 Kafka 内置的复制机制来保持Broker副本的同步。通过配置min.insync.replicas 和 acks=all,可以确保每次写入消息时都可以收到至少来自两个数据中心的确认。

Connected Cluster

连接集群,是通过异步复制完成多地域复制,并且使用外部工具将数据从一个(或多个)集群复制到另一个集群。该工具中会有 Kafka 消费者从源集群消费数据,然后利用 Kafka 生产者将数据生产到目的集群。但 Confluent 提供了一种不使用外部工具实现此功能的连接集群,在下面介绍商业化方案的时候再详细说明。

下面是这两种部署形态的对比:

基于这两种部署形态,跨数据中心会有如下几种部署架构。

跨数据中心 Kafka 的部署架构

延展集群 2AZ

Kafka 的 Broker 跨两个数据中心组成集群,Zookeeper 是 Hierarchical Quorum 模式。数据中心的 Kafka 集群直接连接本地的 Zookeeper 组。延展集群2AZ部署架构如下:

如果 DC1 不可用,客户端在另外一个数据中心也失去了分区 Leader。要么部分生产,要么停止生产,这取决于复制因子的配置。

如果某个数据中心发生故障,可以通过如下方式进行切换。

①DC1 发生故障

②不能选择 Leader 分区

③从配置文件中移除不可用的 ZK 和 Group

④在 DC2 中选择新的 Leader 分区

⑤将 min.insync.replica 从3修改为2

⑥生产者可以发送消息给新的 Leader 分区

可以看到延展集群 2AZ 的架构并非标准的高可用解决方案。如果出现某个数据中心不可用,需要手动调整配置文件,手动重新拉起ZK集群。所以整个过程 RTO 和 RPO 都是大于0。现有的解决方案中,Confluent 提供的 linker 产品更适用 2AZ 高可用的场景,在下面的商业化解决方案中再详细介绍。

延展集群 2.5AZ

延展集群 2.5AZ 的架构包含两个完全运行的可用区,和一个运行单个延展集群的轻可用区(0.5)。Zookeeper 需要跨3个数据中心部署,每个数据中心一个 ZK 节点。如果某个数据中心不可用,故障切换的 RTO 和 RPO 都是0。在 2.5AZ 的部署架构下,如果副本数设为3,并且 Acks=all,min.insync.replicas=2,那么3副本的分布为2+1。此时如果2副本的数据中心不可用,因为最小 ISR 设为了2,所以集群的写入将不可用,但消费不受影响。

延展集群 2.5AZ 的部署架构如下:

延展集群 3AZ

该架构跨3个数据中心部署一个集群,RTO 和 RPO 在一个数据中心故障时为 0。这种模式是所有模式中最简单、最健壮的。这种模式在公共云中非常常见(使用多个可用区)。也不会有 2.5AZ 最少 ISR 不够用的风险。

延展集群3AZ的部署架构如下:

通过配置 min.insync.replicas 和 Acks=all,可以确保每次写入消息时都可以收到至少来自两个数据中心的确认。从Kafka 2.4.0开始,消费者可以基于机架信息从最近的副本获取数据。从本地数据中心的 Follow 副本读取数据可以提高吞吐量、降低延迟和成本,因为跨数据中心的流量减少了。

连接集群-灾备架构

Parimay 集群(主)将数据镜像到备用集群(被动)使用 MM2。当主用站点故障时,您需要移动生产者和消费者应用程序到备用站点。RTO 取决于备用站点的升温程度向上当涉及到 RPO 时,可能会发生数据丢失因为 MM2 异步复制数据主用站点到备用站点。

这种架构的好处是比较好实现,只需要安装第二个集群,然后使用镜像工具将第一个集群的数据完全镜像到第二个集群中。但这个架构最大的问题在于浪费一个集群,并且 Kafka 的故障转移很难完全做到既不丢数据,也无重复数据。我们只能尽量减少这些问题的发生,但是无法完全避免。

Kafka 已知的镜像方案都是异步的,所以灾备集群无法及时获取主集群的主要数据。我们需要监控同步延迟,来确认灾备集群落后主集群多少,并确保不要落后太多。如果有故障转移计划,可以先停止主集群,等镜像进程将剩余数据同步完毕,然后再切换到灾备集群,这样可以避免数据丢失。如果发生了非计划内的故障转移,切换到灾备集群可能会丢失一部分消息。

另外,当前社区镜像方案还不支持 EOS(Exactly-once Semantics),如果主集群有事务消息,同步到灾备集群,有些消息可能会丢失。切换到灾备集群,还有个比较大的挑战是消费者位点的同步。MM1 并不能承诺消费者位点能够同步,所以早期版本(2.4版本以前)的 Kafka 灾备切换,消费位点要么从起始位置开始读取数据,要么从末尾开始读取数据。从起始位置读取会带来大量的重复数据;从末尾开始读取数据,可能丢弃部分数据。一般来说,从末尾读取数据更为常见。从 Kafka0.10 之后,Kafka 每条消息都包含了一个时间戳,所以也可以根据时间点来调整消费位移点。跟随 Kafka 2.4 一起推出的 MirrorMaker2 (以下简称MM2)是下一代的多集群镜像解决方案,修复了 MirrorMaker1 的局限性。

连接集群-双活架构

当有两个或者多个数据中心需要共享部分或全部数据,并且每个数据中心都可以生产或者消费数据,可以使用双活架构,如下图所示:

数据中心运行单独的 Kafka 集群,每个集群都是另外一个集群的副本。当一个数据中心发生故障,应用程序将故障转移到另外一个数据中心。

双活架构可能遇到的一些问题。

跨数据中心 Kafka 解决方案

社区解决方案

社区方案中的延展集群利用 Kafka 自身的同步机制达到高可用的效果,并不需要借助于外部工具。针对连接集群,社区解决方案主要是借助于 Kafka 自带的MirrorMaker工具。早期的MirrorMaker1(以下简称MM1)存在一些问题。

比如:

因为存在这些问题,MM1 很难在生产环境中使用。所以在 Kafka2.4 版本中,推出了一个新的 MirrorMaker2(以下简称MM2),MM2 基于 Kafka Connect 框架,解决了上面大部分的问题。

下图是 MM2 在主备架构中的应用。

可以在 MirrorMaker2 下配置复杂的拓扑来支持更为广泛的的场景。比如有 Kafka 集群 A、B、C。双活高可用可配置:A→B,B→A。灾备集群可配置:A→B。聚合:A→C,B→C。扇出可配置:C→A,C→B。链式复制可配置:A→B,B→C。

为避免添加新的 Topic 或分区发生再均衡而导致延迟激增,在分配分区时,MirrorMaker2 并没有使用 Kafka 的消费群组管理协议。源集群的每个分区的消息都可以镜像到目标集群的相同分区。如果源 Topic 添加了分区,那么目标 Topic 也会自动创建对应的分区。除了可以复制元数据、消息数据,MM2 还支持消费者偏移量、Topic 配置和 ACL。

MM2 的具体配置也可以参考:https://kafka.apache.org/documentation/#georeplication-mirrormaker ,文档里面包含 MM2 相关的 KIP-382,有兴趣可以了解下。

开源&商业化方案

Uber 的 uReplicator

uReplicator 是 UBber 开源的 Kafka 集群复制开源项目,基于 MirrorMaker1 的改进版,使用 Apache Helix 作为中心控制器,用于管理 Topic 列表和分配给每个 uReplicator 实例的分区。管理员可以通过 REST API 添加新的 Topic,uReplicator 负责将分区分配给不同的消费者。uReplicator 引入 Helix,取代了 High-Level Consumer 里面的 Consumer Group Coordinator 角色,消费者的分区由 Helix 控制器负责分配,不需要在消费者之间进行协调,避免了再均衡。

uReplicator 借助于 Helix 解决了 MM1 的一些痛点问题,但是也带来了额外的复杂性。MM2 解决了 MM1 的伸缩性和容错性问题,并且不需要依赖外部组件。想对 uReplicator 有更多了解,可以参考官方博客。

Confluent 的 Replicator

Confluent Replicator 允许您轻松可靠地将主题从一个 Kafka 集群复制到另一个集群。除了复制消息外,Replicator 还会根据需要创建主题,保留源集群中的主题配置。这包括保留分区数、复制因子以及为单个主题指定的任何配置覆盖。和MirrorMaker类似,Confluent Replicator 也依赖于 Connect 框架,并可以在 Connect 集群中运行。

Confluent Replicator 支持各种拓扑的数据复制以及消费者偏移量和 Topic 配置信息的迁移,但与 MirrorMaker2 不同,Confluent Replicator 不支持 ACL 迁移;并且Replicator 不使用远程 Topic 避免循环复制,而是使用源头来避免循环复制。同时 Replicator 提供一系列指标,比如复制延迟,还可以通过 REST API 或者控制台 UI 来监控这些指标。

Confluent 的 Cluster linker

Confluent 的 Cluster linker 可以使能够直接将集群和镜像 Topic 从一个集群连接到另一个集群。Cluster linker 使构建多数据中心、多区域和混合云部署变得更为容易。它是安全的,高性能的,容忍网络延迟,并内置于 Confluent 服务器和 Confluent 云。通过 Cluster linker,可以实现多区域高可用性,同时可以支持灾难恢复、全局复制、数据共享以及集群迁移等需求。

与 Replicator 和 MirrorMaker 2不同,集群链接不需要运行 Connector 来将消息从一个集群移动到另一个集群,并且它创建具有全局一致偏移量的相同的“镜像主题”。源主题上的消息精确地镜像到目标集群上,在相同的分区和偏移量上。镜像主题中不会出现与源主题所包含内容相关的重复记录。

Cluster linker 将 Topic 副本复制协议用在了集群复制上,可以跨集群进行带消费 Offset 迁移的数据复制,不需要进行 Offset 转换。Topic 配置信息、分区、消费者 Offset 和 ACL 都可以在两个集群直接同步,以便在发生灾难时实现低 RTO 的故障转移。目标集群上镜像 Topic 的 Leader 分区从对应的源 Leader 那里获取分区数据,目标集群上镜像 Topic 的 Follower 使用 Kafka 标准的 Replication 机制从本地 Leader 那里复制数据。目标集群的镜像 Topic 会被定义成只读,防止本地生产者将数据生产到这些主题。

Cluster linker 比 MM2 或 Replicator 优势的地方在于,不需要维护一个 Connector 集群,并且比外部工具更高效,避免了 Connector 集群镜像数据时需要解压缩和再压缩,同时 Cluster linker 可用于网络不可靠且高延迟的数据中心,它只在数据中心之间复制一次数据,减少了跨数据中心的流量。但 Cluster linker 没有类似 MM2 的镜像配置选项,缺少镜像配置的灵活性。同时,如果发生了故障转移,需要重启客户端,将网络链接到目标集群上。Cluster linker 一般适用于迁移集群和需要共享主题的场景。

Confluent 的 Multi-Region Cluster

Confluent 的 Multi-Region Cluster(以下简称MRC)适用于延迟在50ms以内的数据中心,它同步组合了同步复制和异步复制,以此来降低对生产者性能的影响,并能提供给更高的网络容错性。

Confluent Server 通常跨可用性区域或附近的数据中心运行。如果跨可用性区域或附近数据中心的代理之间的计算机网络在可靠性、延迟、带宽或成本方面不同,这可能会导致更高的延迟、更低的吞吐量以及生产和使用消息的成本增加。

为了缓解这种情况,Confluent Server 添加两个增强的能力:

总结

本文介绍了 Kafka 跨数据中心的两种部署方式,简要分析了两种方式下的不同架构以及优缺点,对这些架构可能碰到的问题也提供了一些解决思路;同时也说明了 Kafka 跨数据中心部署的社区解决方案和商业化解决方案。

随着数据中心故障的不可避免,作为核心数据链路中的 Kafka 的高可用也得到更多的重视。Kafka 跨数据中心部署方式中,Stretched Cluster 采用同步的方式复制数据,RTO&RPO 是0;Connected Cluster 采用异步的方式复制数据,RTO&RPO一般大于0。如果自建 Connected Cluster,那么需要做好故障切换的演练。大家可以根据实际场景需求来选择相应的部署架构,一种场景并不见得只有一种解决方案架构能满足。或者为了省心,可以在腾讯云上直接选择 Ckafka。

腾讯云 CKafka 在公有云上也提供跨可用区集群的产品化能力,支持 Streched Cluster 2.5AZ 和 Streched Cluster3AZ 两种部署架构;也支持 Connected Cluster,支持多个集群直接互相复制,支持多种复制拓扑。已经有众多的大客户在云上选择了 Ckafka。

因篇幅有限,本文在部分方案细节上并未深入展开,欢迎随时联系交流。

参考资料

https://docs.confluent.io/platform/current/multi-dc-deployments/multi-region-architectures.html

https://www.confluent.io/blog/multi-geo-replication-in-apache-kafka/

https://kafka.apache.org/documentation/

https://www.confluent.io/resources/kafka-the-definitive-guide-v2/

https://cloud.tencent.com/document/product/597/52786

往期

推荐

扫描下方二维码关注本公众号,

了解更多微服务、消息队列的相关信息!

解锁超多鹅厂周边!

戳原文,查看更多

消息队列 CKafka

信息!

本文地址:http://dgaty.xhstdz.com/quote/66833.html    物流园资讯网 http://dgaty.xhstdz.com/ , 查看更多

特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


0相关评论
相关最新动态
推荐最新动态
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号