架构设计-机房迁移

参考:

微信公众号:架构师之路

https://blog.csdn.net/shenjian58/article/details/104191389?utm_medium=distribute.pc_relevant_right.none-task-blog-BlogCommendFromMachineLearnPai2-4.nonecase&depth_1-utm_source=distribute.pc_relevant_right.none-task-blog-BlogCommendFromMachineLearnPai2-4.nonecase

平滑上云

2015年底的时候,到家集团启动了一个“凌云”项目,将所有系统从北京的M6机房迁移到阿里云,完成技术栈“上云”。项目涉及几百台机器,到家所有的业务,所有的系统,需要所有技术部门配合,耗时超过一个季度,是一个不折不扣的大项目。

今天,简单的聊聊当时的架构方案,我们是如何平滑进行机房迁移的。

【1】核心问题一,被迁移的系统是一个什么样的架构呢?


上图是一个典型的互联网单机房系统架构:

(1)上游是客户端,PC浏览器或者APP;

(2)然后是站点接入层,做了高可用集群;

(3)接下来是服务层,服务层又分为两层,业务服务层和基础服务层,也都做了高可用集群;

(4)底层是数据层,包含缓存与数据库;

该单机房分层架构,所有的应用、服务、数据是部署在同一个机房,其架构特点是“全连接”:

(1)站点层调用业务服务层,业务服务复制了多少份,上层就要连接多少个服务;

(2)业务服务层调用基础服务层,基础服务复制了多少份,上层就要连多少个服务;

(3)服务层调用数据库,数据库冗余了多少份,就要连多少个数据库;

例如:站点接入层某一个应用有2台机器,业务服务层某一个服务有4台机器,那肯定是上游的2台会与下游的4台进行一个全相连。

全连接如何保证系统的负载均衡与高可用?

全连接架构的负载均衡与高可用保证,是通过连接池实现的。不管是NG连web,web连业务服务,业务服务连接基础服务,服务连接数据库,都是这样。

划重点1:

单机房架构的核心是“全连接”。

【2】核心问题二,机房迁移的目标是什么?

单机房架构的特点是“全连接”,机房迁移要做一个什么样的事情呢?


如上图:

迁移之前,系统部署在机房A(M6)内,是单机房架构。

迁移之后,系统部署在机房B(阿里云)内,仍然是单机房架构,只是换了一个机房而已。

有什么好的迁移方案?

最容易想到的一个方案,把所有服务在新机房全都部署一套,然后把流量切过来。

这个方案存在什么问题?

问题1:得停止服务,丧失了可用性。

问题2:即使可以接受停服,当有几百台机器,几千个系统的时候,“部署一套,切流量”一步成功的概率很低,风险极高,因为系统实在太复杂了。

机房迁移的难点,是“平滑”迁移,整个过程不停服务,并能够“蚂蚁搬家”式迁移。

划重点2:

机房迁移方案的设计目标是:

(1)平滑迁移,不停服务;

(2)可以分批迁移;

(3)随时可以回滚;

【3】核心问题三,暂时性的多机房架构能否避免?

如果想要平滑的迁移机房,不停服务,且逐步迁移,迁移的过程中,势必存在一个中间过渡阶段,两边机房都有流量,两边机房都对外提供服务,这就是一个多机房的架构。

迁移过程中,多机房架构不可避免。

前文提到的单机房架构,是一个“全连接”架构,能不能直接将单机房的全连架构套用到多机房呢?

如果直接将单机房“全连接”的架构复制到多机房,会发现,会有很多跨机房的连接:

(1)站点层连接业务服务层,一半的请求跨机房;

(2)业务服务层连接基础服务层,一半的请求跨机房;

(3)基础服务层连数据层,一半的请求跨机房;

大量的跨机房连接会带来什么问题?

同机房连接,内网的性能损耗几乎可以忽略不计。

一旦涉及到跨机房的访问,即使机房和机房之间有专线,访问的时延可能增加到几毫秒,甚至几十毫秒(跟机房间光纤距离有关)。

举个例子,假设户访问一个页面,需要用到很多数据,这些数据可能需要20次相互调用(站点调用服务,服务调用缓存和数据库等),如果有一半调用跨机房(10次调用),机房之间延迟是20毫秒,因为跨机房调用导致的请求迟延就达到了200毫秒,这个是绝不能接受的。

划重点3:

想要平滑的实施机房迁移,临时性的多机房架构不可避免。

小结:

(1)单机房架构的核心是“全连接”。

(2)机房迁移方案的设计目标是:平滑迁移,不停服务;可以分批迁移;随时可以回滚;

(3)想要平滑的实施机房迁移,临时性的多机房架构不可避免;

多机房多活架构

前情提要:

当年,我们是怎么平滑上云的?》一文中提到了上云的背景,将所有的系统,从一个机房,迁移到另一个机房。


如上图:

迁移之前,系统部署在机房A(M6)内,是单机房架构。

迁移之后,系统部署在机房B(阿里云)内,换了一个机房。

当年,我们是怎么平滑上云的?》有三结论:

(1)单机房架构的核心是“全连接”;

(2)机房迁移方案的设计目标是:平滑迁移,不停服务;可以分批迁移;随时可以回滚;

(3)想要平滑的实施机房迁移,临时性的多机房架构不可避免;

【4】核心问题四,临时性多机房架构如何实施?

如前文所述,如果将单机房“全连接”架构复制到多机房,会有大量跨机房调用,极大增加请求时延,是业务无法接受的,要想降低这个时延,必须实施“同机房连接”。

多机房多活架构,什么是理想状态下的“同机房连接”?

如上图所示,多机房多活架构,最理想状态下,除了异步数据同步跨机房通讯,其他所有通讯均为“同机房连接”:

(1)web连业务服务;

(2)业务服务连基础服务;

(3)服务连数据库,主库写,从库读,读写分离;

上述架构,每个机房是一套独立的系统,仅仅通过异步数据同步获取全量数据,当发生机房故障时,将流量切到另一个机房,就能冗余“机房级”故障,实现高可用。

上述多机房架构存在什么问题?

“异步数据同步”存在延时(例如:1min),这个延时的存在,会使得两个机房的数据不一致,从而导致严重的业务问题。

举个例子,某一个时刻,用户X有余额100元,两个机房都存储有该余额的精准数据,接下来:

(1)余额100,X在北京(就近访问机房A)消费了80元,余额仅剩20元,该数据在1分钟后会同步到机房B;

(2)余额100,X的夫人在广州(就近访问机房B)用X的账号消费了70元,余额剩余30元,该数据在1分钟后也会同步到机房A;

从而导致:

(1)超额消费(100余额,却买了150的东西);

(2)余额异常(余额是20,还是30?);

上述架构适合于什么业务场景?

任何脱离业务的架构设计都是耍流氓。

当每个机房都有很多全局业务数据的访问场景时,上述多机房架构并不适用,会存在大量数据不一致。但当每个机房都访问局部业务数据时,上述多机房架构仍然是可行的。

典型的业务:滴滴,快狗打车。

这些业务具备数据聚集效应:

(1)下单用户在同一个城市;

(2)接单司机在同一个城市;

(3)交易订单在同一个城市;

这类业务非常适合上述多机房多活架构,多个机房之间即使存在1分钟延时的“异步数据同步”,对业务也不会造成太大的影响。

多机房多活架构,做不到理想状态下的“同机房连接”,有没有折中方案?

如果完全避免跨机房调用的理想状态做不到,就尽量做到“最小化”跨机房调用。


如上图所示,在非必须的情况下,优先连接同机房的站点与服务:

(1)站点层只连接同机房的业务服务层;

(2)业务服务层只连接同机房的基础服务层;

(3)服务层只连接同机房的“读”库;

(4)对于写库,没办法,只有跨机房读“写”库了;

该方案没有完全避免跨机房调用,但它做到了“最小化”跨机房调用,只有写请求是跨机房的。

但互联网的业务,绝大部分是读多写少的业务:

(1)百度的搜索100%是读业务;

(2)京东淘宝电商99%的浏览搜索是读业务,只有下单支付是写业务;

(3)58同城99%帖子的列表详情查看是读业务,只有发布帖子是写业务;

写业务比例相对少,只有很少请求会跨机房调用。

该多机房多活架构,并没有做到100%的“同机房连接”,通常称作伪多机房多活架构。

伪多机房多活架构,有“主机房”和“从机房”的差别。

多机房多活架构的初衷是容机房故障,该架构当出现机房故障时,可以把入口处流量切到另一个机房:

(1)如果挂掉的是,不包含主库的从机房,迁移流量后能直接容错;

(2)如果挂掉的是,包含主库的主机房,只迁移流量,系统整体99%的读请求可以容错,但1%的写请求会受到影响,此时需要将从库变为主库,才能完全容错。这个过程需要DBA介入,不需要所有业务线上游修改。

画外音:除非,站点和服务使用内网IP,而不是内网域名连接数据库。架构师之路已经强调过很多次,不要使用内网IP,一定要使用内网域名。

伪多机房多活架构,是一个实践性,落地性很强的架构,它对原有架构体系的冲击非常小,和单机房架构相比,仅仅是:

(1)跨机房主从同步数据,会多10毫秒延时;

画外音:主从同步数据,本来就会有延时。

(2)跨机房写,会多10毫秒延时;

小结:

(1)理想多机房多活架构,是纯粹的“同机房连接”,仅有异步数据同步会跨机房;

(2)理想多机房多活架构,会有较严重数据一致性问题,仅适用于具备数据聚集效应的业务场景,例如:滴滴,快狗打车;

(3)伪多机房多活架构,思路是“最小化跨机房连接”,机房区分主次,落地性强,对原有架构冲击较小,强烈推荐;

上云不停服,自顶向下的平滑机房迁移方案

当年,我们是怎么平滑上云的?》介绍了上云的背景,以及三个重要结论:

(1)单机房架构的核心是“全连接”;

(2)机房迁移方案的设计目标是:平滑迁移,不停服务;可以分批迁移;随时可以回滚;

(3)想要平滑的实施机房迁移,临时性的多机房架构不可避免;

多机房多活架构,究竟怎么玩?》说明了在机房迁移的过程中,一定有一个“多机房多活”的中间状态:

(1)理想多机房多活架构,是纯粹的“同机房连接”,仅有异步数据同步会跨机房;

(2)理想多机房多活架构,会有较严重数据一致性问题,仅适用于具备数据聚集效应的业务场景,例如:滴滴,快狗打车;

(3)伪多机房多活架构,思路是“最小化跨机房连接”,机房区分主次,落地性强,对原有架构冲击较小,强烈推荐;

多机房多活,只是平滑上云的一个中间状态,那上云的步骤究竟是怎么样的呢?

【5】核心问题五,如何分批平滑上云?

如上图,系统分层架构包含:web,业务服务,基础服务,缓存,数据库,它们都需要进行迁移。

大的方向,有两种方案:

(1)自底向上的迁移方案,从数据库开始迁移;

(2)自顶向下的迁移方案,从web开始迁移;

这两种方案我分别在58同城和58到家实践过,都是平滑的,蚂蚁搬家式的,随时可回滚,对业务无任何影响的,本文重点介绍“自顶向下”的方案。

画外音:14-15年58同城“逐日”项目,2000台物理机平滑迁移至天津机房,我是当时项目总架构师。

一、站点与服务迁移:无状态,迁移容易

站点和服务无状态,迁移起来并不困难。


步骤一,前置条件:

(1)新机房准备就绪;

(2)专线准备就绪;

步骤二,在新机房搭建好待迁移的子业务,部署好web站点,业务服务,基础服务,做好充分的测试。

这里要重点说明的是:

(1)垂直拆分迁移,每次迁移的范围不要太大,划分好子业务和子系统;

(2)缓存和数据库还未迁移,存在跨机房连接;

(3)新机房的配置文件注意“同连”,不要跨机房调用业务服务与基础服务;

画外音,只要不切流量:

(1)依然老机房提供服务;

(2)新机房随便玩;

步骤三,灰度切流量,将被迁移的子业务切5%的流量到新机房,观察新机房的站点与服务是否异常。如果没有问题,再10%,20%,50%,100%的逐步放量,直至某个子业务迁移完成。

第一个子业务的站点和服务迁移完之后,第二个子业务、第三个子业务,蚂蚁继续搬家,直至所有的业务把站点和服务都全流量的迁移到新机房。

如何应对异常?

在迁移过程中,任何一个子业务,任何时间发生异常,可以将流量切回旧机房。旧机房的站点、服务、配置都没有改动,依然能提供服务。

这是一个非常稳的迁移方案。

二、缓存迁移:有状态,但数据可重建

站点和服务迁移完之后,接下来再迁缓存。

经过第一步的迁移,如上图:

(1)所有的入口流量都已经迁到了新的机房;

(2)缓存和数据库,仍然使用旧机房;

画外音:旧机房的站点和服务不能停,只要旧机房不停,就保留了切回流量回滚的可能性。

步骤四,在新机房搭建好缓存,缓存的规模和体量与旧机房一样。

步骤五,按照子业务垂直逐步切换使用新机房的缓存,切换细节为:

(1)运维做一个缓存内网DNS的切换(内网域名不变,IP切到新机房);

(2)杀掉原有缓存连接,业务线不需要做任何修改,只需要配合观察服务;

(3)缓存连接池会自动重连,重连会自动连接新机房的缓存;

bingo,一个子业务缓存迁移完毕。

这里要注意几个点:

(1)如果没有使用内网域名,而是采用IP直连缓存,则需要业务层配合,换新机房IP重启;

画外音:说过无数次,一定要使用内网域名。

(2)缓存迁移时间,尽量选在流量低峰期,新缓存是空数据,如果选在流量高峰期,短时间内可能会有大量请求透传到数据库上;

(3)对于同一个服务,缓存的切换时瞬时的,不会同时使用新旧机房的缓存;

画外音:否则容易出现一致性问题。

缓存的迁移也是按照子业务,垂直拆分,蚂蚁搬家式迁移的。整个迁移过程除了运维操作切内网域名,研发和测试都只是配合观察服务,风险非常低。

缓存允许cache miss,不用转移旧缓存内的数据,所以迁移方案比较简单。

三、数据库迁移:有状态,数据也要迁移

站点层,服务层,缓存层都迁移完之后,最后是数据库的迁移。


在迁移数据库之前,服务通过专线跨机房连数据库。

如何进行数据库迁移呢?

步骤六,先在新机房搭建新的数据库。

画外音:自建机房,需要自己搭建新的MySQL实例;到家直接使用阿里云的RDS。

步骤七,数据同步。自建机房可以使用数据库MM/MS架构同步数据,阿里云可以使用DTS同步数据。

画外音:DTS同步有一个大坑,只能通过公网同步非RDS的数据,至少在16年是这样,不知道现在产品升级了没有。

数据库同步完之后,如何进行数据源切换呢?

能不能像缓存的迁移一样,运维修改一个数据库内网DNS指向,然后切断数据库连接,让服务重连新的数据库呢?这样的话,业务服务不需要改动,也不需要重启。

这个方式看上去很不错,但是:

(1)一定得保证数据库同步完成,才能切流量,但数据同步总是有迟延的,旧机房一直在不停的写如数据,何时才算同步完成?

(2)只有域名和端口不发生变化,才能不修改配置完成切换,但如果域名和端口(主要是端口)发生变化,是做不到不修改配置和重启的。举个例子,假设原有数据库实例端口用了5858,而阿里云要求你使用3200,就必须改端口重启。

步骤八,最终的方案是,DBA在旧机房的数据库设置一个ReadOnly,停止数据的写入,在秒级别,RDS同步完成之后,服务修改数据库端口,重启连接新机房的数据库,完成数据层的切换。

这个过程中,为了保证数据的一致性,会损失秒级别的写入可用性。


经过上述站点、服务、缓存、数据库的迁移,平滑的蚂蚁搬家式上云目标就这么完成啦。

画外音:几百台机器,几千个集群,耗时一个季度。

自顶向下的机房迁移方案总结

一、先迁移站点层、业务服务层和基础服务层

(1)准备新机房与专线;

(2)搭建集群,充分测试,子业务垂直拆分迁移;

(3)灰度切流量;

二、缓存层迁移

(4)搭建新缓存;

(5)运维修改缓存内网DNS,切断旧缓存连接,重连新缓存(这一步很骚),切流量;

三、数据库迁移

(6)搭建新数据库;

(7)同步数据;

(8)旧库ReadOnly,同步完成后(秒级),服务指向新库,改配置重启,切流量;

以上8大步骤,整个过程分批迁移,一个子业务一个子业务的迁移,一块缓存一块缓存的迁移,一个数据库一个数据库的迁移,任何步骤出现问题都可以回滚的,整个过程不停服务。 

思路比结论重要。

原文地址:https://www.cnblogs.com/xuwc/p/13429678.html