异地多活设计有哪些常见的难点和技巧?

  • 时间:
  • 浏览:5
  • 来源:uu快3官方网站_uu快3苹果版_走势

gamesdoa qq克隆好友 链接去分享

ciar qq克隆好友 链接去分享

亲戚朋友儿是做交易网站的,商品的库存这帕累托图感觉做异地多活好像很难做,否有有那些方案来实现此类强一致性业务的异地多活方案?

f5005285003 qq克隆好友 链接去分享

虾米VIP季卡 x 1

1924229858864781 已获得聆听专属T恤衫 qq克隆好友 链接去分享

龙吟风 已获得淘公仔 qq克隆好友 链接去分享

初码 已获得聆听专属T恤衫 qq克隆好友 链接去分享

我的理解,余额等强一致性的场景,异地多活不现实,支付宝和银行都应该是另一一两个核心主库吧,主一点在数据库上做文章。

库存等展示型场景的异地多活,主要靠缓存和同步机制,也没必要做5000%一致,可能再用一点云服务,比如大内网,再比如微软的SQL Azure等,又比如CDN的使用等等,这完后 多做一点Web节点就时需

着实云服务真的挺好,补救了一点采集上的的技术投入产出传输波特率低下疑问

易宝支付 qq克隆好友 链接去分享

大利猫 qq克隆好友 链接去分享

可能要做异地多活,各自 认为应该首先实现应用的本地闭环,在此基础上做远程数据备份,针对强一致性的需求,时需远程备份完后 才算事务成功,从前还还可以实现强一致性需求下的异地多活。当然在非强一致性的状态下时需本占据 理完后 ,由另外tcp连接跑备份数据。针对差异时间内另外机房读取数据时需使用二次请求补救。

对于第三方支付公司而言,可能异地多活能自定义规则来实现自动报警,在任何完后 能实现无感知的自动切换,保证交易不受影响……那一点完美了!保证支付宝光缆事件不再占据

聆听专属T恤衫 x 3

fytx qq克隆好友 链接去分享

难点在于亲戚朋友儿的业务还那末达到一点需求。

1277076156971513 已获得淘公仔 qq克隆好友 链接去分享

你的业务否有都会 相似的异地多活的需求和困惑?如可还还可以设计优秀的异地多活方案?有那些技巧 ?来吧,咱们同時 聊聊 :)

我的理解,余额等强一致性的场景,异地多活不现实,支付宝和银行都应该是另一一两个核心主库吧,主一点在数据库上做文章。

库存等展示型场景的异地多活,主要靠缓存和同步机制,也没必要做5000%一致,可能再用一点云服务,比如大内网,再比如微软的SQL Azure等,又比如CDN的使用等等,这完后 多做一点Web节点就时需

着实云服务真的挺好,补救了一点采集上的的技术投入产出传输波特率低下疑问

wanl 已获得淘公仔 qq克隆好友 链接去分享

据说某大公司数据都备份到卫星上去了^_^

对于一点秒杀商品,占据 对库存做多机房分布的状态,也一点会按照商品id分布在不同机房进行秒杀。在占据 某另一一两个机房不可用时,这时不可用机房的数据可能还没全版同步到一点机房,这时如可么会时需让一点机房来安全接替(太久再再次出现数据冲突)垮掉机房的业务呢?

异地多活着实听起来很美好,但在设计上却有一点的挑战,一点人都会着实“异地多活”的方案设计很难,业务、网络、数据、事务等各种疑问混杂在同時 ,一点疑问看似是无法补救的。比如说:“网络断了如可么会保证数据一致性”、“如可么会保证异地事务一致性”、“业务如可么会无缝的在多个地点切换”。。。。。。等等。

我做淘宝客,加上库存时多活有延迟

1322176414175511 qq克隆好友 链接去分享

还是应该在cap中的c上做文章,采用最终一致性方案来补救疑问。时需采取不同地区分中心的办法,在中心间网络再次出现故障时,每个分中心还还可以独立运行,网络恢复时相互同步数据。在数据设计层面,对于唯一id的生成,时需支持分布式方案,补救脑裂。在应用层面,服务应该时需有限降级,不同重要程度服务分别对待,一点服务时需在应急时失效。

我这边做的教育系统异地多活。按照地域分配访问到不同机房。每个机房的部署架构一致,多机房数据库互为主从,保证最终一致性,允许数据同步延迟,可能用户太久再从另一一两个地域瞬间移动到从前的地域,他看了的始终是实时的数据。同步数据占据 id冲突的疑问,通过id生成器配置每个机房的id范围补救。异地多活补救的容灾,就近访问疑问。一点事务要求强一致性要特殊考虑

evanchn qq克隆好友 链接去分享

异地降低成本提高复用率的未来在哪里?

spdia qq克隆好友 链接去分享

异地多活,最大的难点在于数据层

支付宝有那末异地多活?杭州地区的光纤一挖断,整个付进 地区都无法使用了。一点状态也都会 第一次了。

网络断了如可么会保证数据一致性?业务如可么会无缝的在多个地点切换?以及切换的实效

业务的可用性对用户的体验至关重要,可能业务总爱 动不动就不可用,再好的业务都会那末用,异地多活正是保障业务即使在各种极端异常状态下都可用的利器,相似机房断电、地震、城市水灾、蓝翔挖掘机挖断光纤等。

异地多活方案面临另一一两个无法彻底补救的矛盾:业务上要求数据的快速同步,物理上正好做那末数据快速同步,而且 所有数据都实时同步,实际上是另一一两个无法达到的目标。

周庭旺 已获得淘公仔 qq克隆好友 链接去分享

11648271882105006 已获得虾米VIP季卡 qq克隆好友 链接去分享

多种网络通信,如传统蜘蛛网络,加上还在实验的卫星 量子通信

多地异地同步多种办法结合

前几天才再次出现的,集装箱核电站的应用

秒杀商品占据 对库存做多机房分布的状态,也一点会按照商品id分布在不同机房进行秒杀。在占据 某另一一两个机房不可用时,这时不可用机房的数据可能还没全版同步到一点机房,这时如可么会时需让一点机房来安全接替(太久再再次出现数据冲突)垮掉机房的业务呢?

亲戚朋友儿是做证券交易的,亲戚朋友儿的方案是先异地部署多个交易中心,有各自 独立的数据库,而且 将用户划分到不同的交易中心,并将用户请求路由到对应的交易中心,从前就实现了交易中心异地多活。交易中心有某种支持异地异步数据qq克隆好友 。

从前在某地区机房瘫痪时,受影响的交易中心那末未来得及qq克隆好友 的数据帕累托图会有影响(丢失),剩下交由业务层去判断和补救故障。

一点办法那末够全版补救好故障,那末尽量减少故障影响到的用户,主一点可能是交易系统,亲戚朋友儿时需兼顾性能,亲戚朋友儿也头疼找那末另一一两个比较完美的方案。

痞子不俗 已获得聆听专属T恤衫 qq克隆好友 链接去分享

淘公仔 x 4

idealities qq克隆好友 链接去分享

1903251745277812 qq克隆好友 链接去分享

各自 见解:数据,网路和应用都达到双活和多活才算真正意义上的有效的架构。现实中很难很难,宣传的很美,实际好多坑!分布式双活数据中心的建设是另一一两个多样化的系统工程,它不仅仅要求网络系统双活,更是涉及到服务器系统、数据库系统和存储系统,甚至和客户的具体应用也是息息相关。上层应用通过大二层网络对外提供服务的通道对底层数据进行有效读写,时需实现可靠的负载均衡,真的很难了!数据中心间的网络延迟那末高于几毫秒,而且 强一致性很难实现。根据业务要求划分有效的故障域是个不错的选着,数据的一致性时需分阶段分区域进行。

liwit qq克隆好友 链接去分享