usdt支付接口(www.caibao.it):最佳实践:构建新一代智能、可靠、可调剂的大型主干网络(上)

USDT自动API接口

菜宝钱包(caibao.it)是使用TRC-20协议的Usdt第三方支付平台,Usdt收款平台、Usdt自动充提平台、usdt跑分平台。免费提供入金通道、Usdt钱包支付接口、Usdt自动充值接口、Usdt无需实名寄售回收。菜宝Usdt钱包一键生成Usdt钱包、一键调用API接口、一键无实名出售Usdt。

原题目:最佳实践:构建新一代智能、可靠、可调剂的大型主干网络(上)

前言

随着网络手艺的生长和云盘算营业的快速普及,当前各行各业的客户都有迫切上云的需求,越来越多的要害营业,如:web前端、视频会议、办公应用、数据存储等最先部署在云端;新的网络架构设计特别是主干网,一定要顺应云盘算和互联网应用的生长,而传统的MPLS主干网不能顺应这种转变,面临如下诸多挑战:

1、若何实现用户云下与云上、云上VPC之间、云下差别物理位置之间营业的天真开通;

2、若何行使内陆专线和最后一公里互联网线路构建夹杂组网能力;

3、若何确保要害营业的优先级和服务质量;

4、若何简化开通流程、快速部署和统一计谋治理;

5、若何提升专线带宽行使率和流量可视化;

6、若何实现新一代主干网智能、可靠、可调剂。

本文将连系UCloud基础网络团队新一代主干网的架构演进历程,先容Segment Routing手艺在UCloud主干网的落地细节,并详细论述当前主干网若何通过SR-TE手艺实现智能、可靠、可调剂的新一代主干网架构。

DCN网络快速迭代

UCloud数据中心基础架构网络(以下简称DCN)在最近这几年履历了野蛮式的快速生长阶段,从北上广三地的数个可用区生长到全球25个地域31个可用区;营业云化和分布式数据中心的建设,推动了城域网(以下简称MAN)和主干网计划建设,如下图所示:

DCN网络迭代历程如下:

1、同城单可用区升级至同城多可用区;

2、单Region多可用区升级至多Region多可用区。

DCN网络快速迭代带来的网络挑战:

1、MAN网络高带宽与可靠性要求:同城分布式DCN网络建设带来的问题是:客户营业扁平化部署,导致同城跨可用区有大量的东西向营业互访流量,对MAN网络的带宽和可靠性有严酷的要求。

2、主干网架构升级与流量工程要求:随着UCloud全球节点DCN网络的建设部署,跨地域客户最先有营业互访和跨域流量优化需求,对主干网计划和流量工程提出了新的要求。

全球专线资源结构

当前UCloud全球CDN节点有500 ,25个地域,31个可用区;通过运营商专线买通全球25个地域,如下图所示:

1、全球机房专线接入主干网

主干网依托UCloud全球DCN网络以及专线资源,可为用户提供全球局限的就近接入,实现端到端网络稳固,解决跨域营业互访丢包和高延迟问题。

2、全球节点天真组网

为用户提供基于内陆专线和最后一公里互联网接入,实现用户的夹杂组网能力。

3、提供稳固、可靠的基础架构

点到点专线资源提供物理层的带环珍爱,一方面通过SR-TE手艺实现流级别调剂和快速容灾备份能力;另一方面基础网络提供一张1:1基于Internet级的备份主干网,保证整个主干网到达99.99%可用率。

UCloud主干网架构演进历史

012018年之前主干网架构

UCloud基础网络团队在2016年下半年最先计划第一代主干网(以下简称主干网1.0),2017年底完成了主干网1.0设计计划,主干网1.0架构计划专线资源接入到各Region的MAN网络焦点装备(以下简称M-Core),各Region的M-Core之间通过供应商二层专线举行全球组网;M-Core之间运行ISIS协议,买通全球主干网ISIS域,每个地域双M-Core或者四M-Core和控制面RR确立IBGP邻人关系,M-Core通过IBGP协议将内陆域DCN网络路由信息通告至RR,RR反射给全球所有M-Core节点;数据转发面通过IBGP路由举行迭代,最终通过ISIS转发至目的DCN网络。为优化主干网流量转发,在要害装备上开启如下功效:

1、为实现主干网等价路由(以下简称ECMP),必须在M-Core和RR上开启BGP ADD-PATH属性;

2、为保证IGP最短路径转发,跨域之间ISIS 开销值设置为两地域直连专线现实延迟*100,如:北京-上海专线延迟为30ms,那么北京-上海地域的ISIS开销设置为3000。

主干网1.0设计目的:

1、实现Region级别DCN网络互通,提供云营业跨地域容灾能力;

2、支持云上用户通过UCloud高速通道产物UDPN买通跨域VPC资源。

主干网1.0新挑战:

1、MAN网络与主干网高度耦合,专线开通设置庞大,增添运维难度;

2、不支持客户差别物理位置之间资源互通;云下资源到云上VPC之间资源开通庞大、周期冗长;

3、不支持跨地域级别的流量智能调剂。

022020年之前主干网架构

针对主干网1.0所面临的一些问题,2018年UCloud基础网络团队设计计划了第二代主干网(下简称主干网2.0)。在主干网2.0中,我们新增了租户隔离的特征,而要在主干网上实现大规模的租户隔离,MPLS-VPN手艺最合适不外,但由于考虑到整体的部署成本以及部署难度,我们最终放弃了这个方案,借鉴了DCN网络的租户隔离思绪,接纳VXLAN二层网关方案来实现;

主干网2.0整体架构分为两层,Underlay和Overlay;Underlay使用VXLAN BGP EVPN实现网络大二层,在Overlay上实现主干网1.0的架构需求;详细实现如下:

Underlay层计划

1、Underlay层主要由两种装备组成:TBR和TER。TBR用于运营商二层专线资源接入,主要用于数据转发,TER用于封装VXLAN报文,即VTEP装备。全球节点的TBR和TER装备通过VXLAN BGP EVPN手艺组建一张全球二层网络,这张二层网络提供全球随便跨域节点之间二层营业开通。

2、TBR装备通过ISIS协议买通整个IGP域,TER和控制面TRR确立BGP EVPN邻人关系,各个站点互相学习MAC/IP路由;转发面数据通过VXLAN封装转发,控制面信息通过EVPN学习同步。

3、用户线下IDC营业互访,以及线下IDC到云上营业之间通过VXLAN开通二层营业。

Overlay层计划

跨域M-Core直连通过VXLAN开通,M-Core之间运行ISIS协议,买通全球主干网ISIS域,每个地域双M-Core或者四M-Core和控制面RR确立IBGP邻人关系,M-Core通过IBGP协议将内陆域DCN网络路由通告至RR,RR反射给全球所有M-Core节点,数据转发面通过IBGP路由举行迭代,最终通过ISIS转发至目的DCN网络。

主干网2.0设计目的:

1、实现MAN网络和主干网严酷分层,提升运维效率;

2、通过VXLAN BGP EVPN构建营业接入网,实现营业天真就近上主干;

3、实现客户云下差别物理位置、云下到云上之间资源快速开通。

主干网2.0新挑战:

1、不支持主干网流量智能调剂;

2、内陆接入只支持专线接入,组网方式不够天真,增添网络运营成本;

3、VXLAN包头开销过大,网络传输效率低下,专线结算成本上升;

,

Usdt第三方支付平台

菜宝钱包(caibao.it)是使用TRC-20协议的Usdt第三方支付平台,Usdt收款平台、Usdt自动充提平台、usdt跑分平台。免费提供入金通道、Usdt钱包支付接口、Usdt自动充值接口、Usdt无需实名寄售回收。菜宝Usdt钱包一键生成Usdt钱包、一键调用API接口、一键无实名出售Usdt。

,

4、不支持L3VPN客户接入场景。

为了解决主干网2.0当前的问题,UCloud基础网络团队在2019年下半年最先,对新一代主干网架构举行重新设计、硬件选型,在新一代主干网架构设计中接纳了当前对照盛行的源路由即Segment Routing手艺(以下简称SR),在先容新一代主干网架构之前先给人人简朴先容一下SR手艺的基本观点。

Segment Routing基本观点

01Segment Routing

SR架构基于源路由,节点(路由器、主机或装备)选择路径,并指导数据包沿着该路径通过网络,详细实现方式是在数据报头中插入带顺序的段列表(Segment-list),通过Segment-list指示收到这些数据包的节点怎么去处置和转发这些数据包。

由于源节点(头端节点)通过在数据包报文头中添加适当的指令(Segment-list)即可实现基于目的地址的引流(甚至可以基于单条流粒度的引流),且除了头端节点之外,其它节点都不需要存储和维护任何流状态信息,因此引流的决定权都在头端节点。通过这种方式SR可以在IP和MPLS网络中提供高级的流量指导能力。

02常用标签类型

Prefix-SID

Prefix-SID是由ISIS或者OSPF通告的全局Segment,此Segment与IGP的前缀相关;Prefix-SID代表一个路由指令,寄义是:指导流量沿着支持ECMP的最短路径去往该Segment相关联的前缀。Prefix-SID具有如下特征:

-全局Segment,SR域中的所有节点都知道若何处置Prefix-SID。

-支持多跳,单个Segment跨越路径中的多跳,这样就削减了路径所需要的Segment数目,并允许跨多跳的等价路径。

-支持ECMP,可以原生行使IGP的等价路径。

-Prefix-SID一样平常是通过手工分配,也可使用控制器分配。

Node-SID

Node-SID是一种特殊类型的IGP Prefix Segment,是Prefix Segment的子类型,通常是某个节点环回口的32位前缀地址,这个地址一样平常是IGP的“路由器ID”;Node-SID指令是:指导流量沿着支持ECMP的最短路径去往该Segment相关联的前缀。其和Prefix Segment的指令是一致的。

Adjacency-SID

Adjacency-SID是与单向毗邻或者单向毗邻聚集相关联的Segment,使用Adj-SID转发的流量将被指导至指定链路,而不管最短路径路由若何,一样平常情况下节点会通告它的本节点链路Segment(Adj-SID);Adjacency-SID指令是:“指导流量从与该Segment相关联的毗邻链路转发出去”。Adjacency-SID具有如下特征:

-内陆Segment,SR域中的只有Adjacency-SID始发节点知道若何处置该Segment。

-支持显式路径,任何路径都可以使用Adjacency-SID来示意。

-不依赖于IGP的动态路由盘算,可以绕过ECMP,走治理员指定的路径转发。

现实部署中应只管少用Adj-SID,由于其不支持ECMP,且会增添Segment-list长度,因此建议多使用Prefix-SID,即支持ECMP,又可以削减Segment-list长度。

Anycast-SID

SR域中多个节点上设置相同的单播前缀,那么该单播前缀就是一个Anycast-SID,Anycast-SID也是Prefix-SID的一个子类型。Anycast聚集的属性是去往Anycast地址的流量被路由到Anycast聚集中距离最近(IGP 最短距离)的谁人成员,若是开销相同,则流量会举行ECMP,若是Anycast的成员发生故障,则由Anycast聚集的其它成员来处置去往Anycast-SID的流量;Anycast-SID指令是:指导流量沿着支持ECMP的最短路径去往该Segment相关联的前缀。其和Prefix Segment的指令是一致的。

Anycast-SID具有如下特征:

-全局Segment

-天生支持ECMP

-支持高可用性

-支持流量工程

注重:所有节点必须设置相同的SRGB,才可以通告相同的Anycast Prefix-SID。

03SR Policy特征

SR-Policy

为了解决传统隧道接口系统存在的问题, SR Policy 完全甩掉了隧道接口的观点,SR Policy 通过Segment 列表来实现流量工程;Segment 列表对数据包在网络中的随便转发路径举行编码。列表中的 Segment 可以是任何类型:IGP Segment 、 IGP Flex-Algo Segment(天真算法) 、BGP Segment 等。

从本质上讲,SR Policy(SR-TE)是 Segment 列表,不是隧道接口。

SR Policy 由以下三元组标识:

头端(Headend):SR Policy 天生/实现的地方。

颜色(Color):随便的 32 位数值,用于区分统一头端和端点对之间的多条 SR Policy。

端点(Endpoint):SR Policy 的终结点,是一个 IPv4/IPv6 地址。

颜色是 SR Policy 的主要属性,通常代表意图,示意到达端点的特定方式(例如低延迟、低成本并清扫特定属性链路等),Color也是流量引流的主要参考属性。

SR Policy天生的路径一样平常有两种:显式路径和动态路径

1、显式路径

显式路径一样平常是通过CLI/Netconf方式人工计划或者通过控制器方式下发的路径信息,主要包罗信息有 endpoint地址、Color、Segment-List等;显式路径的最大坏处是无法实时响应网络拓扑转变;为了能保证故障场景下SR Policy能够快速收敛,可以通过验证头端的SR-TE数据来举行收敛。

建议Segment-List使用描述符(IP)形式编写,头端默认会验证所有描述符;

一旦SR Policy候选路径不具有有用的Segment列表(描述符验证失败),则此候选路径变为无效;当SR Policy 所有候选路径都是无效的,则此SR-Policy无效。

若是SR Policy变为无效,则应用会失效;默认情况下SR Policy的转发条目被删除,流量回退到默认转发(SR-BE)路径。

2、动态路径

动态路径是由头端(路由器)或者PCEP凭据头端的请求自动盘算SR Policy候选路径:

动态路径主要示意为优化目的和一组约束条件,这两个因素指定了SR-TE的意图。头端可以通过内陆的SR-TE数据库算出路径,提供一个Segment列表或者一组Segment列表。当头端不具备足够的拓扑信息时(跨域环境),头端可以将盘算委托给控制器,由控制器自动算路。当网络发生改变时,动态路径会自动举行重算以顺应网络转变。

04SR Policy自动引流

SR Policy引流支持域内场景和跨域场景,整体的转发流程如下:

着色:出口PE在向入口PE通告BGP营业路由时,或者入口PE吸收路由时对路由举行着色(符号路由Color),Color用于示意路由所需要的SLA。盘算 引流:域内场景下,头端节点收到BGP路由后,通过头端SR-TE数据库自动算路完成引流;跨域场景下,头端向控制器发送有状态的PCEP路径盘算请求,控制器盘算去往远端端点的SR-TE跨域路径。转发:数据包在头端完成引流,使用头端盘算或者控制器下发的路径举行标签转发。

将 BGP 路由安装到 SR Policy 的动作称为自动引流,其原理主要是通过对BGP营业路由举行着色,将流量自动指导至 SR Policy;SR Policy的自动引流不需要庞大和繁琐的引流设置,而且流量指导对转发性能没有影响,流量控制粒度更为精致。

SR/SR-TE or LDP/RSVP-TE ?

UCloud基础网络团队在新一代主干网设计中转发面统一使用MPLS封装转发,而控制面的选择经由慎重考虑,我们详细对比了SR/SR-TE和LDP/RSVP-TE后,最终选择了SR/SR-TE,详细分析情况如下:

总结

本篇分享了数据中心野蛮式增进给MAN网络和主干网带来的极大挑战,以及SR部门手艺原理。在已往几年里,UCloud基础网络团队不停演进主干网架构,从主干网1.0升级到主干网2.0架构,实现了用户云下资源之间、云下到云上资源的快速开通,但依然知足不了当前互联网客户的营业快速生长需求,例如:不支持智能流量调剂、无法实现客户L3VPN接入需求,不支持最后一公里Internet线路接入等。

下一篇将重点先容UCloud若何连系Segment Routing手艺实现智能、可靠、可调剂的新一代主干网,助力用户分钟级构建多地域全球网络以及同城多可用区互访、多Region多可用区互联,实现UCloud与用户线上线下IDC无距离互通,升化云网协同。

发表评论
sunbet声明:该文看法仅代表作者自己,与本平台无关。请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片

您可能还会对下面的文章感兴趣: