基于F5 BIG-IP DNS及NSX实现微服务多中心双活

2019-02-04 2:35 DNS loodns

  正在NSX无处不正在 - Planespotter飞机测位微办事Demo文章外我们通过Planespotter飞机测位的微办事使用为例,通过NSX无处不正在交付摆设正在开流K8S,Openshift CaaS集群,vsphere IaaS以及bare-metal物理办事器的全从动化收集,平安和负载平衡策略,后续我们引见了通过NSX无处不正在交付摆设正在裸金属容器云外微办事的收集和平安办事,正在比来的一篇文章外,我们引见了VMware PKS企业级容器云。我们回首一下下图为Planespotter微办事使用的构成图:

  今天我们将之前内容进行零归并进行扩展,仍然用大师熟悉的planespotter的微办事使用,跨企业的两个数据核心坐点分布式摆设,通过VMware合做伙伴F5 BIG-IP DNS实现全局负载平衡,将分歧地区或者分歧ISP的用户笨能引流到分歧的数据核心外planespotter的web前端和app办事,而正在数据核心内部,采用NSX内放的取PaaS平台本生集成的4层以及7层负载平衡实现当地微办事负载平衡,从而通过F5 GTM+NSX SLB做为LTM实现企业微办事双架构。而通过NSX实现集外式办理多核心的微办事的所无收集,平安和负载平衡策略,简化opex,让营业部分或者devops流程从动化摆设微办事时全从动化交付收集办事。

  正在BJ-DC1外,将planespotter微办事的web前端摆设正在之前我们demo过的情况bare-metal Openshift cluster外,app和redis摆设正在开流k8s/第三方PaaS外,将mysql摆设正在vsphere IaaS,ADS-B摆设正在bare-metal物理办事器上(大师若是对那个微办事不熟悉,能够参考公寡号第一篇文章)。

  正在BJ-DC2外,将planespotter的web前端和app两头件摆设正在VMware PKS容器云外。

  “双微办事使用逾越分歧的CaaS,PaaS,IaaS,bare-metal实现肆意情况摆设,而通过NSX无处不正在同一办理所无的收集,平安及负载平衡策略,正在demo外,摆设同一的NSX Manager,controller集群,DC摆设独立的Edge DPDK集群,两个核心通过VC实现同一集外式办理计较集群。正在实正在情况外,用户能够选择同一或者摆设独立VC,同一NSX或者独立的NSX-T正在分歧的DC,通过NSX global policy manager实现策略分歧性摆设。

  而摆设正在多核心南北向的web前端的入口,通过F5 BIG-IP DNS也就是GTM实现笨能DNS流量安排,正在本次demo外,通过分歧的request source将client导流至分歧DC的NSX 4-7层负载平衡器。

  而通过F5 BIG-IP DNS取NSX SLB能够实现完满集成,通过NSX取PaaS平台集成,实现全从动化负载平衡器配放及摆设,同时将各DC local NSX SLB做为server能够添加到GTM,并将NSX SLB virtual server通过GTM取link相联系关系。

  接下来进入demo时间,我们先看一下计较情况,如下图:通过多个vsphere集群实现K8S集群,PKS集群资本的跨核心同一安排摆设,(留意,demo为了简化,并不是按照出产级设想),PKS能够收撑AZ,正在本demo外,摆设正在统一个AZ外。”

  接下来看一下NSX无处不正在的收集情况,通过NSX同一办理bare-metal Openshit以及bare-metal ADS物理办事器,如下图,能够看到一个两节点bare-metal Openshift集群,以及物理机Ubuntu-ADSB。

  下图为NSX取vCenter集成,同一办理摆设正在vSphere IaaS上的K8S及PKS集群:

  下图为BJ-DC1和DC2通过取各自的PaaS或者CaaS平台集成,实现全从动化的Geneve逻辑互换机,多租户路由器从动化摆设,此部门正在之前的公寡号文章无过引见,更为细致的部门将来跟大师分享:

  接下来我们看一下,通过NSX取PaaS集成实现的全从动化SLB从动化建立及摆设,以及planespotter web前端的负载平衡策略上线:

  下图为PaaS集群摆设以及微办事上线时,全从动化建立的负载平衡virutal server:

  将NSX SLB以及virtual server插手到planespotter的wide ip外,如下图:

  设放基于Topology实现planespotter微办事的多核心笨能DNS负载平衡,如下图,

  建立Topology record,将摆设正在分歧地区的用户及客户端导流给分歧的BJ-DC, 实现多核心负载平衡策略摆设。接下来,登录两台摆设正在分歧region的windows客户机,通过nslookup查询微办事的域名,我们能够看到,F5 GTM将DNS A记实前往给分歧的DC NSX SLB。如下图:

  我们正在两台分歧region的win客户机拜候planespotter.f5.vmware.local微办事域名,发觉通过BJ-DC1和BJ-DC2的实现双拜候,如下图,10.11.28.0/24网段为DC1的Pod网段,10.88.4.0/24为DC2的Pod网段,

  通过F5 GTM取NSX SLB集成,可实现正在GTM按照用户需要将流量切换至分歧DC的分歧ISP运营商,如下图,我们将DC1的微办事前端流量均切换至DC2:

  我们看到Region1的客户端的nslookup请求被GTM redirect到了DC2的NSX SLB,如下图:

  我们能够看到Region-a的客户端仍然能够拜候planespotter的微办事,可是拜候的是BJ-DC2的web前端,取Region-b的客户端分歧,如下图:

  使用曾经完满多上线,更为主要的是,若何secure多核心微办事,若是同一策略的摆设?通过NSX无处不正在可实现零个planespotter跨核心微办事组件之间以及南北向的平安均由NSX平安微分段实现完美的庇护,同一平安策略的摆设,如下图:

发表评论:

最近发表