0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何搭建高可用集群

jf_ro2CN3Fa ? 來源:芋道源碼 ? 2023-05-25 11:03 ? 次閱讀

1、前言

2、為什么需要注冊中心

3、如何實現(xiàn)一個注冊中心?

4、如何解決負載均衡的問題?

5、注冊中心如何選型?

1、Zookeeper

2、Eureka

3、Nacos

4、Consul

5、Kubernetes

6、總結(jié)

1、高可用

2、關(guān)于CP還是AP的選擇

3、技術(shù)體系

4、產(chǎn)品的活躍度

29341522-fa4f-11ed-90ce-dac502259ad0.jpg

1、前言

微服務(wù)的注冊中心目前主流的有以下五種:

Zookeeper

Eureka

Consul

Nacos

Kubernetes

那么實際開發(fā)中到底如何選擇呢?這是一個值得深入研究的事情,別著急,今天陳某就帶大家深入了解一下這五種注冊中心以及如何選型的問題。

基于 Spring Boot + MyBatis Plus + Vue & Element 實現(xiàn)的后臺管理系統(tǒng) + 用戶小程序,支持 RBAC 動態(tài)權(quán)限、多租戶、數(shù)據(jù)權(quán)限、工作流、三方登錄、支付、短信、商城等功能

項目地址:https://github.com/YunaiV/ruoyi-vue-pro

視頻教程:https://doc.iocoder.cn/video/

2、為什么需要注冊中心?

隨著單體應(yīng)用拆分,首當面臨的第一份挑戰(zhàn)就是服務(wù)實例的數(shù)量較多,并且服務(wù)自身對外暴露的訪問地址也具有動態(tài)性??赡芤驗榉?wù)擴容、服務(wù)的失敗和更新等因素,導(dǎo)致服務(wù)實例的運行時狀態(tài)經(jīng)常變化,如下圖:

29440202-fa4f-11ed-90ce-dac502259ad0.png

商品詳情需要調(diào)用營銷 、訂單庫存 三個服務(wù),存在問題有:

營銷、訂單、庫存這三個服務(wù)的地址都可能動態(tài)的發(fā)生改變,單存只使用配置的形式需要頻繁的變更,如果是寫到配置文件里面還需要重啟系統(tǒng) ,這對生產(chǎn)來說太不友好了;

服務(wù)是集群部署的形式調(diào)用方負載均衡如何去實現(xiàn);

解決第一個問題辦法就是用我們用偉人說過一句話,沒有什么是加一個中間層解決不了的 ,這個中間層就是我們的注冊中心。

解決第二問題就是關(guān)于負載均衡的實現(xiàn),這個需要結(jié)合我們中間層老大哥來實現(xiàn)。

基于 Spring Cloud Alibaba + Gateway + Nacos + RocketMQ + Vue & Element 實現(xiàn)的后臺管理系統(tǒng) + 用戶小程序,支持 RBAC 動態(tài)權(quán)限、多租戶、數(shù)據(jù)權(quán)限、工作流、三方登錄、支付、短信、商城等功能

項目地址:https://github.com/YunaiV/yudao-cloud

視頻教程:https://doc.iocoder.cn/video/

3、如何實現(xiàn)一個注冊中心?

對于如何實現(xiàn)注冊中心這個問題,首先將服務(wù)之間是如何交互的模型抽象出來,我們結(jié)合實際的案例來說明這個問題,以商品服務(wù)為例:

當我們搜索商品的時候商品服務(wù)就是提供者;

當我們查詢商品詳情的時候即服務(wù)的提供者又是服務(wù)的消費者,消費是訂單、庫存等服務(wù);由此我們需要引入的三個角色就是:中間層(注冊中心)、生產(chǎn)者、消費者,如下圖:

29520514-fa4f-11ed-90ce-dac502259ad0.png整體的執(zhí)行流程如下:

在服務(wù)啟動時,服務(wù)提供者通過內(nèi)部的注冊中心客戶端應(yīng)用自動將自身服務(wù)注冊到注冊中心,包含主機地址、服務(wù)名稱等等信息

在服務(wù)啟動或者發(fā)生變更的時候,服務(wù)消費者的注冊中心客戶端程序則可以從注冊中心中獲取那些已經(jīng)注冊的服務(wù)實例信息或者移除已下線的服務(wù);

上圖還多一個設(shè)計緩存本地路由,緩存本地路由是為了提高服務(wù)路由的效率容錯性 ,服務(wù)消費者可以配備緩存機制以加速服務(wù)路由。更重要的是,當服務(wù)注冊中心不可用時,服務(wù)消費者可以利用本地緩存路由實現(xiàn)對現(xiàn)有服務(wù)的可靠調(diào)用。

在整個執(zhí)行的過程中,其中有點有一點是比較難的,就是服務(wù)消費者如何及時知道服務(wù)的生產(chǎn)者如何及時變更的,這個問題也是經(jīng)典的生產(chǎn)者消費者的問題,解決的方式有兩種:

發(fā)布-訂閱模式 :服務(wù)消費者能夠?qū)崟r監(jiān)控服務(wù)更新狀態(tài),通常采用監(jiān)聽器以及回調(diào)機制,經(jīng)典的案例就是Zookeeper ;29633d34-fa4f-11ed-90ce-dac502259ad0.png

主動拉取策略 :服務(wù)的消費者定期調(diào)用注冊中心提供的服務(wù)獲取接口獲取最新的服務(wù)列表并更新本地緩存,經(jīng)典案例就是Eureka2989d606-fa4f-11ed-90ce-dac502259ad0.png

對于如何選擇這兩種方式,其實還有一個數(shù)據(jù)一致性 問題可以聊聊,比如選擇定時器肯定就拋棄了一致性,最求的是最終一致,這里就不深入展開了,另外你可能還會說服務(wù)的移除等等這些功能都沒介紹,在我看來那只是一個附加功能,注冊中心重點還是在于服務(wù)注冊和發(fā)現(xiàn),其他都是錦上添花罷了。29918806-fa4f-11ed-90ce-dac502259ad0.png

4、如何解決負載均衡的問題?

負載均衡的實現(xiàn)有兩種方式:

服務(wù)端的負載均衡;

客戶端的負載均衡; 對于實現(xiàn)的方案來說本質(zhì)上是差不多的,只是說承接的載體不一樣,一個是服務(wù)端,一個客戶端,如下圖:

29be2ae6-fa4f-11ed-90ce-dac502259ad0.png

服務(wù)端的負載均衡,給服務(wù)提供者更強的流量控制權(quán),但是無法滿足不同的消費者希望使用不同負載均衡策略的需求。

客戶端的負載均衡則提供了這種靈活性,并對用戶擴展提供更加友好的支持。但是客戶端負載均衡策略如果配置不當,可能會導(dǎo)致服務(wù)提供者出現(xiàn)熱點,或者壓根就拿不到任何服務(wù)提供者。

服務(wù)端負載均衡典型的代表就是Nginx ,客戶端負載均衡典型代表是Ribbon ,每種方式都有經(jīng)典的代表,我們都是可以深入學習的。

常見的負載均衡器的算法的實現(xiàn),常見的算法有以下六種 :

1、輪詢法

將請求按順序輪流地分配到后端服務(wù)器上,它均衡地對待后端的每一臺服務(wù)器,而不關(guān)心服務(wù)器實際的連接數(shù)和當前的系統(tǒng)負載。

2、隨機法

通過系統(tǒng)的隨機算法,根據(jù)后端服務(wù)器的列表大小值來隨機選取其中的一臺服務(wù)器進行訪問。由概率統(tǒng)計理論可以得知,隨著客戶端調(diào)用服務(wù)端的次數(shù)增多;其實際效果越來越接近于平均分配調(diào)用量到后端的每一臺服務(wù)器,也就是輪詢的結(jié)果。

3、哈希算法

哈希的思想是根據(jù)獲取客戶端的IP地址,通過哈希函數(shù)計算得到的一個數(shù)值,用該數(shù)值對服務(wù)器列表的大小進行取模運算,得到的結(jié)果便是客服端要訪問服務(wù)器的序號。采用源地址哈希法進行負載均衡,同一IP地址的客戶端,當后端服務(wù)器列表不變時,它每次都會映射到同一臺后端服務(wù)器進行訪問。

4、加權(quán)輪詢法

不同的后端服務(wù)器可能機器的配置和當前系統(tǒng)的負載并不相同,因此它們的抗壓能力也不相同。給配置高、負載低的機器配置更高的權(quán)重,讓其處理更多的請;而配置低、負載高的機器,給其分配較低的權(quán)重,降低其系統(tǒng)負載,加權(quán)輪詢能很好地處理這一問題,并將請求順序且按照權(quán)重分配到后端。

5.加權(quán)隨機法

與加權(quán)輪詢法一樣,加權(quán)隨機法也根據(jù)后端機器的配置,系統(tǒng)的負載分配不同的權(quán)重。不同的是,它是按照權(quán)重隨機請求后端服務(wù)器,而非順序。

6.最小連接數(shù)法

最小連接數(shù)算法比較靈活和智能,由于后端服務(wù)器的配置不盡相同,對于請求的處理有快有慢,它是根據(jù)后端服務(wù)器當前的連接情況,動態(tài)地選取其中當前 積壓連接數(shù)最少的一臺服務(wù)器來處理當前的請求,盡可能地提高后端服務(wù)的利用效率,將負責合理地分流到每一臺服務(wù)器。

5、注冊中心如何選型?

現(xiàn)在注冊中心的選擇也是五花八門,現(xiàn)階段比較流行有以下幾種:

29d8cbc6-fa4f-11ed-90ce-dac502259ad0.png

在介紹這個之前大家有些需要了解的知識有CAP 、Paxos 、Raft算法 這里我就不進行過多介紹了。開始介紹以上5種實現(xiàn)注冊中心的方式。

1、Zookeeper

這個說起來有點意思的是官方并沒有說他是一個注冊中心,但是國內(nèi)Dubbo場景下很多都是使用Zookeeper來完成了注冊中心的功能。

29f1216c-fa4f-11ed-90ce-dac502259ad0.png

當然這有很多歷史原因,這里我們就不追溯了,我還是來聊聊作為注冊中心使用的情況下,Zookeeper有哪些表現(xiàn)吧。

2a092190-fa4f-11ed-90ce-dac502259ad0.png

Zookeeper基礎(chǔ)概念

1、三種角色

Leader 角色 :一個Zookeeper集群同一時間只會有一個實際工作的Leader,它會發(fā)起并維護與各Follwer及Observer間的心跳。所有的寫操作必須要通過Leader完成再由Leader將寫操作廣播給其它服務(wù)器。

Follower角色 :一個Zookeeper集群可能同時存在多個Follower,它會響應(yīng)Leader的心跳。Follower可直接處理并返回客戶端的讀請求,同時會將寫請求轉(zhuǎn)發(fā)給Leader處理,并且負責在Leader處理寫請求時對請求進行投票。

Observer角色 :與Follower類似,但是無投票權(quán)。

2、四種節(jié)點

PERSISTENT-持久節(jié)點 :除非手動刪除,否則節(jié)點一直存在于Zookeeper上

EPHEMERAL-臨時節(jié)點 :臨時節(jié)點的生命周期與客戶端會話綁定,一旦客戶端會話失效,那么這個客戶端創(chuàng)建的所有臨時節(jié)點都會被移除。

PERSISTENT_SEQUENTIAL-持久順序節(jié)點 :基本特性同持久節(jié)點,只是增加了順序?qū)傩?,?jié)點名后邊會追加一個由父節(jié)點維護的自增整型數(shù)字。

EPHEMERAL_SEQUENTIAL-臨時順序節(jié)點 :基本特性同臨時節(jié)點,增加了順序?qū)傩裕?jié)點名后邊會追加一個由父節(jié)點維護的自增整型數(shù)字。

3、一種機制

Zookeeper的Watch機制 ,是一個輕量級的設(shè)計。因為它采用了一種推拉結(jié)合的模式。一旦服務(wù)端感知主題變了,那么只會發(fā)送一個事件類型和節(jié)點信息給關(guān)注的客戶端,而不會包括具體的變更內(nèi)容,所以事件本身是輕量級的,這就是推的部分。然后,收到變更通知的客戶端需要自己去拉變更的數(shù)據(jù),這就是拉的部分。

Zookeeper如何實現(xiàn)注冊中心?

簡單來講,Zookeeper可以充當一個服務(wù)注冊表(Service Registry),讓多個服務(wù)提供者形成一個集群,讓服務(wù)消費者通過服務(wù)注冊表獲取具體的服務(wù)訪問地址(ip+端口)去訪問具體的服務(wù)提供者。如下圖所示:

2a4d6396-fa4f-11ed-90ce-dac502259ad0.png

每當一個服務(wù)提供者部署后都要將自己的服務(wù)注冊到zookeeper的某一路徑上: /{service}/{version}/{ip:port} 。

比如我們的HelloWorldService 部署到兩臺機器,那么Zookeeper上就會創(chuàng)建兩條目錄:

/HelloWorldService/1.0.0/100.19.20.01:16888

HelloWorldService/1.0.0/100.19.20.02:16888。

這么描述有點不好理解,下圖更直觀,2a5ece2e-fa4f-11ed-90ce-dac502259ad0.png

在Zookeeper中,進行服務(wù)注冊,實際上就是在Zookeeper中創(chuàng)建了一個Znode節(jié)點,該節(jié)點存儲了該服務(wù)的IP、端口、調(diào)用方式(協(xié)議、序列化方式)等。

該節(jié)點承擔著最重要的職責,它由服務(wù)提供者(發(fā)布服務(wù)時)創(chuàng)建,以供服務(wù)消費者獲取節(jié)點中的信息,從而定位到服務(wù)提供者真正IP,發(fā)起調(diào)用。通過IP設(shè)置為臨時節(jié)點,那么該節(jié)點數(shù)據(jù)不會一直存儲在 ZooKeeper 服務(wù)器上。

當創(chuàng)建該臨時節(jié)點的客戶端會話因超時或發(fā)生異常而關(guān)閉時,該節(jié)點也相應(yīng)在 ZooKeeper 服務(wù)器上被刪除,剔除或者上線的時候會觸發(fā)Zookeeper的Watch機制,會發(fā)送消息給消費者,因此就做到消費者信息的及時更新。

Zookeeper從設(shè)計上來說的話整體遵循的CP的原則,在任何時候?qū)?Zookeeper 的訪問請求能得到一致的數(shù)據(jù)結(jié)果,同時系統(tǒng)對網(wǎng)絡(luò)分區(qū)具備容錯性,在使用 Zookeeper 獲取服務(wù)列表時,如果此時的 Zookeeper 集群中的 Leader 宕機了,該集群就要進行 Leader 的選舉,又或者 Zookeeper 集群中半數(shù)以上服務(wù)器節(jié)點不可用(例如有三個節(jié)點,如果節(jié)點一檢測到節(jié)點三掛了 ,節(jié)點二也檢測到節(jié)點三掛了,那這個節(jié)點才算是真的掛了),那么將無法處理該請求。

所以說,Zookeeper 不能保證服務(wù)可用性。

2、Eureka

Netflix我感覺應(yīng)該是在醞釀更好的東西的,下面我們重點還是來介紹Ereka 1.x相關(guān)的設(shè)計。

2a774a6c-fa4f-11ed-90ce-dac502259ad0.png

Eureka由兩個組件組成:Eureka服務(wù)端Eureka客戶端 。Eureka服務(wù)器用作服務(wù)注冊服務(wù)器。Eureka客戶端是一個java客戶端,用來簡化與服務(wù)器的交互、作為輪詢負載均衡器,并提供服務(wù)的故障切換支持。

Eureka的基本架構(gòu),由3個角色組成:

1、Eureka Server: 提供服務(wù)注冊和發(fā)現(xiàn)功能;

2、Service Provider 服務(wù)提供方,將自身服務(wù)注冊到Eureka,從而使服務(wù)消費方能夠找到;

3、Service Consumer 服務(wù)消費方,從Eureka獲取注冊服務(wù)列表,從而能夠消費服務(wù)

2a9707d0-fa4f-11ed-90ce-dac502259ad0.png

Eureka 在設(shè)計時就緊遵AP 原則,Eureka Server 可以運行多個實例來構(gòu)建集群,解決單點問題,實例之間通過彼此互相注冊來提高可用性,是一種去中心化的架構(gòu),無 master/slave 之分,每一個實例 都是對等的,每個節(jié)點都可被視為其他節(jié)點的副本。

在集群環(huán)境中如果某臺 Eureka Server 宕機,Eureka Client 的請求會自動切換到新的 Eureka Server 節(jié)點上,當宕機的服務(wù)器重新恢復(fù)后,Eureka 會再次將其納入到服務(wù)器集群管理之中。

當節(jié)點開始接受客戶端請求時,所有的操作都會在節(jié)點間進行復(fù)制操作,將請求復(fù)制到該 Eureka Server 當前所知的其它所有節(jié)點中。

當一個新的 Eureka Server 節(jié)點啟動后,會首先嘗試從鄰近節(jié)點獲取所有注冊列表信息,并完成初始化。Eureka Server 通過 getEurekaServiceUrls() 方法獲取所有的節(jié)點,并且會通過心跳契約的方式定期更新。

默認情況下,如果 Eureka Server 在一定時間內(nèi)沒有接收到某個服務(wù)實例的心跳(默認周期為30秒),Eureka Server 將會注銷該實例(默認為90秒, eureka.instance.lease-expiration-duration-in-seconds 進行自定義配置)。

當 Eureka Server 節(jié)點在短時間內(nèi)丟失過多的心跳時,那么這個節(jié)點就會進入自我保護模式,這個測試環(huán)境的時候需要注意一下。

Eureka的集群中,只要有一臺Eureka還在,就能保證注冊服務(wù)可用,只不過查到的信息可能不是最新的(不保證強一致性)。

除此之外,Eureka還有一種自我保護機制,如果在15分鐘 內(nèi)超過85% 的節(jié)點都沒有正常的心跳,那么Eureka就認為客戶端與注冊中心出現(xiàn)了網(wǎng)絡(luò)故障,此時會出現(xiàn)以下幾種情況:

Eureka不再從注冊表中移除因為長時間沒有收到心跳而過期的服務(wù);

Eureka仍然能夠接受新服務(wù)注冊和查詢請求,但是不會被同步到其它節(jié)點上(即保證當前節(jié)點依然可用)

當網(wǎng)絡(luò)穩(wěn)定時,當前實例新注冊的信息會被同步到其它節(jié)點中。

3、Nacos

Nacos 無縫支持一些主流的開源生態(tài),如下圖:2aac568a-fa4f-11ed-90ce-dac502259ad0.png

Nacos 致力于幫助您發(fā)現(xiàn)、配置和管理微服務(wù)。Nacos 提供了一組簡單易用的特性集,幫助您快速實現(xiàn)動態(tài)服務(wù)發(fā)現(xiàn)、服務(wù)配置、服務(wù)元數(shù)據(jù)及流量管理。

Nacos 幫助您更敏捷和容易地構(gòu)建、交付和管理微服務(wù)平臺。Nacos 是構(gòu)建以“服務(wù)”為中心的現(xiàn)代應(yīng)用架構(gòu) (例如微服務(wù)范式、云原生范式) 的服務(wù)基礎(chǔ)設(shè)施。

Nacos除了服務(wù)的注冊發(fā)現(xiàn)之外,還支持動態(tài)配置服務(wù) 。動態(tài)配置服務(wù)可以讓您以中心化、外部化和動態(tài)化的方式管理所有環(huán)境的應(yīng)用配置和服務(wù)配置。動態(tài)配置消除了配置變更時重新部署應(yīng)用和服務(wù)的需要,讓配置管理變得更加高效和敏捷。配置中心化管理讓實現(xiàn)無狀態(tài)服務(wù)變得更簡單,讓服務(wù)按需彈性擴展變得更容易。

2adebfa8-fa4f-11ed-90ce-dac502259ad0.png

Nacos特點

服務(wù)發(fā)現(xiàn)和服務(wù)健康監(jiān)測

Nacos 支持基于 DNS 和基于 RPC 的服務(wù)發(fā)現(xiàn)。服務(wù)提供者使用 原生SDK、OpenAPI、或一個獨立的Agent TODO注冊 Service 后,服務(wù)消費者可以使用DNS TODO 或HTTP&API查找和發(fā)現(xiàn)服務(wù)。

Nacos 提供對服務(wù)的實時的健康檢查,阻止向不健康的主機或服務(wù)實例發(fā)送請求。Nacos 支持傳輸層 (PING 或 TCP)和應(yīng)用層 (如 HTTP、MySQL、用戶自定義)的健康檢查。對于復(fù)雜的云環(huán)境和網(wǎng)絡(luò)拓撲環(huán)境中(如 VPC、邊緣網(wǎng)絡(luò)等)服務(wù)的健康檢查,Nacos 提供了 agent 上報模式和服務(wù)端主動檢測2種健康檢查模式。Nacos 還提供了統(tǒng)一的健康檢查儀表盤,幫助您根據(jù)健康狀態(tài)管理服務(wù)的可用性及流量。

動態(tài)配置服務(wù)

動態(tài)配置服務(wù)可以讓您以中心化、外部化和動態(tài)化的方式管理所有環(huán)境的應(yīng)用配置和服務(wù)配置。

動態(tài)配置消除了配置變更時重新部署應(yīng)用和服務(wù)的需要,讓配置管理變得更加高效和敏捷。

配置中心化管理讓實現(xiàn)無狀態(tài)服務(wù)變得更簡單,讓服務(wù)按需彈性擴展變得更容易。

Nacos 提供了一個簡潔易用的UI (控制臺樣例 Demo) 幫助您管理所有的服務(wù)和應(yīng)用的配置。Nacos 還提供包括配置版本跟蹤、金絲雀發(fā)布、一鍵回滾配置以及客戶端配置更新狀態(tài)跟蹤在內(nèi)的一系列開箱即用的配置管理特性,幫助您更安全地在生產(chǎn)環(huán)境中管理配置變更和降低配置變更帶來的風險。

動態(tài) DNS 服務(wù)

動態(tài) DNS 服務(wù)支持權(quán)重路由,讓您更容易地實現(xiàn)中間層負載均衡、更靈活的路由策略、流量控制以及數(shù)據(jù)中心內(nèi)網(wǎng)的簡單DNS解析服務(wù)。動態(tài)DNS服務(wù)還能讓您更容易地實現(xiàn)以 DNS 協(xié)議為基礎(chǔ)的服務(wù)發(fā)現(xiàn),以幫助您消除耦合廠商私有服務(wù)發(fā)現(xiàn) API 上的風險。

Nacos 提供了一些簡單的 DNS APIs TODO 幫助您管理服務(wù)的關(guān)聯(lián)域名和可用的 IP:PORT 列表.

服務(wù)及其元數(shù)據(jù)管理

Nacos 能讓您從微服務(wù)平臺建設(shè)的視角管理數(shù)據(jù)中心的所有服務(wù)及元數(shù)據(jù),包括管理服務(wù)的描述、生命周期、服務(wù)的靜態(tài)依賴分析、服務(wù)的健康狀態(tài)、服務(wù)的流量管理、路由及安全策略、服務(wù)的 SLA 以及最首要的 metrics 統(tǒng)計數(shù)據(jù)。

Nacos支持插件管理

****2af809cc-fa4f-11ed-90ce-dac502259ad0.png

關(guān)于Nacos數(shù)據(jù)的存儲來說,支持臨時也支持持久化。

2b105694-fa4f-11ed-90ce-dac502259ad0.png

關(guān)于設(shè)計來說支持CP也支持AP,對他來說只是一個命令的切換,隨你玩,還支持各種注冊中心遷移到Nacos,反正一句話,只要你想要的他就有。

4、Consul

Consul是HashiCorp公司推出的開源工具,Consul由Go語言開發(fā),部署起來非常容易,只需要極少的可執(zhí)行程序和配置文件,具有綠色、輕量級的特點。Consul是分布式的、高可用的、 可橫向擴展的用于實現(xiàn)分布式系統(tǒng)的服務(wù)發(fā)現(xiàn)與配置。

Consul的特點

服務(wù)發(fā)現(xiàn)(Service Discovery)

Consul提供了通過DNS或者HTTP接口的方式來注冊服務(wù)和發(fā)現(xiàn)服務(wù)。一些外部的服務(wù)通過Consul很容易的找到它所依賴的服務(wù)。

健康檢查(Health Checking)

Consul的Client可以提供任意數(shù)量的健康檢查,既可以與給定的服務(wù)相關(guān)聯(lián)(“webserver是否返回200 OK”),也可以與本地節(jié)點相關(guān)聯(lián)(“內(nèi)存利用率是否低于90%”)。操作員可以使用這些信息來監(jiān)視集群的健康狀況,服務(wù)發(fā)現(xiàn)組件可以使用這些信息將流量從不健康的主機路由出去。

Key/Value存儲

應(yīng)用程序可以根據(jù)自己的需要使用Consul提供的Key/Value存儲。Consul提供了簡單易用的HTTP接口,結(jié)合其他工具可以實現(xiàn)動態(tài)配置、功能標記、領(lǐng)袖選舉等等功能。

安全服務(wù)通信

Consul可以為服務(wù)生成和分發(fā)TLS證書,以建立相互的TLS連接。意圖可用于定義允許哪些服務(wù)通信。服務(wù)分割可以很容易地進行管理,其目的是可以實時更改的,而不是使用復(fù)雜的網(wǎng)絡(luò)拓撲和靜態(tài)防火墻規(guī)則。

多數(shù)據(jù)中心

Consul支持開箱即用的多數(shù)據(jù)中心. 這意味著用戶不需要擔心需要建立額外的抽象層讓業(yè)務(wù)擴展到多個區(qū)域。2b27fac4-fa4f-11ed-90ce-dac502259ad0.png

Consul支持多數(shù)據(jù)中心,在上圖中有兩個DataCenter,他們通過Internet互聯(lián),同時請注意為了提高通信效率,只有Server節(jié)點才加入跨數(shù)據(jù)中心的通信。

在單個數(shù)據(jù)中心中,Consul分為Client和Server兩種節(jié)點(所有的節(jié)點也被稱為Agent),Server節(jié)點保存數(shù)據(jù),Client負責健康檢查及轉(zhuǎn)發(fā)數(shù)據(jù)請求到Server;Server節(jié)點有一個Leader和多個Follower,Leader節(jié)點會將數(shù)據(jù)同步到Follower,Server的數(shù)量推薦是3個或者5個,在Leader掛掉的時候會啟動選舉機制產(chǎn)生一個新的Leader。

集群內(nèi)的Consul節(jié)點通過gossip協(xié)議(流言協(xié)議)維護成員關(guān)系,也就是說某個節(jié)點了解集群內(nèi)現(xiàn)在還有哪些節(jié)點,這些節(jié)點是Client還是Server。單個數(shù)據(jù)中心的流言協(xié)議同時使用TCP和UDP通信,并且都使用8301端口??鐢?shù)據(jù)中心的流言協(xié)議也同時使用TCP和UDP通信,端口使用8302。

集群內(nèi)數(shù)據(jù)的讀寫請求既可以直接發(fā)到Server,也可以通過Client使用RPC轉(zhuǎn)發(fā)到Server,請求最終會到達Leader節(jié)點,在允許數(shù)據(jù)延時的情況下,讀請求也可以在普通的Server節(jié)點完成,集群內(nèi)數(shù)據(jù)的讀寫和復(fù)制都是通過TCP的8300端口完成。

Consul其實也可以在應(yīng)用內(nèi)進行注冊,后續(xù)采用Spring Cloud全家桶這套做負載

我們這里聊聊關(guān)于Consul的應(yīng)用外的注冊:

2b471594-fa4f-11ed-90ce-dac502259ad0.png

上圖主要多出來兩個組件,分別是Registrator和Consul Template,接下來我們介紹下這兩個組件如何結(jié)合可以實現(xiàn)在應(yīng)用發(fā)進行服務(wù)發(fā)現(xiàn)和注冊。

Registrator :一個開源的第三方服務(wù)管理器項目,它通過監(jiān)聽服務(wù)部署的 Docker 實例是否存活,來負責服務(wù)提供者的注冊和銷毀。

Consul Template :定時從注冊中心服務(wù)端獲取最新的服務(wù)提供者節(jié)點列表并刷新 LB 配置(比如 Nginx 的 upstream),這樣服務(wù)消費者就通過訪問 Nginx 就可以獲取最新的服務(wù)提供者信息,達到動態(tài)調(diào)節(jié)負載均衡的目的。

整體架構(gòu)圖可能是這樣:2b5d22f8-fa4f-11ed-90ce-dac502259ad0.png

我們用Registrator來監(jiān)控每個Server的狀態(tài)。當有新的Server啟動的時候,Registrator會把它注冊到Consul這個注冊中心上。

由于Consul Template已經(jīng)訂閱了該注冊中心上的服務(wù)消息,此時Consul注冊中心會將新的Server信息推送給Consul Template,Consul Template則會去修改nginx.conf的配置文件,然后讓Nginx重新載入配置以達到自動修改負載均衡的目的。

5、Kubernetes

Kubernetes是一個輕便的和可擴展的開源平臺,用于管理容器化應(yīng)用和服務(wù)。通過Kubernetes能夠進行應(yīng)用的自動化部署和擴縮容。

在Kubernetes中,會將組成應(yīng)用的容器組合成一個邏輯單元以更易管理和發(fā)現(xiàn)。Kubernetes積累了作為Google生產(chǎn)環(huán)境運行工作負載15年的經(jīng)驗,并吸收了來自于社區(qū)的最佳想法和實踐。

Kubernetes經(jīng)過這幾年的快速發(fā)展,形成了一個大的生態(tài)環(huán)境,Google在2014年將Kubernetes作為開源項目。Kubernetes的關(guān)鍵特性包括:

自動化裝箱 :在不犧牲可用性的條件下,基于容器對資源的要求和約束自動部署容器。同時,為了提高利用率和節(jié)省更多資源,將關(guān)鍵和最佳工作量結(jié)合在一起。

自愈能力 :當容器失敗時,會對容器進行重啟;當所部署的Node節(jié)點有問題時,會對容器進行重新部署和重新調(diào)度;當容器未通過監(jiān)控檢查時,會關(guān)閉此容器;直到容器正常運行時,才會對外提供服務(wù)。

水平擴容 :通過簡單的命令、用戶界面或基于CPU的使用情況,能夠?qū)?yīng)用進行擴容和縮容。

服務(wù)發(fā)現(xiàn)和負載均衡:開發(fā)者不需要使用額外的服務(wù)發(fā)現(xiàn)機制,就能夠基于Kubernetes進行服務(wù)發(fā)現(xiàn)和負載均衡。

自動發(fā)布和回滾 :Kubernetes能夠程序化的發(fā)布應(yīng)用和相關(guān)的配置。如果發(fā)布有問題,Kubernetes將能夠回歸發(fā)生的變更。

保密和配置管理 :在不需要重新構(gòu)建鏡像的情況下,可以部署和更新保密和應(yīng)用配置。

存儲編排 :自動掛接存儲系統(tǒng),這些存儲系統(tǒng)可以來自于本地、公共云提供商(例如:GCP和AWS)、網(wǎng)絡(luò)存儲(例如:NFS、iSCSI、Gluster、Ceph、Cinder和Floker等)。

2b6e802a-fa4f-11ed-90ce-dac502259ad0.png

Kubernetes屬于主從分布式架構(gòu),主要由Master Node和Worker Node組成,以及包括客戶端命令行工具Kubectl和其它附加項。

Master Node :作為控制節(jié)點,對集群進行調(diào)度管理,Master主要由三部分構(gòu)成:

Api Server 相當于 K8S 的網(wǎng)關(guān),所有的指令請求都必須經(jīng)過 Api Server;

Kubernetes調(diào)度器 ,使用調(diào)度算法,把請求資源調(diào)度到某個 Node 節(jié)點;

Controller控制器 ,維護 K8S 資源對象(CRUD:添加、刪除、更新、修改);

ETCD存儲資源對象 (可以服務(wù)注冊、發(fā)現(xiàn)等等);

2ba07e04-fa4f-11ed-90ce-dac502259ad0.png

Worker Node :作為真正的工作節(jié)點,運行業(yè)務(wù)應(yīng)用的容器;Worker Node主要包含五部分:

Docker是運行容器的基礎(chǔ)環(huán)境,容器引擎;

Kuberlet 執(zhí)行在 Node 節(jié)點上的資源操作,Scheduler 把請求交給Api ,然后 Api Sever 再把信息指令數(shù)據(jù)存儲在 ETCD 里,于是 Kuberlet 會掃描 ETCD 并獲取指令請求,然后去執(zhí)行;

Kube-proxy是代理服務(wù),起到負載均衡作用;

Fluentd采集日志;

Pod:Kubernetes 管理的基本單元(最小單元),Pod 內(nèi)部是容器。Kubernetes 不直接管理容器,而是管理 Pod;

6、總結(jié)

1、高可用

這幾款開源產(chǎn)品都已經(jīng)考慮如何搭建高可用集群,這個地方有些差別而已;

2、關(guān)于CP還是AP的選擇

對于服務(wù)發(fā)現(xiàn)來說,針對同一個服務(wù),即使注冊中心的不同節(jié)點保存的服務(wù)提供者信息不盡相同,也并不會造成災(zāi)難性的后果。

但是對于服務(wù)消費者來說,如果因為注冊中心的異常導(dǎo)致消費不能正常進行,對于系統(tǒng)來說是災(zāi)難性,因此我覺得對于注冊中心選型應(yīng)該關(guān)注可用性,而非一致性,所以我選擇AP

3、技術(shù)體系

對于語言來說我們都是Java技術(shù)棧,從這點來說我們更傾向于Eureka、Nacos,但是Eureka已經(jīng)停止維護了,因此我會選擇Nacos。

如果公司內(nèi)部有專門的中間件或者運維團隊的可以Consul、Kubernetes,畢竟Kubernetes才是未來,我們追求的就是框架內(nèi)解決這些問題,不要涉及到應(yīng)用內(nèi)的業(yè)務(wù)開發(fā),我們其實后者是有的,只是可能不能達到能自主研發(fā)程度,這樣只能要求自己走的遠一些。

應(yīng)用內(nèi)的解決方案一般適用于服務(wù)提供者和服務(wù)消費者同屬于一個技術(shù)體系;應(yīng)用外的解決方案一般適合服務(wù)提供者和服務(wù)消費者采用了不同技術(shù)體系的業(yè)務(wù)場景。

關(guān)于Eureka、Nacos如何選擇,這個選擇就比較容易做了,那個讓我做的事少,我就選擇那個,顯然Nacos幫我們做了更多的事。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 集群
    +關(guān)注

    關(guān)注

    0

    文章

    83

    瀏覽量

    17134
  • 微服務(wù)
    +關(guān)注

    關(guān)注

    0

    文章

    126

    瀏覽量

    7303

原文標題:5 種主流微服務(wù)注冊中心技術(shù)選型,yyds!

文章出處:【微信號:芋道源碼,微信公眾號:芋道源碼】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    基于kafka和zookeeper可用集群的shell腳本使用步驟

    kafka+zookeeper可用集群搭建shell腳本使用教程
    發(fā)表于 03-11 16:50

    kafka架構(gòu)與集群搭建

    kafka入門+集群搭建
    發(fā)表于 04-29 17:06

    基于KeepAlive的可用配置

    KeepAlived集群可用搭建
    發(fā)表于 06-11 16:36

    3分鐘搭建Redis Cluster集群

    Redis Cluster集群快速搭建
    發(fā)表于 06-12 14:58

    zookeeper集群搭建流程概述

    基于docker的zookeeper集群搭建
    發(fā)表于 07-23 17:14

    kubernetes集群配置

    基于v1104版本手動搭建可用kubernetes 集群
    發(fā)表于 08-19 08:07

    搭建Zookeeper集群筆記

    Zookeeper集群搭建
    發(fā)表于 09-19 09:01

    hadoop集群搭建的準備

    hadoop集群搭建系列(step01:集群搭建準備)
    發(fā)表于 03-31 09:47

    基于開源系統(tǒng)的可用集群應(yīng)用

    隨著硬件價格的逐步下降,PC 服務(wù)器已經(jīng)不是什么高端設(shè)備了。而近些年虛擬化的發(fā)展,架設(shè)一臺服務(wù)器已經(jīng)是很容易的事情。通過組建集群來對關(guān)鍵服務(wù)提供可用性(High-availabili
    發(fā)表于 07-07 17:47 ?29次下載
    基于開源系統(tǒng)的<b class='flag-5'>高</b><b class='flag-5'>可用</b>性<b class='flag-5'>集群</b>應(yīng)用

    Mesos可用集群解決方案

    )設(shè)計方案的了解以及在Mesos社區(qū)貢獻的經(jīng)驗,深度剖析了Mesos集群可用的解決方案,以及對未來的展望。 Mesos可用架構(gòu)概述 首先
    發(fā)表于 10-10 09:48 ?0次下載
    Mesos<b class='flag-5'>高</b><b class='flag-5'>可用</b><b class='flag-5'>集群</b>解決方案

    淺談Kubernetes集群可用方案

    Kubernetes作為容器應(yīng)用的管理中心,通過對Pod的數(shù)量進行監(jiān)控,并且根據(jù)主機或容器失效的狀態(tài)將新的Pod調(diào)度到其他Node上,實現(xiàn)了應(yīng)用層的可用性。針對Kubernetes集群,
    發(fā)表于 10-11 10:04 ?1次下載
    淺談Kubernetes<b class='flag-5'>集群</b>的<b class='flag-5'>高</b><b class='flag-5'>可用</b>方案

    Eureka的集群搭建方法-保證可用

    在微服務(wù)架構(gòu)中,注冊中心是一個必不可少的組件 前面我們搭建的注冊中心只適合本地開發(fā)使用,在生產(chǎn)環(huán)境必須搭建一個集群來保證可用 Eureka
    發(fā)表于 11-29 10:41 ?7496次閱讀
    Eureka的<b class='flag-5'>集群</b><b class='flag-5'>搭建</b>方法-保證<b class='flag-5'>高</b><b class='flag-5'>可用</b>

    簡單分析Java可用集群和微服務(wù)架構(gòu)

    可能大部分讀者都在想,為什么在這以 dubbo、spring cloud 為代表的微服務(wù)時代,我要還要整理這種已經(jīng)“過時”可用集群架構(gòu)?
    的頭像 發(fā)表于 05-03 18:17 ?2023次閱讀
    簡單分析Java<b class='flag-5'>高</b><b class='flag-5'>可用</b><b class='flag-5'>集群</b>和微服務(wù)架構(gòu)

    虛擬機:Hadoop集群搭建

    虛擬機:Hadoop集群搭建
    的頭像 發(fā)表于 07-01 13:03 ?3103次閱讀
    虛擬機:Hadoop<b class='flag-5'>集群</b>的<b class='flag-5'>搭建</b>

    搭建Keepalived+Lvs+Nginx可用集群負載均衡

    Server)實現(xiàn)可用負載均衡 附:LVS的負載均衡算法 八、搭建Keepalived+Lvs+Nginx可用
    的頭像 發(fā)表于 06-25 15:39 ?2580次閱讀
    <b class='flag-5'>搭建</b>Keepalived+Lvs+Nginx<b class='flag-5'>高</b><b class='flag-5'>可用</b><b class='flag-5'>集群</b>負載均衡