0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

簡述kube-proxy ipvs原理

jf_TEuU2tls ? 來源:浩道linux ? 2023-05-22 11:35 ? 次閱讀

1.簡述 kube-proxy ipvs 原理?

IPVS 在 Kubernetes1.11 中升級為 GA 穩(wěn)定版。IPVS 則專門用于高性能負(fù)載均衡,并使用更高效的數(shù)據(jù)結(jié)構(gòu)(Hash 表),允許幾乎無限的規(guī)模擴(kuò)張,因此被 kube-proxy 采納為最新模式。

在 IPVS 模式下,使用 iptables 的擴(kuò)展 ipset,而不是直接調(diào)用 iptables 來生成規(guī)則鏈。iptables 規(guī)則鏈?zhǔn)且粋€線性的數(shù)據(jù)結(jié)構(gòu),ipset 則引入了帶索引的數(shù)據(jù)結(jié)構(gòu),因此當(dāng)規(guī)則很多時,也可以很高效地查找和匹配。

可以將 ipset 簡單理解為一個 IP(段)的集合,這個集合的內(nèi)容可以是 IP 地址、IP 網(wǎng)段、端口等,iptables 可以直接添加規(guī)則對這個“可變的集合”進(jìn)行操作,這樣做的好處在于可以大大減少 iptables 規(guī)則的數(shù)量,從而減少性能損耗。

2.簡述 kube-proxy ipvs 和 iptables 的異同?

iptables 與 IPVS 都是基于 Netfilter 實(shí)現(xiàn)的,但因?yàn)槎ㄎ徊煌哂兄举|(zhì)的差別:iptables 是為防火墻而設(shè)計(jì)的;IPVS 則專門用于高性能負(fù)載均衡,并使用更高效的數(shù)據(jù)結(jié)構(gòu)(Hash 表),允許幾乎無限的規(guī)模擴(kuò)張。

與 iptables 相比,IPVS 擁有以下明顯優(yōu)勢:

1、為大型集群提供了更好的可擴(kuò)展性和性能;

2、支持比 iptables 更復(fù)雜的復(fù)制均衡算法(最小負(fù)載、最少連接、加權(quán)等);

3、支持服務(wù)器健康檢查和連接重試等功能;

4、可以動態(tài)修改 ipset 的集合,即使 iptables 的規(guī)則正在使用這個集合。

3.簡述 Kubernetes 中什么是靜態(tài) Pod?

靜態(tài) pod 是由 kubelet 進(jìn)行管理的僅存在于特定 Node 的 Pod 上,他們不能通過 API Server 進(jìn)行管理,無法與 ReplicationController、Deployment 或者DaemonSet 進(jìn)行關(guān)聯(lián),并且 kubelet 無法對他們進(jìn)行健康檢查。靜態(tài) Pod 總是由kubelet 進(jìn)行創(chuàng)建,并且總是在 kubelet 所在的 Node 上運(yùn)行。

4.簡述 Kubernetes 中 Pod 可能位于的狀態(tài)?

Pending:API Server 已經(jīng)創(chuàng)建該 Pod,且 Pod 內(nèi)還有一個或多個容器的鏡像沒有創(chuàng)建,包括正在下載鏡像的過程。

Running:Pod 內(nèi)所有容器均已創(chuàng)建,且至少有一個容器處于運(yùn)行狀態(tài)、正在啟動狀態(tài)或正在重啟狀態(tài)。

Succeeded:Pod 內(nèi)所有容器均成功執(zhí)行退出,且不會重啟。

FailedPod 內(nèi)所有容器均已退出,但至少有一個容器退出為失敗狀態(tài)。

Unknown:由于某種原因無法獲取該 Pod 狀態(tài),可能由于網(wǎng)絡(luò)通信不暢導(dǎo)致。

5.簡述 Kubernetes 創(chuàng)建一個 Pod 的主要流程?

Kubernetes 中創(chuàng)建一個 Pod 涉及多個組件之間聯(lián)動,主要流程如下:

1、客戶端提交 Pod 的配置信息(可以是 yaml 文件定義的信息)到 kube-apiserver。

2、Apiserver 收到指令后,通知給 controller-manager 創(chuàng)建一個資源對象。

3、Controller-manager 通過 api-server 將 pod 的配置信息存儲到 ETCD 數(shù)據(jù)中心中。

4、Kube-scheduler 檢測到 pod 信息會開始調(diào)度預(yù)選,會先過濾掉不符合 Pod資源配置要求的節(jié)點(diǎn),然后開始調(diào)度調(diào)優(yōu),主要是挑選出更適合運(yùn)行 pod 的節(jié)點(diǎn),然后將 pod 的資源配置單發(fā)送到 node 節(jié)點(diǎn)上的 kubelet 組件上。

5、Kubelet 根據(jù) scheduler 發(fā)來的資源配置單運(yùn)行 pod,運(yùn)行成功后,將 pod的運(yùn)行信息返回給 scheduler,scheduler 將返回的 pod 運(yùn)行狀況的信息存儲到etcd 數(shù)據(jù)中心。

6.簡述 Kubernetes 中 Pod 的重啟策略?

Pod 重啟策略(RestartPolicy)應(yīng)用于 Pod 內(nèi)的所有容器,并且僅在 Pod 所處的 Node 上由 kubelet 進(jìn)行判斷和重啟操作。當(dāng)某個容器異常退出或者健康檢查失敗時,kubelet 將根據(jù) RestartPolicy 的設(shè)置來進(jìn)行相應(yīng)操作。

Pod 的重啟策略包括 Always、OnFailure 和 Never,默認(rèn)值為 Always。

Always:當(dāng)容器失效時,由 kubelet 自動重啟該容器;

OnFailure:當(dāng)容器終止運(yùn)行且退出碼不為 0 時,由 kubelet 自動重啟該容器;

Never:不論容器運(yùn)行狀態(tài)如何,kubelet 都不會重啟該容器。

同時 Pod 的重啟策略與控制方式關(guān)聯(lián),當(dāng)前可用于管理 Pod 的控制器包括ReplicationController、Job、DaemonSet 及直接管理 kubelet 管理(靜態(tài) Pod)。

不同控制器的重啟策略限制如下:

● RC 和 DaemonSet:必須設(shè)置為 Always,需要保證該容器持續(xù)運(yùn)行;

● Job:OnFailure 或 Never,確保容器執(zhí)行完成后不再重啟;

● kubelet:在 Pod 失效時重啟,不論將 RestartPolicy 設(shè)置為何值,也不會對 Pod 進(jìn)行健康檢查。

7.簡述 Kubernetes 中 Pod 的健康檢查方式?

對 Pod 的健康檢查可以通過兩類探針來檢查:LivenessProbe 和ReadinessProbe。

LivenessProbe 探針:用于判斷容器是否存活(running 狀態(tài)),如果 LivenessProbe 探針探測到容器不健康,則 kubelet 將殺掉該容器,并根據(jù)容器的重啟策略做相應(yīng)處理。若一個容器不包含 LivenessProbe 探針,kubelet 認(rèn)為該容器的 LivenessProbe 探針返回值用于是“Success”。

ReadineeProbe 探針:用于判斷容器是否啟動完成(ready 狀態(tài))。如果 ReadinessProbe 探針探測到失敗,則 Pod 的狀態(tài)將被修改。Endpoint Controller 將從 Service 的 Endpoint 中刪除包含該容器所在 Pod 的 Eenpoint。

startupProbe 探針:啟動檢查機(jī)制,應(yīng)用一些啟動緩慢的業(yè)務(wù),避免業(yè)務(wù)長時間啟動而被上面兩類探針 kill 掉。

8.簡述 Kubernetes Pod 的 LivenessProbe 探針的常見方式?

kubelet 定期執(zhí)行 LivenessProbe 探針來診斷容器的健康狀態(tài),通常有以下三種方式:

ExecAction:在容器內(nèi)執(zhí)行一個命令,若返回碼為 0,則表明容器健康。

TCPSocketAction:通過容器的 IP 地址和端口號執(zhí)行 TCP 檢查,若能建立 TCP 連接,則表明容器健康。

HTTPGetAction:通過容器的 IP 地址、端口號及路徑調(diào)用 HTTP Get 方法,若響應(yīng)的狀態(tài)碼大于等于 200 且小于 400,則表明容器健康。

9.簡述 Kubernetes Pod 的常見調(diào)度方式?

Kubernetes 中,Pod 通常是容器的載體,主要有如下常見調(diào)度方式:

●Deployment 或 RC:該調(diào)度策略主要功能就是自動部署一個容器應(yīng)用的多份副本,以及持續(xù)監(jiān)控副本的數(shù)量,在集群內(nèi)始終維持用戶指定的副本數(shù)量。

NodeSelector:定向調(diào)度,當(dāng)需要手動指定將 Pod 調(diào)度到特定 Node 上,可以通過 Node 的標(biāo)簽(Label)和 Pod 的 nodeSelector 屬性相匹配。

NodeAffinity 親和性調(diào)度:親和性調(diào)度機(jī)制極大的擴(kuò)展了 Pod 的調(diào)度能力,目前有兩種節(jié)點(diǎn)親和力表達(dá):

requiredDuringSchedulingIgnoredDuringExecution:硬規(guī)則,必須滿足指定的規(guī)則,調(diào)度器才可以調(diào)度 Pod 至 Node 上(類似 nodeSelector,語法不同)。

preferredDuringSchedulingIgnoredDuringExecution:軟規(guī)則,優(yōu)先調(diào)度至滿足的 Node 的節(jié)點(diǎn),但不強(qiáng)求,多個優(yōu)先級規(guī)則還可以設(shè)置權(quán)重值。

Taints 和 Tolerations(污點(diǎn)和容忍)

Taint:使 Node 拒絕特定 Pod 運(yùn)行;

Toleration:為 Pod 的屬性,表示 Pod 能容忍(運(yùn)行)標(biāo)注了 Taint 的 Node。

10.簡述Kubernetes初始化容器(init container)?

init container 的運(yùn)行方式與應(yīng)用容器不同,它們必須先于應(yīng)用容器執(zhí)行完成,當(dāng)設(shè)置了多個 init container 時,將按順序逐個運(yùn)行,并且只有前一個 init container 運(yùn)行成功后才能運(yùn)行后一個 init container。當(dāng)所有 init container 都成功運(yùn)行后,Kubernetes 才會初始化 Pod 的各種信息,并開始創(chuàng)建和運(yùn)行應(yīng)用容器。

11.簡述 Kubernetes deployment 升級過程?

● 初始創(chuàng)建 Deployment 時,系統(tǒng)創(chuàng)建了一個 ReplicaSet,并按用戶的需求創(chuàng)建了對應(yīng)數(shù)量的 Pod 副本。

●當(dāng)更新 Deployment 時,系統(tǒng)創(chuàng)建了一個新的 ReplicaSet,并將其副本數(shù)量擴(kuò)展到 1,然后將舊 ReplicaSet 縮減為 2。

●之后,系統(tǒng)繼續(xù)按照相同的更新策略對新舊兩個 ReplicaSet 進(jìn)行逐個調(diào)整。

●最后,新的 ReplicaSet 運(yùn)行了對應(yīng)個新版本 Pod 副本,舊的 ReplicaSet 副本數(shù)量則縮減為 0。

12.簡述 Kubernetes deployment 升級策略?

在 Deployment 的定義中,可以通過 spec.strategy 指定 Pod 更新的策略,目前支持兩種策略:Recreate(重建)和 RollingUpdate(滾動更新),默認(rèn)值為RollingUpdate。

Recreate:設(shè)置 spec.strategy.type=Recreate,表示 Deployment 在更新 Pod時,會先殺掉所有正在運(yùn)行的 Pod,然后創(chuàng)建新的 Pod。

RollingUpdate:設(shè)置 spec.strategy.type=RollingUpdate,表示 Deployment會以滾動更新的方式來逐個更新 Pod。同時,可以通過設(shè)置spec.strategy.rollingUpdate 下的兩個參數(shù)(maxUnavailable 和 maxSurge)來控制滾動更新的過程。

13.簡述 Kubernetes DaemonSet 類型的資源特性?

DaemonSet 資源對象會在每個 Kubernetes 集群中的節(jié)點(diǎn)上運(yùn)行,并且每個節(jié)點(diǎn)只能運(yùn)行一個 pod,這是它和 deployment 資源對象的最大也是唯一的區(qū)別。因此, 在定義 yaml 文件中,不支持定義 replicas。

它的一般使用場景如下:

●在去做每個節(jié)點(diǎn)的日志收集工作。

●監(jiān)控每個節(jié)點(diǎn)的的運(yùn)行狀態(tài)。

14.簡述 Kubernetes 自動擴(kuò)容機(jī)制?

Kubernetes 使用 Horizontal Pod Autoscaler(HPA)的控制器實(shí)現(xiàn)基于 CPU使用率進(jìn)行自動 Pod 擴(kuò)縮容的功能。HPA 控制器周期性地監(jiān)測目標(biāo) Pod 的資源性能指標(biāo),并與 HPA 資源對象中的擴(kuò)縮容條件進(jìn)行對比,在滿足條件時對 Pod 副本數(shù)量進(jìn)行調(diào)整。

●HPA 原理

Kubernetes 中的某個 Metrics Server(Heapster 或自定義 Metrics Server)持續(xù)采集所有 Pod 副本的指標(biāo)數(shù)據(jù)。HPA 控制器通過 Metrics Server 的 API(Heapster 的API 或聚合 API)獲取這些數(shù)據(jù),基于用戶定義的擴(kuò)縮容規(guī)則進(jìn)行計(jì)算,得到目標(biāo) Pod 副本數(shù)量。

當(dāng)目標(biāo) Pod 副本數(shù)量與當(dāng)前副本數(shù)量不同時,HPA 控制器就向 Pod 的副本控制器 (Deployment、RC 或 ReplicaSet)發(fā)起 scale 操作,調(diào)整 Pod 的副本數(shù)量,完成擴(kuò)縮容操作。

15.簡述 Kubernetes Service 類型?

通過創(chuàng)建 Service,可以為一組具有相同功能的容器應(yīng)用提供一個統(tǒng)一的入口地址, 并且將請求負(fù)載分發(fā)到后端的各個容器應(yīng)用上。其主要類型有:

ClusterIP:虛擬的服務(wù) IP 地址,該地址用于 Kubernetes 集群內(nèi)部的 Pod 訪問, 在 Node 上 kube-proxy 通過設(shè)置的 iptables 規(guī)則進(jìn)行轉(zhuǎn)發(fā);

NodePort:使用宿主機(jī)的端口,使能夠訪問各 Node 的外部客戶端通過 Node 的 IP 地址和端口號就能訪問服務(wù);

LoadBalancer:使用外接負(fù)載均衡器完成到服務(wù)的負(fù)載分發(fā),需要在 spec.status.loadBalancer 字段指定外部負(fù)載均衡器的 IP 地址,通常用于公有云。

16.簡述 Kubernetes Service 分發(fā)后端的策略?

Service 負(fù)載分發(fā)的策略有:RoundRobin 和 SessionAffinity:

RoundRobin:默認(rèn)為輪詢模式,即輪詢將請求轉(zhuǎn)發(fā)到后端的各個 Pod 上。

SessionAffinity:基于客戶端 IP 地址進(jìn)行會話保持的模式,即第 1 次將某個客戶端發(fā)起的請求轉(zhuǎn)發(fā)到后端的某個 Pod 上,之后從相同的客戶端發(fā)起的請求都將被轉(zhuǎn)發(fā)到后端相同的 Pod 上。

17.簡述 Kubernetes Headless Service?

在某些應(yīng)用場景中,若需要人為指定負(fù)載均衡器,不使用 Service 提供的默認(rèn)負(fù)載均衡的功能,或者應(yīng)用程序希望知道屬于同組服務(wù)的其他實(shí)例。Kubernetes 提供了Headless Service 來實(shí)現(xiàn)這種功能,即不為 Service 設(shè)置 ClusterIP(入口 IP 地址), 僅通過 Label Selector 將后端的 Pod 列表返回給調(diào)用的客戶端。

18.簡述 Kubernetes 外部如何訪問集群內(nèi)的服務(wù)?

對于 Kubernetes,集群外的客戶端默認(rèn)情況,無法通過 Pod 的 IP 地址或者 Service 的虛擬 IP 地址:虛擬端口號進(jìn)行訪問。通??梢酝ㄟ^以下方式進(jìn)行訪問 Kubernetes 集群內(nèi)的服務(wù):

映射 Pod 到物理機(jī):將 Pod 端口號映射到宿主機(jī),即在 Pod 中采用 hostPort 方式,以使客戶端應(yīng)用能夠通過物理機(jī)訪問容器應(yīng)用。

映射 Service 到物理機(jī):將 Service 端口號映射到宿主機(jī),即在 Service 中采用 nodePort 方式,以使客戶端應(yīng)用能夠通過物理機(jī)訪問容器應(yīng)用。

映射 Sercie 到 LoadBalancer:通過設(shè)置 LoadBalancer 映射到云服務(wù)商提供的 LoadBalancer 地址。這種用法僅用于在公有云服務(wù)提供商的云平臺上設(shè)置 Service 的場景。

19.簡述 Kubernetes ingress?

Kubernetes 的 Ingress 資源對象,用于將不同 URL 的訪問請求轉(zhuǎn)發(fā)到后端不同的 Service,以實(shí)現(xiàn) HTTP 層的業(yè)務(wù)路由機(jī)制。

Kubernetes 使用了 Ingress 策略和 Ingress Controller,兩者結(jié)合并實(shí)現(xiàn)了一個完整的 Ingress 負(fù)載均衡器。使用 Ingress 進(jìn)行負(fù)載分發(fā)時,Ingress Controller 基于Ingress 規(guī)則將客戶端請求直接轉(zhuǎn)發(fā)到 Service 對應(yīng)的后端 Endpoint(Pod)上,從而跳過 kube-proxy 的轉(zhuǎn)發(fā)功能,kube-proxy 不再起作用,全過程為:ingress controller + ingress 規(guī)則 ----> services。

同時當(dāng) Ingress Controller 提供的是對外服務(wù),則實(shí)際上實(shí)現(xiàn)的是邊緣路由器的功能。

20.簡述 Kubernetes 鏡像的下載策略?

K8s 的鏡像下載策略有三種:Always、Never、IFNotPresent。

Always:鏡像標(biāo)簽為 latest 時,總是從指定的倉庫中獲取鏡像。

Never:禁止從倉庫中下載鏡像,也就是說只能使用本地鏡像。

IfNotPresent:僅當(dāng)本地沒有對應(yīng)鏡像時,才從目標(biāo)倉庫中下載。默認(rèn)的鏡像下載策略是:當(dāng)鏡像標(biāo)簽是 latest 時,默認(rèn)策略是 Always;當(dāng)鏡像標(biāo)簽是自定義時(也就是標(biāo)簽不是 latest),那么默認(rèn)策略是 IfNotPresent。

21.簡述 Kubernetes 的負(fù)載均衡器?

負(fù)載均衡器是暴露服務(wù)的最常見和標(biāo)準(zhǔn)方式之一。

根據(jù)工作環(huán)境使用兩種類型的負(fù)載均衡器,即內(nèi)部負(fù)載均衡器或外部負(fù)載均衡器。內(nèi)部負(fù)載均衡器自動平衡負(fù)載并使用所需配置分配容器,而外部負(fù)載均衡器將流量從外部負(fù)載引導(dǎo)至后端容器。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 存儲
    +關(guān)注

    關(guān)注

    13

    文章

    4219

    瀏覽量

    85564
  • 容器
    +關(guān)注

    關(guān)注

    0

    文章

    492

    瀏覽量

    22027
  • 數(shù)據(jù)結(jié)構(gòu)

    關(guān)注

    3

    文章

    569

    瀏覽量

    40071

原文標(biāo)題:總結(jié)到位! 21道Kubernetes 面試題助你拿高薪!

文章出處:【微信號:浩道linux,微信公眾號:浩道linux】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    阿里云容器服務(wù)通過LoadBalancer暴露IPv6服務(wù)

    的LoadBalancer來暴露我們的服務(wù)。使用方式:.創(chuàng)建容器服務(wù)的k8s集群,注意創(chuàng)建集群的 kube-proxy 代理模式需要是IPVS 2.創(chuàng)建LoadBalancer類型的Service,創(chuàng)建的模板
    發(fā)表于 09-16 17:20

    防火墻術(shù)語-Proxy

    防火墻術(shù)語-Proxy   英文原義:Proxy 中文釋義:代理 注  解:防火墻的一類。工作在應(yīng)用層,特點(diǎn)是兩次連
    發(fā)表于 02-24 11:01 ?1001次閱讀

    eBPF技術(shù)應(yīng)用云原生網(wǎng)絡(luò)實(shí)踐系列之基于socket的service

    。 iptables 代理模式kube-proxy 負(fù)責(zé) list/watch,規(guī)則設(shè)置。IPtables 相關(guān)內(nèi)核模塊負(fù)責(zé)轉(zhuǎn)發(fā)。 IPVS 代理模式kube-proxy 負(fù)責(zé) list/watch,規(guī)則設(shè)置。
    的頭像 發(fā)表于 10-13 10:54 ?1787次閱讀
    eBPF技術(shù)應(yīng)用云原生網(wǎng)絡(luò)實(shí)踐系列之基于socket的service

    xsec-proxy-scanner代理掃描器

    xsec-proxy-scanner.zip
    發(fā)表于 04-28 09:18 ?5次下載
    xsec-<b class='flag-5'>proxy</b>-scanner代理掃描器

    php-proxy-app Web代理服務(wù)器

    php-proxy-app.zip
    發(fā)表于 04-29 10:51 ?1次下載
    php-<b class='flag-5'>proxy</b>-app Web代理服務(wù)器

    Tcp-DNS-proxy TCP DNS代理

    Tcp-DNS-proxy.zip
    發(fā)表于 04-29 10:44 ?2次下載
    Tcp-DNS-<b class='flag-5'>proxy</b> TCP DNS代理

    Exchange_proxy Exchange安全代理

    exchange_proxy.zip
    發(fā)表于 05-07 09:51 ?0次下載
    Exchange_<b class='flag-5'>proxy</b> Exchange安全代理

    kube-lineage Kubernetes集群資源展示CLI工具

    ./oschina_soft/kube-lineage.zip
    發(fā)表于 05-13 09:50 ?0次下載
    <b class='flag-5'>kube</b>-lineage Kubernetes集群資源展示CLI工具

    Kube-capacity CLI的安裝與用法

    使用 Kube-capacity CLI 查看 Kubernetes 資源請求、限制和利用率
    的頭像 發(fā)表于 07-03 15:30 ?1059次閱讀

    Kube Multisensor NodeMCU模塊板

    電子發(fā)燒友網(wǎng)站提供《Kube Multisensor NodeMCU模塊板.zip》資料免費(fèi)下載
    發(fā)表于 07-18 16:37 ?0次下載
    <b class='flag-5'>Kube</b> Multisensor NodeMCU模塊板

    Service Mesh:探索分布式系統(tǒng)的幻覺與未來

    在 Kubernetes 中,流量管理由 Kubernetes 網(wǎng)絡(luò)代理(kube-proxy)負(fù)責(zé)。kube-proxy 在每個節(jié)點(diǎn)上運(yùn)行,并與 Kubernetes API 服務(wù)器通信,獲取關(guān)于 Kubernetes 服務(wù)的信息。
    的頭像 發(fā)表于 08-02 16:00 ?470次閱讀
    Service Mesh:探索分布式系統(tǒng)的幻覺與未來

    K8s常見的10個問題排查

    K8S的集群狀態(tài)是排查故障的關(guān)鍵起點(diǎn)。使用kubectl get nodes命令來檢查節(jié)點(diǎn)狀態(tài)。如果有節(jié)點(diǎn)未能就緒或出現(xiàn)異常狀態(tài),可能會對應(yīng)用程序造成故障。確?;窘M件,如etcd、kubelet和kube-proxy等,正常運(yùn)行。
    發(fā)表于 11-01 12:26 ?1330次閱讀
    K8s常見的10個問題排查

    深入解析IPVS(IP虛擬服務(wù)器)

    IPVS是如何決策應(yīng)該把請求調(diào)度到哪個后端RS(Real Server)上的呢?這是由負(fù)載均衡調(diào)度算法決定的。
    發(fā)表于 02-27 11:12 ?969次閱讀
    深入解析<b class='flag-5'>IPVS</b>(IP虛擬服務(wù)器)

    深度解析Istio Proxy邊車容器的功能與能力

    在創(chuàng)建Pod的請求到達(dá)Kube-apiserver后,首先進(jìn)行認(rèn)證鑒權(quán),然后在準(zhǔn)入控制階段 kube-apiserver以REST的方式同步調(diào)用sidecar-injector webhook服務(wù)進(jìn)行init容器與istio-proxy
    發(fā)表于 03-04 09:43 ?1356次閱讀
    深度解析Istio <b class='flag-5'>Proxy</b>邊車容器的功能與能力

    IPVS負(fù)載均衡原理解析

    ipvs (IP Virtual Server) 實(shí)現(xiàn)了傳輸層負(fù)載均衡,也就是我們常說的4層LAN交換,作為 Linux 內(nèi)核的一部分。ipvs運(yùn)行在主機(jī)上,在真實(shí)服務(wù)器集群前充當(dāng)負(fù)載均衡器
    的頭像 發(fā)表于 10-24 17:34 ?143次閱讀