雖然這篇StorageClass NFS鄉民發文沒有被收入到精華區:在StorageClass NFS這個話題中,我們另外找到其它相關的精選爆讚文章
在 storageclass產品中有1篇Facebook貼文,粉絲數超過2,850的網紅矽谷牛的耕田筆記,也在其Facebook貼文中提到, 本篇是一個 GKE 上面的使用經驗談,主要問題發生調整 StatefulSet 數量時(3->5),發現新增出來的 Pod 都沒有辦法順利的被排程到節點上。 作者團隊遇到的錯誤訊息是 FailedScheduling 4m42s (x3 over 4m44s) default-scheduler ...
同時也有10000部Youtube影片,追蹤數超過2,910的網紅コバにゃんチャンネル,也在其Youtube影片中提到,...
storageclass 在 矽谷牛的耕田筆記 Facebook 的最佳貼文
本篇是一個 GKE 上面的使用經驗談,主要問題發生調整 StatefulSet 數量時(3->5),發現新增出來的 Pod 都沒有辦法順利的被排程到節點上。
作者團隊遇到的錯誤訊息是
FailedScheduling 4m42s (x3 over 4m44s) default-scheduler 0/9 nodes are available: 3 pod has unbound immediate PersistentVolumeClaims, 6 node(s) didn’t match node selector.
根據上述訊息,可以觀察到兩個點
1) 3個 Pod 因為 PVC 的問題過不去
2) 6個節點沒有符合 node selector 的敘述
這個錯誤訊息讓團隊覺得很莫名,畢竟本來的 StatefulSet 運行的很好,只是改個 replica 的數量就出問題了。
經過調查與研究後發現, GKE 創造的 PV(PersistentVOlume)全部都綁定於 europe-west4-b 上,然而所有的 Pod 全部都綁定於 europe-west4-a 上。
Zone 的使用上沒有一致導致這個問題發生。
作者本來是期許 GKE 要可以更聰明的去處理這個問題,所有自動創立的 PV 應該要針對 Node Selector 有符合的 Zone 去設定,這樣才可以確保運行的 Pod 有對應的 PV 可以使用。
最後作者閱讀了相關文件,得到兩個結論
1. 根據官方文件,Regional persistent disk 只會針對同 regional 內的兩個 zone 去複製與同步 Disk,因此對於一個有 3個 zone 的 Region,是有機會存取到一個沒有該 Disk 的 Zone。
2. 根據 GKE 的文件,使用者最好維護自己的 StorageClass 物件,透過該物件去來 select 多個 zone,同時團隊也比較有能力針對多zone的情況去控管
https://faun.pub/a-story-about-gke-zonal-nodes-and-stateful-set-scaling-1e15acfe5523