雖然這篇Fluent-bit kafka鄉民發文沒有被收入到精華區:在Fluent-bit kafka這個話題中,我們另外找到其它相關的精選爆讚文章
在 fluent-bit產品中有2篇Facebook貼文,粉絲數超過2,850的網紅矽谷牛的耕田筆記,也在其Facebook貼文中提到, 從本篇開始,接下來將幫大家介紹 k8s.af 裡面關於各種 Kubernetes 維運上遇到的各種問題。 本篇主題: 為什麼我們要在兩小時內從 fluent-bit 轉換到 fluentd 症狀: 某日下午,開發者通知疑似某些生產環境上面的日誌出現問題,沒有看到任何更新。 作者的團隊已經使用 f...
同時也有10000部Youtube影片,追蹤數超過2,910的網紅コバにゃんチャンネル,也在其Youtube影片中提到,...
fluent-bit 在 矽谷牛的耕田筆記 Facebook 的最佳解答
從本篇開始,接下來將幫大家介紹 k8s.af 裡面關於各種 Kubernetes 維運上遇到的各種問題。
本篇主題: 為什麼我們要在兩小時內從 fluent-bit 轉換到 fluentd
症狀: 某日下午,開發者通知疑似某些生產環境上面的日誌出現問題,沒有看到任何更新。
作者的團隊已經使用 fluent-bit 來轉發應用程式日誌已經三年多了,過去的經驗表示 fluent-bit 表現良好,有個良好的效能,設定也相對簡單。
問題發生時,首先觀察 fluent-bit 相關的資訊,從中得到關於 ElasticSearch 拒絕接受相關請求的錯誤訊息,最後輾轉從 ElasticSearch 去解決,再也沒有任何錯誤訊息出現了。但是實際的問題還是存在,該看到的日式
然而其實主體問題還在,日誌還是沒有被收集起來送出去,因此這時候團隊就開始思考該怎麼做。其中嘗試過升級降級已經修改不同參數,但是都沒有辦法解決問題,最後於 GitHub 上面找到一個相關 issue(https://github.com/fluent/fluent-bit/issues/2416),問題情況一樣類似而且沒有解決方法,所以幫助不大,但是至少知道自己並不孤單。
一切都明瞭後,作者團隊知道沒有辦法針對 fluent-bit 的這個錯誤去修改,因此開始思考其他的替代方案,最後選擇使用了 fluentd 來替代。整個抽換過程是緩慢的,先從出問題的節點開始,慢慢的部署 fluentd 並且移除 fluent-bit,其中還透過了 node Affinity 以及 anti-affinity 來幫忙調整部署的選擇。
最後有興趣的話建議點選原文,幫自己增廣見聞一下
原文: https://prometheuskube.com/why-we-switched-from-fluent-bit-to-fluentd-in-2-hours
fluent-bit 在 網路資訊雜誌 Facebook 的最佳解答
#Amazon 宣佈推出日誌聚合服務 #AWS #FireLens。這項服務可整合散佈在Amazon ECS、Amazon EKS和運算引擎服務AWS Fargate所有容器的日誌篩選和傳送作業。
AWS合作夥伴之一Sysdig已將開原碼Kuberenetes runtime安全專案Falco和Fluent Bit整合,這麼一來,AWS用戶就能將Falco安全資料傳送到AWS FireLens,簡化日誌管理。