運維監控報警優化經驗總結分享

2019-09-03   hello架構

運維工程師面試者第一個問題是:需要值班嗎?筆者自己也曾經歷過月入十萬的時期,在那個時候,數個系統同時發布下一代版本,而老系統還需要過渡很長時間,工作量直接翻倍,大家只能勉強應付一線運維工作,團隊成員開始陸續離職,而新人又無法在短時間內上手,整體情況不斷惡化,持續半年左右才緩過勁來。

下面兩張截圖是我挑選的兩個團隊一周報警數的對比圖,前者的單日報警量最高是 55348 條,後者單日的報警量最高為 34 條,兩者相差 1600 倍,而前者才是國內很多網際網路運維團隊的真實寫照。

在管理大規模集群的情況下,究竟有多少報警量才是合理的呢?Google SRE 每周只有十條報警,如果超過十條,說明沒有把無效報警過濾掉(Google SRE 僅負責 SLA 要求為 99.99% 的服務)。筆者所在的團隊要求則是,每周至多兩晚有報警,單日報警量不能超過 50 條(比 Google SRE 放水好多啊)。

通過控制單日報警數量,嚴格約束夜間報警天數,確保最少不低於四人參與值班,筆者所在的團隊,近幾年來,不僅少有因為值班壓力而離職的同學,而且我們每年都能持續招聘到 985 前 20 名學校的多個研究生。那麼,怎麼做到呢,以下是筆者的一些經驗分享。

運維工程角度看報警優化

報警值班和報警升級

基於值班表,每天安排兩人進行值班處理報警,將值班壓力從全團隊壓縮在兩人範圍內,從而讓團隊能夠有足夠的時間和人力進行優化工作。同時,為了避免兩個值班人員都沒有響應報警,可以使用報警升級功能,如果一個報警在 5min 內值班人員均未響應,或者 15min 內未處理完畢,或者有嚴重故障發生,都可以將報警進行升級,通告團隊其他成員協助處理。

如果公司的監控系統暫不支持值班表功能,則通過人工定期修改報警接收人的方式進行。而對於監控系統不支持報警升級的問題,通過自行開發腳本的方式,也能在一定程度上得到解決。也可以將報警簡訊發送至商業平台來實現。總之一句話,辦法總比問題多。

對於報警值班人員,需要隨時攜帶筆記本以方便處理服務故障,這個要求,和報警數量多少以及報警的自動化處理程度並無關係,僅和服務重要性有關。對於節假日依然需要值班的同學,公司或者部門也應該儘量以各種方式進行補償。

基於重要性不同,分級應對

一個問題請大家思考一下,如果線上的伺服器全部掉電後以簡訊方式通知值班人員,那麼線上一台機器的根分區打滿,也通過簡訊來通知是否有必要。

上述的問題在日常工作也屢屢發生,對於問題、異常和故障,我們採取了同樣的處理方式,因此產生了如此多的無效報警。

Google SRE 的實踐則是將監控系統的輸出分為三類,報警,工單和記錄。SRE 的要求是所有的故障級別的報警,都必須是接到報警,有明確的非機械重複的事情要做,且必須馬上就得做,才能叫做故障級別的報警。其他要麼是工單,要麼是記錄。

在波音公司裝配多個發動機的飛機上,一個發動機熄火的情況只會產生一個」提醒「級別的警示(最高級別是警報,接下來依次是警告,提醒,建議),對於各種警示,會有個檢查清單自動彈出在中央螢幕上,以引導飛行員找到解決方案。如果是最高級別的警報,則會以紅色信息,語音警報,以及飛機操縱杆的劇烈震動來提示。如果這時你什麼都不做,飛機將會墜毀。

故障自愈

重啟作為單機預案,在很多業務線,可以解決至少 50% 的報警。沒有響應,重啟試試,請求異常,重啟試試,資源占用異常,重啟試試,各種問題,重啟都屢試不爽。

換言之,針對簡單場景具有明確處置方案的報警,自動化是一個比較好的解決方案,能夠將人力從大量重複的工作中解放出來。

自動化處理報警的過程中,需要注意以下問題:

  • 自動化處理比例不能超過服務的冗餘度(默認串行處理最為穩妥)
  • 不能對同一個問題在短時間內重複多次的自動化處理(不斷重啟某個機器上的特定進程)
  • 在特定情況下可以在全局範圍內快速終止自動化處理機制
  • 儘量避免高危操作(如刪除操作,重啟伺服器等操作)
  • 每次執行操作都需要確保上一個操作的結果和效果收集分析完畢(如果一個服務重啟需要 10min)

報警儀錶盤,持續優化 TOP-3 的報警

如下圖示,全年 TOP-3 的報警量占比達到 30%,通過對 TOP-3 的報警安排專人進行跟進優化,可以在短時間大幅降低報警量。

TOP-3 只是報警儀錶盤數據分析的典型場景之一,在 TOP-3 之後,還可以對報警特特徵進行分析,如哪些模塊的報警最多,哪些機器的報警最多,哪個時間段的報警最多,哪種類型的報警最多,進而進行細粒度的優化。

同時,報警儀錶盤還需要提供報警視圖的功能,能夠基於各種維度展示當前有哪些報警正在發生,從而便於當短時間內收到大量報警,或者是報警處理中的狀態總覽,以及報警恢復後的確認等。

基於時間段分而治之

下圖是國內非常典型的一類流量圖,流量峰值在每天晚上,流量低谷在每天凌晨。從冗餘度角度來分析,如果在流量峰值有 20% 的冗餘度,那麼在流量低谷,冗餘度至少為 50%。基於冗餘度的變換,相應的監控策略的閾值,隨機也應該發生一系列的變化。

舉例來說,在高峰期,可能一個服務故障 20% 的實例,就必須介入處理的話,那麼在低谷期,可能故障 50% 的實例,也不需要立即處理,依賴於報警自動化處理功能,逐步修復即可。

在具體的實踐中,一種比較簡單的方式就是,在流量低谷期,僅接收故障級別的報警,其餘報警轉為靜默方式或者是自動化處理方式,在流量高峰期來臨前幾個小時,重新恢復,這樣即使流量低谷期出現一些嚴重隱患,依然有數小時進行修復。這種方式之所以大量流行,是因為該策略能夠大幅減少凌晨的報警數量,讓值班人員能夠正常休息。

報警周期優化,避免瞬報

在監控趨勢圖中,會看到偶發的一些毛刺或者抖動,這些毛刺和抖動,就是造成瞬報的主要原因。這些毛刺和抖動,至多定義為異常,而非服務故障,因此應該以非緊急的通知方式進行。

以 CPU 瞬報為例,如果設置採集周期為 10s,監控條件為 CPU 使用率大於 90% 報警,如果設置每次滿足條件就報警,那麼就會產生大量的報警。如果設置為連續 5 次滿足條件報警,或者連續的 10 次中有 5 次滿足條件就報警,則會大幅減少無效報警。對於重要服務,一般建議為在 3min 內,至少出現 5 次以上異常,再發送報警較為合理。

提前預警,防患於未然

對於很多有趨勢規律的場景,可以通過提前預警的方式,降低問題的緊迫程度和嚴重性。下圖是兩台機器一周內的磁碟使用率監控圖,可以預見,按照目前的增長趨勢,必然會在某一個時間點觸發磁碟剩餘空間 5% 的報警,可以在剩餘空間小於 10% 的時候,通過工單或者其他非緊急方式提醒,在工作時間段內,相對從容的處理完畢即可,畢竟 10% 到 5% 還是需要一個時間過程的。

日常巡檢

提前預警面向的是有規律的場景,而日常巡檢,還可以發現那些沒有規律的隱患。以 CPU 使用率為例進行說明,近期的一個業務上線後,CPU 使用率偶發突增的情況,但是無法觸發報警條件(例如 3 分鐘內有 5 次使用率超過 70% 報警),因此無法通過報警感知。放任不管的話,只能是問題足夠嚴重了,才能通過報警發現。這個時候,如果每天有例行的巡檢工作,那麼這類問題就能夠提前發現,儘快解決,從而避免更加嚴重的問題發生。

比例為主,絕對值為輔

線上機器的規格不同,如果從絕對值角度進行監控,則無法適配所有的機器規格,勢必會產生大量無意義的報警。以磁碟剩餘空間監控為例,線上規格從 80GB 到 10TB 存在多種規格,從下圖表格看,比例比絕對值模式能更好的適配各種規格的場景(EXT4 文件系統的默認預留空間為 5%,也是基於比例設置的並可通過 tune2fs 進行調整)

對於一些特殊場景,同樣以磁碟剩餘空間為例進行說明,例如計算任務要求磁碟至少有 100GB 以上空間,以供存放臨時文件,那這個時候,監控策略就可以調整為:磁碟剩餘空間小於 5% 報警或磁碟剩餘空間絕對值小於 100GB 報警

Code Review

前人埋坑,後人挖坑。在解決存量問題的情況下,不對增量問題進行控制,那報警優化,勢必會進入螺旋式緩慢上升的過程,這對於報警優化這類項目來說,無疑是致命的。通過對新增監控的 Code Review,可以讓團隊成員快速達成一致認知,從而避免監控配置出現千人千面的情況出現。

沉澱標準和最佳實踐

僅僅做 Code Review 還遠遠不夠,一堆人開會,面對一行監控配置,大眼瞪小眼,對不對,為什麼不對,怎麼做更好?大家沒有一個標準,進而會浪費很多時間來進行不斷的討論。這時候,如果有一個標準,告訴大家什麼是好,那麼就有了評價標準,很多事情就比較容易做了。標準本身也是需要疊代和進步的,因此大家並不需要擔心說我的標準不夠完美。基於標準,再給出一些最佳的監控時間,那執行起來,就更加容易了。

以機器監控為例進行說明,機器監控必須覆蓋如下的監控指標,且閾值設定也給出了最佳實踐,具體如下:

  • CPU_IDLE < 10
  • MEM_USED_PERCENT > 90
  • NET_MAX_NIC_INOUT_PERCENT > 80 (網卡入口 / 出口流量最大使用率)
  • CPU_SERVER_LOADAVG_5 > 15
  • DISK_MAX_PARTITION_USED_PERCENT > 95 (磁碟各個分區最大使用率)
  • DISK_TOTAL_WRITE_KB(可選項)
  • DISK_TOTAL_READ_KB(可選項)
  • CPU_WAIT_IO(可選項)
  • DISK_TOTAL_IO_UTIL(可選項)
  • NET_TCP_CURR_ESTAB(可選項)
  • NET_TCP_RETRANS(可選項)

徹底解決問題不等於自動處理問題

舉兩個例子,大家來分析一下這個問題是否得到徹底解決:

  • 如果一個模塊經常崩掉,那麼我們可以通過添加一個定時拉起腳本來解決該問題。那這個模塊崩掉的問題解決了嗎?其實並沒有,你增加一個拉起腳本,只是說自己不用上機器去處理了而已,但是模塊為什麼經常崩掉這個問題,卻並沒有人去關注,更別提徹底解決了。
  • 如果一個機器經常出現 CPU_IDLE 報警,那麼我們可以將現在的監控策略進行調整,比如說,以前 5min 內出現 5 次就報警,現在可以調整為 10min 內出現 20 次再報警,或者直接刪除這個報警策略,或者將報警簡訊調整為報警郵件,或者各種類似的手段。但這個機器為什麼出現 CPU_IDLE 報警,卻並沒有人去關注,更別提解決了。

通過上面兩個例子,大家就理解,自動化處理問題不等於解決問題,掩耳盜鈴也不等於解決問題,什麼叫做解決問題,只有是找到問題的根本原因,並消滅之,才能確保徹底解決問題,輕易不會再次發生。還是上面自動拉起的例子,如果仔細分析後,發現是內存泄露導致的進程頻繁崩掉,或者是程序 bug 導致的 coredump,那麼解決掉這些問題,就能夠徹底避免了。

如何解決團隊內部的值班排斥情緒

每個運維團隊早晚都會面對團隊高工對值班工作的排斥,這也是人之常情。辛辛苦苦幹了幾年了,還需要值班,老婆孩子各種抱怨,有時候身體狀況也不允許了,都不容易。不同的團隊,解決方式不同,但有些解決方案,會讓人覺得,你自己都不想值班,還天天給我們打雞血說值班重要。更嚴重一些的,會讓團隊成員感受到不公平,憑什麼他可以不值班,下次是不是我們大家也可以找同樣的理由呢。

筆者的團隊是這樣明確說明的:

  • 保證值班人員數量不低於四人,如果短時間內低於四人,那麼就需要將二線工程師短暫加入一線值班工作中,為期不超過三個月
  • 對於希望退出值班列表的中級工程師,給三個月不值班時間,如果能將目前的報警簡訊數量優化 20%-50%,則可以退出值班序列,但如果情況反彈,則需要重回值班工作
  • 團隊達到一定級別的工程師,就可以轉二線,不參與日常值班工作,僅接收核心報警,且對核心報警的有效性負責,若服務故障核心報警未發出,則每次罰款兩百
  • 團隊負責人不參與值班工作,但需要對單日報警數量負責,如果當周的日報警數量大於要求值,則每次罰款兩百元。如果團隊成員數量低於四人時,則需要加入值班列表

最後

在團隊的報警量有了明顯減少後,就需要對報警的準確性和召回率進行要求了,從而才能持續的進行報警優化工作。所謂的準確性,也就是有報警必有損,而召回率呢,則是有損必有報警。

最後,祝願大家都不在因為值班工作而苦惱!