大家好,歡迎來到專欄《AutoML》,在這個專欄中我們會講述AutoML技術在深度學習中的應用,這一期講述在優化目標設計中的應用。
作者&編輯 | 言有三
一個有效的損失函數在深度學習任務中起了關鍵作用,然而損失函數都是人為設定,不僅需要有經驗的人員進行反覆嘗試,也只能獲得次優的方案,如果可以讓模型自動對優化目標進行學習,將有望以更低的成本學習到更優的模型。
AM-LFS[1]將不同任務的損失函數用一種統一的形式表示,設計了一個搜索空間,利用了強化學習的思想來自動搜索合適的損失函數的超參數,使用雙層次優化框架來同時更新損失函數參數分布和網絡結構權重參數,流程如下:
首先作者將softmax及其一些變種統一到一個框架,這裡的τ和t都是函數。τ控制著樣本不均衡變換,t控制著類內與類間的度量距離比例。
因此搜索空間就可以是一個分段線性函數構成的參數空間,可以使用強化學習方法進行高效的搜索。
任務的損失包含了兩個,第一個是最小化任務的損失,第二個就是最大化模型獎勵,此處獎勵使用map等指標。具體的實現是在內層循環最小化任務的損失,外層循環最大化獎勵,前者學習模型權重,後者學習損失函數的超參數,步驟如下:
當然,研究者們還對衰減機制也進行了搜索學習,感興趣的讀者可以去閱讀原文。
Learning to teach with dynamic loss functions[2]也是致力於學習最優的損失函數,但是它不是基於強化學習,而是直接基於梯度下降。具體到圖像分類任務中softmax損失來說,需要學習一個sigmoid權重函數σ。
這可以看作是一種attention機制,狀態向量st包含當前時刻t,當前的訓練集和測試集以及每一個類的精度。
Learning Effective Loss Functions Efficiently[3]中則對正則化技術進行了學習,式子中的r就是一個分段線性凸函數。
Learning to teach[4]中不僅僅對損失進行了學習,對數據的使用等也進行了學習,感興趣的同學可以拓展閱讀。
[1] Li C, Lin C, Guo M, et al. AM-LFS: AutoML for Loss Function Search[J]. arXiv preprint arXiv:1905.07375, 2019.
[2] Wu L, Tian F, Xia Y, et al. Learning to teach with dynamic loss functions[C]//Advances in Neural Information Processing Systems. 2018: 6466-6477.
[3] Streeter M. Learning Effective Loss Functions Efficiently[J]. arXiv preprint arXiv:1907.00103, 2019.
[4] Yang Fan, Fei Tian, Tao Qin, Xiang-Yang Li, and Tie-Yan Liu. Learning to teach. In Interna-tional Conference on Learning Representations, 2018.
總結
優化目標的自動學習是一個非常具有價值的研究方向,將大大降低研究人員在參數調試上的工作,同時尋找到更有利於任務學習的目標。
下期預告:AutoML在模型優化中的應用。