每日最新頭條.有趣資訊

一種對噪音標注魯棒的基於信息論的損失函數

機器之心經授權轉載

來源:北京大學前沿計算研究中心

本文是第三十三屆神經信息處理系統大會(NeurIPS 2019)入選論文《L_DMI:一種對噪音標注魯棒的基於信息論的損失函數(L_DMI: A Novel Information-theoretic Loss Function for Training Deep Nets Robust to Label Noise)》的解讀。該論文由北京大學前沿計算研究中心助理教授孔雨晴博士和北京大學數字視頻編解碼技術國家工程實驗室教授、前沿計算研究中心副主任王亦洲共同指導,由 2016 級圖靈班大學生許逸倫、曹芃(共同一作)合作完成。

論文鏈接:https://arxiv.org/abs/1909.03388

代碼鏈接:https://github.com/Newbeeer/L_DMI

簡介

噪音標注(noisy label)是機器學習領域的一個熱門話題,這是因為標注大規模的數據集往往費時費力,儘管在眾包平台上獲取數據更加快捷,但是獲得的標注往往是有噪音的,直接在這樣的數據集上訓練會損害模型的性能。許多之前處理噪音標注的工作僅僅對特定的噪音模式(noise pattern)魯棒,或者需要額外的先驗信息,比如需要事先對噪音轉移矩陣(noise transition matrix)有較好的估計。我們提出了一種新的損失函數,,它是基於一種新的互信息,DMI(Determinant based Mutual Information)設計的。DMI 是一種對香農互信息(Shannon Mutual Information)的推廣,它不僅像香農互信息一樣滿足信息單調性(information-monotone),還滿足相對不變性(relatively-invariant)等性質。是首個不僅對噪音模式沒有限制,並且能夠無需先驗信息而直接應用到任何現存的用於分類的神經網絡中的損失函數。實際上,當噪音滿足條件獨立(conditional independence)假設時,即噪音標簽和具體數據條件獨立時,我們有下列等式成立:

這意味著,理論上,用作為損失函數在噪音標注上訓練分類器和在正確標注(clean label)上訓練分類器沒有區別。

之前,人們使用的損失函數僅僅對特定的噪音模式魯棒。原因之一,是它們往往都是基於距離的(distance-based),比如 cross entropy loss,0-1 loss,MAE loss 等等,也就是說,這些損失函數定義的是分類器的輸出和標簽之間的一種距離。因此,如果標注者對某一分類具有很強的傾向,比如一個能力較低的標注者在標注醫療數據時,因為他知道大部分數據是良性的,所以他把所有良性的數據都標成了良性的,並且把 90% 的惡性的數據也標成了良性的。這樣,我們收集到的標簽就極其傾斜於良性這個分類,也就是有了對角線不主導(diagonally non-dominant)的噪音模式。在這種情況下,如果使用基於距離的損失函數,那麽一個把所有數據都分類到良性的分類器就會比一個把所有數據都分類到真實標簽的分類器有更小的損失函數值。

而不同於那些基於距離的損失函數,我們使用的是基於信息論的損失函數(information-theoretic loss function),即我們希望輸出和標簽之間有最高的互信息的分類器具有最低的損失函數值。這樣,那個把所有數據都分類到良性的分類器由於和標簽的互信息為零,就會有很高的損失函數值而被淘汰。但僅這一點是不夠的,實際上我們希望的是找到一個信息測度 I,滿足下列性質:

也就是說,這個信息測度在噪音標注(noisy label)上對分類器的序應該與其在正確標注(clean label)上對分類器的序相同。然而,香農的互信息不滿足以上性質。

本文方法

我們使用了基於兩個離散隨機變量的聯合分布矩陣的行列式的互信息 DMI[1]。它不僅保留有香農互信息的一些性質,還能夠滿足我們需要的上述性質。它的正式定義為:

定義:(基於行列式的互信息)給定兩個離散隨機變量 W_1,W_2,我們定義 W_1,W_2 間基於行列式的互信息(Determinant based mutual information)如下:

其中,是 W_1,W_2 聯合分布的矩陣表示。

即 DMI 可以看成是兩個取值範圍相同的離散隨機變量的聯合分布矩陣的行列式的絕對值。

DMI 之所以滿足上述性質,是因為如下定理 [1]:

定理(DMI 的性質):DMI 非負,對稱並且滿足信息單調性。此外,它滿足相對不變性:對於任意的隨機變量 W_1,W_2,W_3,當 W_3 與 W_2 關於 W_1 條件獨立,那麽有:

其中,

由於實際中變化的只有分類器的輸出 W_2, 因此矩陣 T 是固定的。DMI 的這種代數結構使得我們能夠在噪聲信道 (T) 固定的情況下,分別衡量分類器輸出 W_2 與信道輸入 W_1、信道輸出 W_3 的 DMI。由於 T 固定,因此 DMI 自然滿足上文提到的分類器的序的性質。我們在論文的主定理中證明了這個代數結構使得 DMI 所對應的損失函數能夠對噪聲魯棒。

基於 DMI,我們定義了的一種易於優化 DMI 的損失函數:

其中,是 h(X) 和的聯合分布;是的 C×C 的矩陣形式。h(X) 的的隨機性來自於 h 和隨機變量 X。

即分類器的輸出 h(X) 與噪音標注之間的 -log-DMI。在實際中,DMI 可以通過矩陣乘積快速計算,如下圖所示:

在數據 X 和噪音標注在真實標簽 Y 的條件下相互獨立和噪音轉移矩陣滿秩條件下,由上面定理的結論,我們在文章的主定理中證明了是合理的(legal)、噪音魯棒的(noise-robust)和信息單調的(information-monotone)。其中噪音魯棒這一重要性質能夠使得我們用作為損失函數時,在帶噪音標簽和在不帶噪音的標簽的數據集上訓練得到的最優分類器相同,也滿足文首所提的性質。

實驗結果

我們的方法在人工合成的數據集上和真實的數據集(Clothing 1M)上都取得了 state-of-the-art 的結果,並且在對角線不主導(diagonally non-dominant)的噪聲模式(noise pattern)中優勢明顯。

參考文獻:[1] Y. Kong, "Dominantly Truthful Multi-task Peer Prediction with a Constant Number of Tasks," to appear in SODA, 2020.

機器之心「SOTA模型」22大領域、127個任務,機器學習 SOTA 研究一網打盡。

獲得更多的PTT最新消息
按讚加入粉絲團