每日最新頭條.有趣資訊

誰說只有VGG才能做風格遷移,ResNet也可以

邊策 發自 凹非寺

量子位 報導 | 公眾號 QbitAI

風格遷移是VGG網絡架構的拿手好戲。難道其他架構的CNN,比如ResNet就不可以嗎?可以,但是直接用它來做風格遷移,原來的風格仍然非常明顯,幾乎沒有遷移。

就像這樣:

有沒有一種方法,在經過調整後,可以把非VGG架構用於風格遷移呢?

之前的確有人嘗試過。但他們不是直接優化RGB空間中的輸出圖像,而是在傅立葉空間中對其進行優化,並在將圖像傳遞到神經網絡之前通過一系列變換(例如抖動、旋轉、縮放)來操作圖像。

通過去相關參數化和變換魯棒性,在非VGG架構上實現風格遷移

為何給圖像做一個簡單的旋轉、抖動處理,就能實現非VGG架構的風格遷移?有位日本的科技博主Reiichiro Nakano受到MIT上個月發表的一篇論文啟發,用實驗結果解答了這個問題。

這篇論文叫做《對抗樣本不是bug而是特徵》(Adversarial Examples Are Not Bugs, They Are Features)。下面就讓我們來分析分析。

魯棒與非魯棒特徵

MIT的文章提出,用於訓練分類器的圖像中存在所謂的“魯棒”和“非魯棒”特徵。

我們可以將魯棒的特徵視為人類用於分類的特徵,例如,大耳朵指向某些品種的狗,而黑收據紋指向斑馬。

另一方面,非魯棒特徵是人類對之不敏感的特徵,但是它們卻與整個訓練、測試數據集上的類別相關聯。

作者認為,可以通過用另一個類的非魯棒特徵替換圖像中的非魯棒特徵來產生對抗樣本。

有些圖像分類模型的抵抗性較差,給熊貓照片加上一點噪聲(非魯棒特徵),它就會把熊貓當成長臂猿:

論文中有一張圖表特別值得注意,它顯示了對抗樣本的可遷移性與學習非魯棒特徵能力之間的相關性。

於是有人推測,由於VGG無法像ResNet那樣捕獲圖像的非魯棒特徵,因此在圖像分類準確率上吃虧,卻能使VGG更好地進行風格遷移。

之前我們的問題得到了解釋:

圖像變換會削弱甚至破壞非魯棒特徵。經過優化後,CNN不再能夠可靠地利用非魯棒特徵來降低損失,因此不得不利用魯棒特徵,可能會對圖像變化產生更大的抵抗力(旋轉和抖動的耳朵仍然看起來像一個大耳朵)。

實驗

測試這個假設是相當簡單的:使用一個抵抗力強大(魯棒)的分類器進行風格遷移,看看會發生什麽。

博主對兩個不同條件訓練的ResNet-50模型進行比較。一個是MIT作者用魯棒特徵訓練的模型(已開源),另一個是博主自己訓練的常規ResNet-50模型(對非魯棒特徵敏感)。

此外,還有常規VGG-19風格轉換的圖片作為對比。

結果成功了!魯棒ResNet模型相比常規ResNet模型顯示出了巨大的改進。請記住,二者網絡架構完全相同,執行風格遷移的代碼完全相同,只是權重不同!

在VGG-19與魯棒的ResNet之間進行比較,會得到更有趣的結果。乍一看,魯棒ResNet模型生成的圖片大致與VGG-19相同。然而,仔細觀察卻發現,ResNet的輸出包含更多的噪點,偽造的痕跡更明顯一些。

目前還不清楚究竟是什麽原因導致這些痕跡。一種理論是它們是由不可分的核尺寸和卷積層中的步長引起的“棋盤偽影”(checkerboard artifacts),也有可能是由最大池化層的存在造成的。

這些偽影雖然存在問題,但似乎與對抗魯棒性在神經風格遷移中解決的問題大不相同。

結論

雖然這個實驗是因為觀察到VGG的一個特殊特徵而開始的,但它沒有對這種現象作出解釋。實際上,如果我們要接受這樣的理論,即對抗魯棒性是VGG能直接用於神經風格轉移的原因,我們肯定會在現有文獻中找到一些跡象表明VGG自然比其他架構更強大。

不幸的是,我們找不到任何支持這個論點的東西。

也許對抗魯棒性恰好修複或掩蓋非VGG架構在風格遷移中失敗的真正原因,即對抗魯棒性是有良好風格遷移能力的充分不必要條件

這位日本博主認為進一步研究VGG是未來工作一個非常有趣的方向。

未來的工作

最後,博主給出了一些未來工作的想法:

1、找出魯棒ResNet偽造痕跡明顯的原因,並嘗試修複它們。

2、嘗試使用超參數,尤其是用於風格和內容的圖層。

3、本文使用的魯棒ResNet模型來自Engstrom等人的成果。他們是在一組受限制的ImageNet上訓練,只有9個分類。在完整的ImageNet數據集上訓練分類器是否會產生更好的輸出。

傳送門

部落格地址:

https://reiinakano.com/2019/06/21/robust-neural-style-transfer.html

論文解讀地址:

http://gradientscience.org/adv/

魯棒ResNet-50模型:

https://github.com/MadryLab/robust_representations

Cloab地址:

https://colab.research.google.com/github/reiinakano/adversarially-robust-neural-style-transfer/blob/master/Robust_Neural_Style_Transfer.ipynb

獲得更多的PTT最新消息
按讚加入粉絲團