天天看點

OpenAI發文怒怼:對抗樣本怎麼不會對檢測産生幹擾了?尺度不變的對抗樣本轉換不變的對抗樣本

本文來自AI新媒體量子位(QbitAI)

上周,arXiv上的論文《NO Need to Worry about AdversarialExamples in Object Detection in Autonomous Vehicles》引起了廣泛讨論。作者Jiajun Lu等4人在論文中表示,自動駕駛汽車的檢測系統可能很難被抗樣本幹擾,因為它們捕捉到的圖像是多尺度、多角度和多視角的。

論文位址:

https://arxiv.org/abs/1707.03501

如果你還不了解對抗樣本,可以閱讀量子位的兩篇舊文:

<a href="http://mp.weixin.qq.com/s?__biz=MzIzNjc1NzUzMw==&amp;mid=2247485129&amp;idx=1&amp;sn=553ffff1d60951e01cd8f8cd9dabf135&amp;chksm=e8d3b1bbdfa438adbbde1da48f7e444dd5e1af8d62a7a1ef49b66562c18683e877ec204b1274&amp;scene=21#wechat_redirect" target="_blank">想騙過人臉識别?一塊錢就夠了(附送幾組騙AI的方法+論文)</a>

可能對上述說法有些不服,昨天,OpenAI在官方部落格中怒怼這個觀點。量子位将OpenAI的“辯詞”編譯整理,與大家分享。

OpenAI發文怒怼:對抗樣本怎麼不會對檢測産生幹擾了?尺度不變的對抗樣本轉換不變的對抗樣本

上面這隻小貓用标準彩打機列印出後,無論将它怎麼樣縮放及旋轉,仍會被分類器判定為顯示屏或桌上型電腦。

OpenAI希望通過進一步參數調試,去掉任何人眼可見的人工修飾痕迹——

開箱即用的對抗樣本在圖像轉換中确實不頂用了。

我們對上面這張貓咪圖檔做了一些小的改動,現在直接用ImageNet訓練的Inception v3來分類,會被識别成台式電腦。但隻要把它放大1.002倍,分類器将更可能将圖檔劃分到正确标簽tabby_cat(虎斑貓)——這就是一種不穩固的對抗樣本。

然而,我們想通過積極的嘗試來找到穩固的對抗樣本。因為已經有研究證明,實體世界中也有對抗樣本。

《實體世界中的對抗樣本》論文連結:

https://arxiv.org/pdf/1607.02533.pdf

通過投影梯度下降(Projected gradient descent)算法,可以找到能夠欺騙分類器的微小擾動,我們可以通過這種優化方法來建立對抗樣本。

我們不是為了找到從某個角度能夠形成“對抗”的點來優化,而是面向一整套随機分類器,它們會在對輸入進行分類前,随機調整它的尺寸。

這樣優化,我們能夠得到縮放不變(Scale-invariant adversarial examples)的,穩固的對抗樣本。

△ 一個尺度不變對抗樣本

即使我們隻修正與貓咪對應的像素,也同樣可以創造出一張無論怎樣縮放都能呈現“對抗”的擾動圖像。

通過對訓練擾動進行随機旋轉、轉換、縮放、噪聲和平移,我們可以用同樣的方法,生成無論怎樣轉換都呈現“對抗”的輸入。

以上是一個轉換不變對抗樣本(transformation-invariant adversarial example)。需要注意的是,這個樣本明顯比它的尺度不變樣本的擾動更大。這也不難了解,直覺上說,在轉換不變的樣本上,小對抗擾動更難察覺。

最後聲明一下,測試時我們對轉換進行了随機抽樣,以此證明我們的示例對整個轉換的分布是不變的。

【完】

本文作者:安妮

原文釋出時間:2017-07-18