天天看點

阻止“TA們”監聽你,AI能做到嗎?

來源:學術頭條

你或許,甚至大機率遇到過這樣的情況:

當你打開手機中的某一款 App 時,第一眼看到的内容正是你幾分鐘前和朋友或者家人們談論的東西。第一次,你會覺得很驚訝。但時間久了,你就會覺得習以為常、見怪不怪了。

而其中作祟的元兇之一,就是如今已無處不在且時刻「偷聽」你的麥克風(Microphones),它們被嵌入手機、電視、手表等裝置中,實時将你的聲音傳輸到神經網絡和人工智能系統中,幫助推薦系統為你作出「定制化」的推送服務。

阻止“TA們”監聽你,AI能做到嗎?

(來源:Pixabay)

那麼,如何才能避免這樣的情況發生呢?網絡上有很多方法,比如放一首完全不相關的歌曲,将聲音調到最大,主動制造一些噪音;比如不授權長期開啟麥克風權限,而是選擇采取一次一授權的方式等。

如今,來自美國哥倫比亞大學的研究團隊提出了一種新方法:他們研發了一種人工智能系統,隻需要在房間内播放一種該系統産生的極為輕微的聲音,就可以避免「監聽」事件的發生。

也就是說,這一系統會把人們交談的聲音進行僞裝,在不影響正常對話的前提下,不被麥克風等監聽系統聽到。

相關研究論文以「Real-Time Neural Voice Camouflage」為題,已發表在預印本網站 arXiv 上。

而且,研究人員還表示,這種人工智能系統很容易部署在電腦、手機等硬體上,可以時時保護你的隐私。

用 AI 擊敗 AI

由人工智能利用的問題,要由人工智能來解決。

雖然該團隊幹擾麥克風等系統的成果理論上在人工智能領域是可行的,但要以足夠快的速度将其用于實際應用,仍然是一個艱難的挑戰。

問題在于,在某個特定時刻幹擾麥克風監聽人們談話的聲音,或許并不能幹擾接下來幾秒的談話。當人們說話時,他們的聲音會随着他們說出的不同單詞和語速而不斷變化,這些變化使得機器幾乎不可能跟上人說話的快節奏。

而在此次研究中,人工智能算法能夠通過預測一個人接下來要說的話的特點,有足夠的時間來産生合适的耳語(whisper)。

阻止“TA們”監聽你,AI能做到嗎?

(來源:Pixabay)

哥倫比亞大學計算機科學系助理教授 Carl Vondrick 表示,這一算法能夠以 80% 的效率阻止流氓麥克風聽清(人們的)對話,甚至在人們對流氓麥克風的位置等資訊毫無察覺的情況下,也能發揮作用。

為此,研究人員需要設計一種可以實時破壞神經網絡的算法,這種算法可以在說話時連續生成,并适用于一種語言的大部分詞彙。在以往的研究中,沒有一項工作可以同時滿足以上三個要求。

新算法使用了一種稱之為「預測攻擊」(predictive attacks)的信号,這種信号可以幹擾任何被自動語音識别模型訓練來轉錄的單詞。此外,當攻擊聲音在空中播放時,它們需要足夠大的音量來幹擾任何可能在遠處的流氓「竊聽」麥克風。攻擊聲音需要像聲音一樣傳播相同的距離。

該人工智能系統通過預測未來對信号或單詞的攻擊,以兩秒鐘的輸入語音為條件,實作了實時性能。

同時,研究團隊還對攻擊進行了優化,使其音量類似于正常的背景噪音,讓人們在房間内可以自然地交談,而不會被麥克風等系統監控。

此外,他們成功證明了這一方法在有自然環境噪聲和複雜形狀的真實房間中的有效性。

但 Vondrick 也表示,目前該系統還隻是對大多數英語單詞有效,他們正在将該算法應用到更多語言中。

我們能為 ethical AI 做些什麼?

繼續閱讀