防止暴力視訊傳播的關鍵是什麼?
在複活節的禮拜日,一名男子在俄亥俄州克裡夫蘭的一條街道上随機選擇槍殺了74歲的robert godwin sr,并把視訊放在社交媒體上。在錄像中,godwin被要求說出殺手的前女友的名字,并對着鏡頭說她就是他死的原因。
可悲的是,使用社交視訊表達惡意的例子不止于此。視訊應用的易用性已經降低了權限标準,我們看過伊斯蘭國家砍頭、強奸、自殺的視訊,甚至還看到過兇手遠端恐吓一個與他結束關系的女人。
可以預見的是,這一事件引發了群眾對 facebook的批評浪潮。在阻止這類視訊方面該公司應該承擔什麼責任?人們很容易會歸咎到播放視訊的平台的技術手段,但是這不僅是對技術能力的過分天真,而且也忽略了誰該擔責的不安事實。
可以肯定的是,facebook 已經不再光芒四射了。這部視訊引起關注的初始原始是其謀殺的“内容”。據報道至少兩個小時後視訊才被删除。該公司從視訊上獲得豐厚利潤,而不采取任何審查畫面的相關措施(它不受傳統廣播相同的限制),這一行為非常不妥。
新興的研究可謂雪上加霜,其表明這樣的畫面可能會導緻更多的謀殺。亞利桑那州國家大學的sherry towers說:“謀殺會傳染,這一點也不會讓我感到驚訝。”他發現了可怕的行為傳播的廣泛程度和模仿暴力的可能性之間存在着某種關系。“那些精神不正常的人可能會認為這(那)是他們想做的事情。”
ai 審查
facebook 的大多數解決方案都是技術性的。例如,人們點選釋出資訊會有3秒延遲以避免意外。或選擇更好的算法可以在共享之前标記和移除内容。
毫無疑問,這是有幫助的。rand 公司研究 isis 宣傳視訊如何在網上傳播的行為科學家 todd helmus說,暴力影像傳到網上後,如果迅速撤除将有助防止其流行趨勢。例如,helmus說,在2014年和2015年平台開始删除isis宣傳暴力源使用者,期間twitter上支援isis的人數急劇下降。
監管facebook上18.6億使用者的廣泛暴力内容是困難的,這導緻了ai 的介入以及群眾對問題視訊進入網絡前審查的呼籲。helmus說:“你可以開發機器學習能力來檢測視訊和圖像的單詞或短語,例如isis旗幟,然後将它們清除。”
撇開現在的事實,要求ai監督facebook的暴力視訊等價于要一個魔法咒語,我們真的希望所有的暴力視訊都事先被一個算法剔除嗎?他說:“一些暴力的視訊不應該被移除。”去年,diamond reynolds上傳了一個她的男友philando castile在他的車裡找身份證時被警察擊中身亡的視訊。該視訊引發了抗議并可能有助于對警務人員的定罪。在目擊警察暴力或例如提供化學戰争影響的證詞的案例中,視訊是引起重視和獲得權力負責人支援的關鍵。philando castile的視訊播出之後mark zuckerberg宣稱“我們本周看到的影像生動而令人心碎,他們點燃了我們的社群數百萬成員心中的恐懼。”
旁觀者效應
誰能判斷暴力視訊的去留呢?目前ai肯定沒有能力做出精細的區分; facebook 的審查仍然無法區分哺乳的母親、在家分娩和色情,或标志性的戰争攝影和兒童剝削的照片。與解讀照片意圖相比這項任務比較容易——甚至對于人類監管者來說,也會感到糾結。
未來,無論算法多麼強大,審查的問題可能更多地依賴于人性而不是技術。towers說:“媒體關于大屠殺或類似謀殺案的報道之是以如此受歡迎,是因為公衆渴望了解它。尤其是當他們在 facebook上瘋傳,這意味着人們正在積極分享它。我們為什麼要這樣做呢?”
甚至在facebook删除視訊後,視訊在其他平台上也在流傳。在其中一個文章中,視訊有160萬浏覽量。towers說:“我們是被這種現象所吸引了。”
facebook說,延遲删除這些鏡頭是因為當第一個使用者報告内容有問題事就已經過了很久,這可能會再次暗示我們——旁觀者效應是衆所周知的,它會降低我們幹預緊急情況的動力。我們觀看這種圖像的欲望掩蓋了我們做正确的事情并報告它的本能。
這可能會給 facebook 應該如何應對問題提供一個線索。最終,facebook 需要對網站上的内容負責,并通過雇傭更多的員工承擔監管的角色,而不是把問題推給名義上的ai或監管彼此内容的無報酬的志願者身上。說facebook 隻是問題的一部分并沒有讓該公司擺脫困境。我們也要承擔一些傳播内容的責任,而且沒有應用程式可以解決這一問題。
原文釋出時間為:2017-5-5
本文來自雲栖社群合作夥伴“大資料文摘”,了解相關資訊可以關注“bigdatadigest”微信公衆号