天天看點

“N号房”事件新進展!多個女星“色情換臉”聊天室曝光

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”事件新進展!多個女星“色情換臉”聊天室曝光

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

“N号房”事件新進展!多個女星“色情換臉”聊天室曝光

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

研究韓流和全球文化的南加州大學安娜堡新聞與傳播學院的實踐助理教授Hye Jin Lee在接受外媒采訪時表示,他懷疑是南韓女偶像的“黑粉”制作了色情換臉視訊。對偶像而言,聲譽和形象至關重要。通過色情換臉視訊玷污她們的形象,能讓黑粉獲得充分的滿足。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

研究韓流和全球文化的南加州大學安娜堡新聞與傳播學院的實踐助理教授Hye Jin Lee在接受外媒采訪時表示,他懷疑是南韓女偶像的“黑粉”制作了色情換臉視訊。對偶像而言,聲譽和形象至關重要。通過色情換臉視訊玷污她們的形象,能讓黑粉獲得充分的滿足。

在此次N号房事件中,某女子偶像歌手所屬公司的從業人員就在接受韓媒采訪時無奈表示,網絡平台的内容流動非常頻繁,很難确定生産者和傳播者。是以,即使他們知道藝人的色情換臉照片在網絡上流傳,也隻能“放手不管”。“如果要強硬地應對,歌手的形象也将受損,在很多方面都令人頭疼。”他說。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

研究韓流和全球文化的南加州大學安娜堡新聞與傳播學院的實踐助理教授Hye Jin Lee在接受外媒采訪時表示,他懷疑是南韓女偶像的“黑粉”制作了色情換臉視訊。對偶像而言,聲譽和形象至關重要。通過色情換臉視訊玷污她們的形象,能讓黑粉獲得充分的滿足。

在此次N号房事件中,某女子偶像歌手所屬公司的從業人員就在接受韓媒采訪時無奈表示,網絡平台的内容流動非常頻繁,很難确定生産者和傳播者。是以,即使他們知道藝人的色情換臉照片在網絡上流傳,也隻能“放手不管”。“如果要強硬地應對,歌手的形象也将受損,在很多方面都令人頭疼。”他說。

不隻是換臉,AI技術已被深度應用于色情産業

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

研究韓流和全球文化的南加州大學安娜堡新聞與傳播學院的實踐助理教授Hye Jin Lee在接受外媒采訪時表示,他懷疑是南韓女偶像的“黑粉”制作了色情換臉視訊。對偶像而言,聲譽和形象至關重要。通過色情換臉視訊玷污她們的形象,能讓黑粉獲得充分的滿足。

在此次N号房事件中,某女子偶像歌手所屬公司的從業人員就在接受韓媒采訪時無奈表示,網絡平台的内容流動非常頻繁,很難确定生産者和傳播者。是以,即使他們知道藝人的色情換臉照片在網絡上流傳,也隻能“放手不管”。“如果要強硬地應對,歌手的形象也将受損,在很多方面都令人頭疼。”他說。

不隻是換臉,AI技術已被深度應用于色情産業

在AI換臉的洶湧暗潮中,女性成為最大的受害者。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

研究韓流和全球文化的南加州大學安娜堡新聞與傳播學院的實踐助理教授Hye Jin Lee在接受外媒采訪時表示,他懷疑是南韓女偶像的“黑粉”制作了色情換臉視訊。對偶像而言,聲譽和形象至關重要。通過色情換臉視訊玷污她們的形象,能讓黑粉獲得充分的滿足。

在此次N号房事件中,某女子偶像歌手所屬公司的從業人員就在接受韓媒采訪時無奈表示,網絡平台的内容流動非常頻繁,很難确定生産者和傳播者。是以,即使他們知道藝人的色情換臉照片在網絡上流傳,也隻能“放手不管”。“如果要強硬地應對,歌手的形象也将受損,在很多方面都令人頭疼。”他說。

不隻是換臉,AI技術已被深度應用于色情産業

在AI換臉的洶湧暗潮中,女性成為最大的受害者。

一個對比鮮明的事實是,根據網絡安全公司Deeptrace的統計,也有不少男性藝人、企業家甚至是政客被制作進娛樂性質的換臉視訊裡,比如Facebook創始人紮克伯格、美國總統特朗普。然而,色情換臉視訊中的被換臉對象,是清一色的女性。

“N号房”事件新進展!多個女星“色情換臉”聊天室曝光

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

研究韓流和全球文化的南加州大學安娜堡新聞與傳播學院的實踐助理教授Hye Jin Lee在接受外媒采訪時表示,他懷疑是南韓女偶像的“黑粉”制作了色情換臉視訊。對偶像而言,聲譽和形象至關重要。通過色情換臉視訊玷污她們的形象,能讓黑粉獲得充分的滿足。

在此次N号房事件中,某女子偶像歌手所屬公司的從業人員就在接受韓媒采訪時無奈表示,網絡平台的内容流動非常頻繁,很難确定生産者和傳播者。是以,即使他們知道藝人的色情換臉照片在網絡上流傳,也隻能“放手不管”。“如果要強硬地應對,歌手的形象也将受損,在很多方面都令人頭疼。”他說。

不隻是換臉,AI技術已被深度應用于色情産業

在AI換臉的洶湧暗潮中,女性成為最大的受害者。

一個對比鮮明的事實是,根據網絡安全公司Deeptrace的統計,也有不少男性藝人、企業家甚至是政客被制作進娛樂性質的換臉視訊裡,比如Facebook創始人紮克伯格、美國總統特朗普。然而,色情換臉視訊中的被換臉對象,是清一色的女性。

非色情視訊中女性僅占39%,色情視訊中卻占100%。圖/AI前哨站

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

研究韓流和全球文化的南加州大學安娜堡新聞與傳播學院的實踐助理教授Hye Jin Lee在接受外媒采訪時表示,他懷疑是南韓女偶像的“黑粉”制作了色情換臉視訊。對偶像而言,聲譽和形象至關重要。通過色情換臉視訊玷污她們的形象,能讓黑粉獲得充分的滿足。

在此次N号房事件中,某女子偶像歌手所屬公司的從業人員就在接受韓媒采訪時無奈表示,網絡平台的内容流動非常頻繁,很難确定生産者和傳播者。是以,即使他們知道藝人的色情換臉照片在網絡上流傳,也隻能“放手不管”。“如果要強硬地應對,歌手的形象也将受損,在很多方面都令人頭疼。”他說。

不隻是換臉,AI技術已被深度應用于色情産業

在AI換臉的洶湧暗潮中,女性成為最大的受害者。

一個對比鮮明的事實是,根據網絡安全公司Deeptrace的統計,也有不少男性藝人、企業家甚至是政客被制作進娛樂性質的換臉視訊裡,比如Facebook創始人紮克伯格、美國總統特朗普。然而,色情換臉視訊中的被換臉對象,是清一色的女性。

非色情視訊中女性僅占39%,色情視訊中卻占100%。圖/AI前哨站

這些女性的換臉視訊被數以萬計的人浏覽和品評,自己卻可能毫不知情。一些并非藝人的普通女性在社交網站釋出的生活照,也被盜取和利用。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

研究韓流和全球文化的南加州大學安娜堡新聞與傳播學院的實踐助理教授Hye Jin Lee在接受外媒采訪時表示,他懷疑是南韓女偶像的“黑粉”制作了色情換臉視訊。對偶像而言,聲譽和形象至關重要。通過色情換臉視訊玷污她們的形象,能讓黑粉獲得充分的滿足。

在此次N号房事件中,某女子偶像歌手所屬公司的從業人員就在接受韓媒采訪時無奈表示,網絡平台的内容流動非常頻繁,很難确定生産者和傳播者。是以,即使他們知道藝人的色情換臉照片在網絡上流傳,也隻能“放手不管”。“如果要強硬地應對,歌手的形象也将受損,在很多方面都令人頭疼。”他說。

不隻是換臉,AI技術已被深度應用于色情産業

在AI換臉的洶湧暗潮中,女性成為最大的受害者。

一個對比鮮明的事實是,根據網絡安全公司Deeptrace的統計,也有不少男性藝人、企業家甚至是政客被制作進娛樂性質的換臉視訊裡,比如Facebook創始人紮克伯格、美國總統特朗普。然而,色情換臉視訊中的被換臉對象,是清一色的女性。

非色情視訊中女性僅占39%,色情視訊中卻占100%。圖/AI前哨站

這些女性的換臉視訊被數以萬計的人浏覽和品評,自己卻可能毫不知情。一些并非藝人的普通女性在社交網站釋出的生活照,也被盜取和利用。

事實上,不隻是AI換臉,還有其他AI技術被深度應用于色情産業。圖像識别和增強算法的進步,讓AI有了補全畫面缺失部分的能力,由此衍生出“脫衣”或“去碼”工具。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

研究韓流和全球文化的南加州大學安娜堡新聞與傳播學院的實踐助理教授Hye Jin Lee在接受外媒采訪時表示,他懷疑是南韓女偶像的“黑粉”制作了色情換臉視訊。對偶像而言,聲譽和形象至關重要。通過色情換臉視訊玷污她們的形象,能讓黑粉獲得充分的滿足。

在此次N号房事件中,某女子偶像歌手所屬公司的從業人員就在接受韓媒采訪時無奈表示,網絡平台的内容流動非常頻繁,很難确定生産者和傳播者。是以,即使他們知道藝人的色情換臉照片在網絡上流傳,也隻能“放手不管”。“如果要強硬地應對,歌手的形象也将受損,在很多方面都令人頭疼。”他說。

不隻是換臉,AI技術已被深度應用于色情産業

在AI換臉的洶湧暗潮中,女性成為最大的受害者。

一個對比鮮明的事實是,根據網絡安全公司Deeptrace的統計,也有不少男性藝人、企業家甚至是政客被制作進娛樂性質的換臉視訊裡,比如Facebook創始人紮克伯格、美國總統特朗普。然而,色情換臉視訊中的被換臉對象,是清一色的女性。

非色情視訊中女性僅占39%,色情視訊中卻占100%。圖/AI前哨站

這些女性的換臉視訊被數以萬計的人浏覽和品評,自己卻可能毫不知情。一些并非藝人的普通女性在社交網站釋出的生活照,也被盜取和利用。

事實上,不隻是AI換臉,還有其他AI技術被深度應用于色情産業。圖像識别和增強算法的進步,讓AI有了補全畫面缺失部分的能力,由此衍生出“脫衣”或“去碼”工具。

去年6月下旬,AI軟體“DeepNude”現身網絡。它以人工智能算法為基礎,可以識别并“删去”照片中人物的衣服,進而把正常照片轉為“裸照”。由于争議太大,這款軟體在上線數天後就從官網火速下架。但南都記者調查發現,那些已被下載下傳和儲存的軟體資源,仍然在悄然流傳。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

研究韓流和全球文化的南加州大學安娜堡新聞與傳播學院的實踐助理教授Hye Jin Lee在接受外媒采訪時表示,他懷疑是南韓女偶像的“黑粉”制作了色情換臉視訊。對偶像而言,聲譽和形象至關重要。通過色情換臉視訊玷污她們的形象,能讓黑粉獲得充分的滿足。

在此次N号房事件中,某女子偶像歌手所屬公司的從業人員就在接受韓媒采訪時無奈表示,網絡平台的内容流動非常頻繁,很難确定生産者和傳播者。是以,即使他們知道藝人的色情換臉照片在網絡上流傳,也隻能“放手不管”。“如果要強硬地應對,歌手的形象也将受損,在很多方面都令人頭疼。”他說。

不隻是換臉,AI技術已被深度應用于色情産業

在AI換臉的洶湧暗潮中,女性成為最大的受害者。

一個對比鮮明的事實是,根據網絡安全公司Deeptrace的統計,也有不少男性藝人、企業家甚至是政客被制作進娛樂性質的換臉視訊裡,比如Facebook創始人紮克伯格、美國總統特朗普。然而,色情換臉視訊中的被換臉對象,是清一色的女性。

非色情視訊中女性僅占39%,色情視訊中卻占100%。圖/AI前哨站

這些女性的換臉視訊被數以萬計的人浏覽和品評,自己卻可能毫不知情。一些并非藝人的普通女性在社交網站釋出的生活照,也被盜取和利用。

事實上,不隻是AI換臉,還有其他AI技術被深度應用于色情産業。圖像識别和增強算法的進步,讓AI有了補全畫面缺失部分的能力,由此衍生出“脫衣”或“去碼”工具。

去年6月下旬,AI軟體“DeepNude”現身網絡。它以人工智能算法為基礎,可以識别并“删去”照片中人物的衣服,進而把正常照片轉為“裸照”。由于争議太大,這款軟體在上線數天後就從官網火速下架。但南都記者調查發現,那些已被下載下傳和儲存的軟體資源,仍然在悄然流傳。

可以去除畫面中馬賽克的“去碼”技術,如今也相當成熟,導緻大量所謂“無碼”視訊在網上流傳。去年8月,一段以日本人氣女優三上悠亞為主角的“無碼破壞版”視訊引發熱議,三上悠亞通過Instagram公開回應:“這次的無碼影片流出變成大家讨論的話題,但是很抱歉~這是AI電腦合成的喔。”

“N号房”事件新進展!多個女星“色情換臉”聊天室曝光

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

研究韓流和全球文化的南加州大學安娜堡新聞與傳播學院的實踐助理教授Hye Jin Lee在接受外媒采訪時表示,他懷疑是南韓女偶像的“黑粉”制作了色情換臉視訊。對偶像而言,聲譽和形象至關重要。通過色情換臉視訊玷污她們的形象,能讓黑粉獲得充分的滿足。

在此次N号房事件中,某女子偶像歌手所屬公司的從業人員就在接受韓媒采訪時無奈表示,網絡平台的内容流動非常頻繁,很難确定生産者和傳播者。是以,即使他們知道藝人的色情換臉照片在網絡上流傳,也隻能“放手不管”。“如果要強硬地應對,歌手的形象也将受損,在很多方面都令人頭疼。”他說。

不隻是換臉,AI技術已被深度應用于色情産業

在AI換臉的洶湧暗潮中,女性成為最大的受害者。

一個對比鮮明的事實是,根據網絡安全公司Deeptrace的統計,也有不少男性藝人、企業家甚至是政客被制作進娛樂性質的換臉視訊裡,比如Facebook創始人紮克伯格、美國總統特朗普。然而,色情換臉視訊中的被換臉對象,是清一色的女性。

非色情視訊中女性僅占39%,色情視訊中卻占100%。圖/AI前哨站

這些女性的換臉視訊被數以萬計的人浏覽和品評,自己卻可能毫不知情。一些并非藝人的普通女性在社交網站釋出的生活照,也被盜取和利用。

事實上,不隻是AI換臉,還有其他AI技術被深度應用于色情産業。圖像識别和增強算法的進步,讓AI有了補全畫面缺失部分的能力,由此衍生出“脫衣”或“去碼”工具。

去年6月下旬,AI軟體“DeepNude”現身網絡。它以人工智能算法為基礎,可以識别并“删去”照片中人物的衣服,進而把正常照片轉為“裸照”。由于争議太大,這款軟體在上線數天後就從官網火速下架。但南都記者調查發現,那些已被下載下傳和儲存的軟體資源,仍然在悄然流傳。

可以去除畫面中馬賽克的“去碼”技術,如今也相當成熟,導緻大量所謂“無碼”視訊在網上流傳。去年8月,一段以日本人氣女優三上悠亞為主角的“無碼破壞版”視訊引發熱議,三上悠亞通過Instagram公開回應:“這次的無碼影片流出變成大家讨論的話題,但是很抱歉~這是AI電腦合成的喔。”

三上悠亞公開回應。圖自Instagram。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

研究韓流和全球文化的南加州大學安娜堡新聞與傳播學院的實踐助理教授Hye Jin Lee在接受外媒采訪時表示,他懷疑是南韓女偶像的“黑粉”制作了色情換臉視訊。對偶像而言,聲譽和形象至關重要。通過色情換臉視訊玷污她們的形象,能讓黑粉獲得充分的滿足。

在此次N号房事件中,某女子偶像歌手所屬公司的從業人員就在接受韓媒采訪時無奈表示,網絡平台的内容流動非常頻繁,很難确定生産者和傳播者。是以,即使他們知道藝人的色情換臉照片在網絡上流傳,也隻能“放手不管”。“如果要強硬地應對,歌手的形象也将受損,在很多方面都令人頭疼。”他說。

不隻是換臉,AI技術已被深度應用于色情産業

在AI換臉的洶湧暗潮中,女性成為最大的受害者。

一個對比鮮明的事實是,根據網絡安全公司Deeptrace的統計,也有不少男性藝人、企業家甚至是政客被制作進娛樂性質的換臉視訊裡,比如Facebook創始人紮克伯格、美國總統特朗普。然而,色情換臉視訊中的被換臉對象,是清一色的女性。

非色情視訊中女性僅占39%,色情視訊中卻占100%。圖/AI前哨站

這些女性的換臉視訊被數以萬計的人浏覽和品評,自己卻可能毫不知情。一些并非藝人的普通女性在社交網站釋出的生活照,也被盜取和利用。

事實上,不隻是AI換臉,還有其他AI技術被深度應用于色情産業。圖像識别和增強算法的進步,讓AI有了補全畫面缺失部分的能力,由此衍生出“脫衣”或“去碼”工具。

去年6月下旬,AI軟體“DeepNude”現身網絡。它以人工智能算法為基礎,可以識别并“删去”照片中人物的衣服,進而把正常照片轉為“裸照”。由于争議太大,這款軟體在上線數天後就從官網火速下架。但南都記者調查發現,那些已被下載下傳和儲存的軟體資源,仍然在悄然流傳。

可以去除畫面中馬賽克的“去碼”技術,如今也相當成熟,導緻大量所謂“無碼”視訊在網上流傳。去年8月,一段以日本人氣女優三上悠亞為主角的“無碼破壞版”視訊引發熱議,三上悠亞通過Instagram公開回應:“這次的無碼影片流出變成大家讨論的話題,但是很抱歉~這是AI電腦合成的喔。”

三上悠亞公開回應。圖自Instagram。

值得注意的是,從Deepfakes到如今的“脫衣”“去碼”工具,相關開發者都始終隐匿在網絡背後,真實身份成謎。而他們所釋出的軟體和工具,卻因為開源得到廣泛流傳,并且大大降低了技術應用的門檻——哪怕是沒有人工智能理論基礎的普通人,也能通過相關教程和說明快速上手使用。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

研究韓流和全球文化的南加州大學安娜堡新聞與傳播學院的實踐助理教授Hye Jin Lee在接受外媒采訪時表示,他懷疑是南韓女偶像的“黑粉”制作了色情換臉視訊。對偶像而言,聲譽和形象至關重要。通過色情換臉視訊玷污她們的形象,能讓黑粉獲得充分的滿足。

在此次N号房事件中,某女子偶像歌手所屬公司的從業人員就在接受韓媒采訪時無奈表示,網絡平台的内容流動非常頻繁,很難确定生産者和傳播者。是以,即使他們知道藝人的色情換臉照片在網絡上流傳,也隻能“放手不管”。“如果要強硬地應對,歌手的形象也将受損,在很多方面都令人頭疼。”他說。

不隻是換臉,AI技術已被深度應用于色情産業

在AI換臉的洶湧暗潮中,女性成為最大的受害者。

一個對比鮮明的事實是,根據網絡安全公司Deeptrace的統計,也有不少男性藝人、企業家甚至是政客被制作進娛樂性質的換臉視訊裡,比如Facebook創始人紮克伯格、美國總統特朗普。然而,色情換臉視訊中的被換臉對象,是清一色的女性。

非色情視訊中女性僅占39%,色情視訊中卻占100%。圖/AI前哨站

這些女性的換臉視訊被數以萬計的人浏覽和品評,自己卻可能毫不知情。一些并非藝人的普通女性在社交網站釋出的生活照,也被盜取和利用。

事實上,不隻是AI換臉,還有其他AI技術被深度應用于色情産業。圖像識别和增強算法的進步,讓AI有了補全畫面缺失部分的能力,由此衍生出“脫衣”或“去碼”工具。

去年6月下旬,AI軟體“DeepNude”現身網絡。它以人工智能算法為基礎,可以識别并“删去”照片中人物的衣服,進而把正常照片轉為“裸照”。由于争議太大,這款軟體在上線數天後就從官網火速下架。但南都記者調查發現,那些已被下載下傳和儲存的軟體資源,仍然在悄然流傳。

可以去除畫面中馬賽克的“去碼”技術,如今也相當成熟,導緻大量所謂“無碼”視訊在網上流傳。去年8月,一段以日本人氣女優三上悠亞為主角的“無碼破壞版”視訊引發熱議,三上悠亞通過Instagram公開回應:“這次的無碼影片流出變成大家讨論的話題,但是很抱歉~這是AI電腦合成的喔。”

三上悠亞公開回應。圖自Instagram。

值得注意的是,從Deepfakes到如今的“脫衣”“去碼”工具,相關開發者都始終隐匿在網絡背後,真實身份成謎。而他們所釋出的軟體和工具,卻因為開源得到廣泛流傳,并且大大降低了技術應用的門檻——哪怕是沒有人工智能理論基礎的普通人,也能通過相關教程和說明快速上手使用。

縱觀全球,遭遇AI色情的女性普遍面臨困境:盡管有肖像權、名譽權等方面的維權角度,但網絡的匿名性和流動性等因素,還是讓她們處于維權無門的狀态。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

研究韓流和全球文化的南加州大學安娜堡新聞與傳播學院的實踐助理教授Hye Jin Lee在接受外媒采訪時表示,他懷疑是南韓女偶像的“黑粉”制作了色情換臉視訊。對偶像而言,聲譽和形象至關重要。通過色情換臉視訊玷污她們的形象,能讓黑粉獲得充分的滿足。

在此次N号房事件中,某女子偶像歌手所屬公司的從業人員就在接受韓媒采訪時無奈表示,網絡平台的内容流動非常頻繁,很難确定生産者和傳播者。是以,即使他們知道藝人的色情換臉照片在網絡上流傳,也隻能“放手不管”。“如果要強硬地應對,歌手的形象也将受損,在很多方面都令人頭疼。”他說。

不隻是換臉,AI技術已被深度應用于色情産業

在AI換臉的洶湧暗潮中,女性成為最大的受害者。

一個對比鮮明的事實是,根據網絡安全公司Deeptrace的統計,也有不少男性藝人、企業家甚至是政客被制作進娛樂性質的換臉視訊裡,比如Facebook創始人紮克伯格、美國總統特朗普。然而,色情換臉視訊中的被換臉對象,是清一色的女性。

非色情視訊中女性僅占39%,色情視訊中卻占100%。圖/AI前哨站

這些女性的換臉視訊被數以萬計的人浏覽和品評,自己卻可能毫不知情。一些并非藝人的普通女性在社交網站釋出的生活照,也被盜取和利用。

事實上,不隻是AI換臉,還有其他AI技術被深度應用于色情産業。圖像識别和增強算法的進步,讓AI有了補全畫面缺失部分的能力,由此衍生出“脫衣”或“去碼”工具。

去年6月下旬,AI軟體“DeepNude”現身網絡。它以人工智能算法為基礎,可以識别并“删去”照片中人物的衣服,進而把正常照片轉為“裸照”。由于争議太大,這款軟體在上線數天後就從官網火速下架。但南都記者調查發現,那些已被下載下傳和儲存的軟體資源,仍然在悄然流傳。

可以去除畫面中馬賽克的“去碼”技術,如今也相當成熟,導緻大量所謂“無碼”視訊在網上流傳。去年8月,一段以日本人氣女優三上悠亞為主角的“無碼破壞版”視訊引發熱議,三上悠亞通過Instagram公開回應:“這次的無碼影片流出變成大家讨論的話題,但是很抱歉~這是AI電腦合成的喔。”

三上悠亞公開回應。圖自Instagram。

值得注意的是,從Deepfakes到如今的“脫衣”“去碼”工具,相關開發者都始終隐匿在網絡背後,真實身份成謎。而他們所釋出的軟體和工具,卻因為開源得到廣泛流傳,并且大大降低了技術應用的門檻——哪怕是沒有人工智能理論基礎的普通人,也能通過相關教程和說明快速上手使用。

縱觀全球,遭遇AI色情的女性普遍面臨困境:盡管有肖像權、名譽權等方面的維權角度,但網絡的匿名性和流動性等因素,還是讓她們處于維權無門的狀态。

去年以來,各國監管部門紛紛展開探索,希望找到更好地規制方式。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

研究韓流和全球文化的南加州大學安娜堡新聞與傳播學院的實踐助理教授Hye Jin Lee在接受外媒采訪時表示,他懷疑是南韓女偶像的“黑粉”制作了色情換臉視訊。對偶像而言,聲譽和形象至關重要。通過色情換臉視訊玷污她們的形象,能讓黑粉獲得充分的滿足。

在此次N号房事件中,某女子偶像歌手所屬公司的從業人員就在接受韓媒采訪時無奈表示,網絡平台的内容流動非常頻繁,很難确定生産者和傳播者。是以,即使他們知道藝人的色情換臉照片在網絡上流傳,也隻能“放手不管”。“如果要強硬地應對,歌手的形象也将受損,在很多方面都令人頭疼。”他說。

不隻是換臉,AI技術已被深度應用于色情産業

在AI換臉的洶湧暗潮中,女性成為最大的受害者。

一個對比鮮明的事實是,根據網絡安全公司Deeptrace的統計,也有不少男性藝人、企業家甚至是政客被制作進娛樂性質的換臉視訊裡,比如Facebook創始人紮克伯格、美國總統特朗普。然而,色情換臉視訊中的被換臉對象,是清一色的女性。

非色情視訊中女性僅占39%,色情視訊中卻占100%。圖/AI前哨站

這些女性的換臉視訊被數以萬計的人浏覽和品評,自己卻可能毫不知情。一些并非藝人的普通女性在社交網站釋出的生活照,也被盜取和利用。

事實上,不隻是AI換臉,還有其他AI技術被深度應用于色情産業。圖像識别和增強算法的進步,讓AI有了補全畫面缺失部分的能力,由此衍生出“脫衣”或“去碼”工具。

去年6月下旬,AI軟體“DeepNude”現身網絡。它以人工智能算法為基礎,可以識别并“删去”照片中人物的衣服,進而把正常照片轉為“裸照”。由于争議太大,這款軟體在上線數天後就從官網火速下架。但南都記者調查發現,那些已被下載下傳和儲存的軟體資源,仍然在悄然流傳。

可以去除畫面中馬賽克的“去碼”技術,如今也相當成熟,導緻大量所謂“無碼”視訊在網上流傳。去年8月,一段以日本人氣女優三上悠亞為主角的“無碼破壞版”視訊引發熱議,三上悠亞通過Instagram公開回應:“這次的無碼影片流出變成大家讨論的話題,但是很抱歉~這是AI電腦合成的喔。”

三上悠亞公開回應。圖自Instagram。

值得注意的是,從Deepfakes到如今的“脫衣”“去碼”工具,相關開發者都始終隐匿在網絡背後,真實身份成謎。而他們所釋出的軟體和工具,卻因為開源得到廣泛流傳,并且大大降低了技術應用的門檻——哪怕是沒有人工智能理論基礎的普通人,也能通過相關教程和說明快速上手使用。

縱觀全球,遭遇AI色情的女性普遍面臨困境:盡管有肖像權、名譽權等方面的維權角度,但網絡的匿名性和流動性等因素,還是讓她們處于維權無門的狀态。

去年以來,各國監管部門紛紛展開探索,希望找到更好地規制方式。

去年5月底,國家網信辦會同有關部門釋出《資料安全管理辦法(征求意見稿)》,其中要求,“網絡營運者利用大資料、人工智能等技術自動合成新聞、博文、文章、評論等資訊,應以明顯方式标明’合成’字樣;不得以謀取利益或損害他人利益為目的自動合成資訊”。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

研究韓流和全球文化的南加州大學安娜堡新聞與傳播學院的實踐助理教授Hye Jin Lee在接受外媒采訪時表示,他懷疑是南韓女偶像的“黑粉”制作了色情換臉視訊。對偶像而言,聲譽和形象至關重要。通過色情換臉視訊玷污她們的形象,能讓黑粉獲得充分的滿足。

在此次N号房事件中,某女子偶像歌手所屬公司的從業人員就在接受韓媒采訪時無奈表示,網絡平台的内容流動非常頻繁,很難确定生産者和傳播者。是以,即使他們知道藝人的色情換臉照片在網絡上流傳,也隻能“放手不管”。“如果要強硬地應對,歌手的形象也将受損,在很多方面都令人頭疼。”他說。

不隻是換臉,AI技術已被深度應用于色情産業

在AI換臉的洶湧暗潮中,女性成為最大的受害者。

一個對比鮮明的事實是,根據網絡安全公司Deeptrace的統計,也有不少男性藝人、企業家甚至是政客被制作進娛樂性質的換臉視訊裡,比如Facebook創始人紮克伯格、美國總統特朗普。然而,色情換臉視訊中的被換臉對象,是清一色的女性。

非色情視訊中女性僅占39%,色情視訊中卻占100%。圖/AI前哨站

這些女性的換臉視訊被數以萬計的人浏覽和品評,自己卻可能毫不知情。一些并非藝人的普通女性在社交網站釋出的生活照,也被盜取和利用。

事實上,不隻是AI換臉,還有其他AI技術被深度應用于色情産業。圖像識别和增強算法的進步,讓AI有了補全畫面缺失部分的能力,由此衍生出“脫衣”或“去碼”工具。

去年6月下旬,AI軟體“DeepNude”現身網絡。它以人工智能算法為基礎,可以識别并“删去”照片中人物的衣服,進而把正常照片轉為“裸照”。由于争議太大,這款軟體在上線數天後就從官網火速下架。但南都記者調查發現,那些已被下載下傳和儲存的軟體資源,仍然在悄然流傳。

可以去除畫面中馬賽克的“去碼”技術,如今也相當成熟,導緻大量所謂“無碼”視訊在網上流傳。去年8月,一段以日本人氣女優三上悠亞為主角的“無碼破壞版”視訊引發熱議,三上悠亞通過Instagram公開回應:“這次的無碼影片流出變成大家讨論的話題,但是很抱歉~這是AI電腦合成的喔。”

三上悠亞公開回應。圖自Instagram。

值得注意的是,從Deepfakes到如今的“脫衣”“去碼”工具,相關開發者都始終隐匿在網絡背後,真實身份成謎。而他們所釋出的軟體和工具,卻因為開源得到廣泛流傳,并且大大降低了技術應用的門檻——哪怕是沒有人工智能理論基礎的普通人,也能通過相關教程和說明快速上手使用。

縱觀全球,遭遇AI色情的女性普遍面臨困境:盡管有肖像權、名譽權等方面的維權角度,但網絡的匿名性和流動性等因素,還是讓她們處于維權無門的狀态。

去年以來,各國監管部門紛紛展開探索,希望找到更好地規制方式。

去年5月底,國家網信辦會同有關部門釋出《資料安全管理辦法(征求意見稿)》,其中要求,“網絡營運者利用大資料、人工智能等技術自動合成新聞、博文、文章、評論等資訊,應以明顯方式标明’合成’字樣;不得以謀取利益或損害他人利益為目的自動合成資訊”。

去年10月,美國加尼福利亞州政府簽署了AB 602法案,禁止在未經當事人同意的情況下進行色情活動——“同意”意味着當事人明确知曉并自願簽署協定(協定中應該包括對色情内容的描述)。如果某個加州居民發現有人未經其允許制作了色情換臉視訊,可以向法院提起訴訟并追讨賠償。法定的損害賠償不少于1500美元但不超過三萬美元,如果不法行為是惡意實施的,法定損害賠償金最高可增至十五萬美元。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

研究韓流和全球文化的南加州大學安娜堡新聞與傳播學院的實踐助理教授Hye Jin Lee在接受外媒采訪時表示,他懷疑是南韓女偶像的“黑粉”制作了色情換臉視訊。對偶像而言,聲譽和形象至關重要。通過色情換臉視訊玷污她們的形象,能讓黑粉獲得充分的滿足。

在此次N号房事件中,某女子偶像歌手所屬公司的從業人員就在接受韓媒采訪時無奈表示,網絡平台的内容流動非常頻繁,很難确定生産者和傳播者。是以,即使他們知道藝人的色情換臉照片在網絡上流傳,也隻能“放手不管”。“如果要強硬地應對,歌手的形象也将受損,在很多方面都令人頭疼。”他說。

不隻是換臉,AI技術已被深度應用于色情産業

在AI換臉的洶湧暗潮中,女性成為最大的受害者。

一個對比鮮明的事實是,根據網絡安全公司Deeptrace的統計,也有不少男性藝人、企業家甚至是政客被制作進娛樂性質的換臉視訊裡,比如Facebook創始人紮克伯格、美國總統特朗普。然而,色情換臉視訊中的被換臉對象,是清一色的女性。

非色情視訊中女性僅占39%,色情視訊中卻占100%。圖/AI前哨站

這些女性的換臉視訊被數以萬計的人浏覽和品評,自己卻可能毫不知情。一些并非藝人的普通女性在社交網站釋出的生活照,也被盜取和利用。

事實上,不隻是AI換臉,還有其他AI技術被深度應用于色情産業。圖像識别和增強算法的進步,讓AI有了補全畫面缺失部分的能力,由此衍生出“脫衣”或“去碼”工具。

去年6月下旬,AI軟體“DeepNude”現身網絡。它以人工智能算法為基礎,可以識别并“删去”照片中人物的衣服,進而把正常照片轉為“裸照”。由于争議太大,這款軟體在上線數天後就從官網火速下架。但南都記者調查發現,那些已被下載下傳和儲存的軟體資源,仍然在悄然流傳。

可以去除畫面中馬賽克的“去碼”技術,如今也相當成熟,導緻大量所謂“無碼”視訊在網上流傳。去年8月,一段以日本人氣女優三上悠亞為主角的“無碼破壞版”視訊引發熱議,三上悠亞通過Instagram公開回應:“這次的無碼影片流出變成大家讨論的話題,但是很抱歉~這是AI電腦合成的喔。”

三上悠亞公開回應。圖自Instagram。

值得注意的是,從Deepfakes到如今的“脫衣”“去碼”工具,相關開發者都始終隐匿在網絡背後,真實身份成謎。而他們所釋出的軟體和工具,卻因為開源得到廣泛流傳,并且大大降低了技術應用的門檻——哪怕是沒有人工智能理論基礎的普通人,也能通過相關教程和說明快速上手使用。

縱觀全球,遭遇AI色情的女性普遍面臨困境:盡管有肖像權、名譽權等方面的維權角度,但網絡的匿名性和流動性等因素,還是讓她們處于維權無門的狀态。

去年以來,各國監管部門紛紛展開探索,希望找到更好地規制方式。

去年5月底,國家網信辦會同有關部門釋出《資料安全管理辦法(征求意見稿)》,其中要求,“網絡營運者利用大資料、人工智能等技術自動合成新聞、博文、文章、評論等資訊,應以明顯方式标明’合成’字樣;不得以謀取利益或損害他人利益為目的自動合成資訊”。

去年10月,美國加尼福利亞州政府簽署了AB 602法案,禁止在未經當事人同意的情況下進行色情活動——“同意”意味着當事人明确知曉并自願簽署協定(協定中應該包括對色情内容的描述)。如果某個加州居民發現有人未經其允許制作了色情換臉視訊,可以向法院提起訴訟并追讨賠償。法定的損害賠償不少于1500美元但不超過三萬美元,如果不法行為是惡意實施的,法定損害賠償金最高可增至十五萬美元。

如何防範AI技術作惡?我們或許站在一個新時代的起點。

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

研究韓流和全球文化的南加州大學安娜堡新聞與傳播學院的實踐助理教授Hye Jin Lee在接受外媒采訪時表示,他懷疑是南韓女偶像的“黑粉”制作了色情換臉視訊。對偶像而言,聲譽和形象至關重要。通過色情換臉視訊玷污她們的形象,能讓黑粉獲得充分的滿足。

在此次N号房事件中,某女子偶像歌手所屬公司的從業人員就在接受韓媒采訪時無奈表示,網絡平台的内容流動非常頻繁,很難确定生産者和傳播者。是以,即使他們知道藝人的色情換臉照片在網絡上流傳,也隻能“放手不管”。“如果要強硬地應對,歌手的形象也将受損,在很多方面都令人頭疼。”他說。

不隻是換臉,AI技術已被深度應用于色情産業

在AI換臉的洶湧暗潮中,女性成為最大的受害者。

一個對比鮮明的事實是,根據網絡安全公司Deeptrace的統計,也有不少男性藝人、企業家甚至是政客被制作進娛樂性質的換臉視訊裡,比如Facebook創始人紮克伯格、美國總統特朗普。然而,色情換臉視訊中的被換臉對象,是清一色的女性。

非色情視訊中女性僅占39%,色情視訊中卻占100%。圖/AI前哨站

這些女性的換臉視訊被數以萬計的人浏覽和品評,自己卻可能毫不知情。一些并非藝人的普通女性在社交網站釋出的生活照,也被盜取和利用。

事實上,不隻是AI換臉,還有其他AI技術被深度應用于色情産業。圖像識别和增強算法的進步,讓AI有了補全畫面缺失部分的能力,由此衍生出“脫衣”或“去碼”工具。

去年6月下旬,AI軟體“DeepNude”現身網絡。它以人工智能算法為基礎,可以識别并“删去”照片中人物的衣服,進而把正常照片轉為“裸照”。由于争議太大,這款軟體在上線數天後就從官網火速下架。但南都記者調查發現,那些已被下載下傳和儲存的軟體資源,仍然在悄然流傳。

可以去除畫面中馬賽克的“去碼”技術,如今也相當成熟,導緻大量所謂“無碼”視訊在網上流傳。去年8月,一段以日本人氣女優三上悠亞為主角的“無碼破壞版”視訊引發熱議,三上悠亞通過Instagram公開回應:“這次的無碼影片流出變成大家讨論的話題,但是很抱歉~這是AI電腦合成的喔。”

三上悠亞公開回應。圖自Instagram。

值得注意的是,從Deepfakes到如今的“脫衣”“去碼”工具,相關開發者都始終隐匿在網絡背後,真實身份成謎。而他們所釋出的軟體和工具,卻因為開源得到廣泛流傳,并且大大降低了技術應用的門檻——哪怕是沒有人工智能理論基礎的普通人,也能通過相關教程和說明快速上手使用。

縱觀全球,遭遇AI色情的女性普遍面臨困境:盡管有肖像權、名譽權等方面的維權角度,但網絡的匿名性和流動性等因素,還是讓她們處于維權無門的狀态。

去年以來,各國監管部門紛紛展開探索,希望找到更好地規制方式。

去年5月底,國家網信辦會同有關部門釋出《資料安全管理辦法(征求意見稿)》,其中要求,“網絡營運者利用大資料、人工智能等技術自動合成新聞、博文、文章、評論等資訊,應以明顯方式标明’合成’字樣;不得以謀取利益或損害他人利益為目的自動合成資訊”。

去年10月,美國加尼福利亞州政府簽署了AB 602法案,禁止在未經當事人同意的情況下進行色情活動——“同意”意味着當事人明确知曉并自願簽署協定(協定中應該包括對色情内容的描述)。如果某個加州居民發現有人未經其允許制作了色情換臉視訊,可以向法院提起訴訟并追讨賠償。法定的損害賠償不少于1500美元但不超過三萬美元,如果不法行為是惡意實施的,法定損害賠償金最高可增至十五萬美元。

如何防範AI技術作惡?我們或許站在一個新時代的起點。

南方都市報(nddaily)原創報道

備受關注的南韓“N号房”事件又有了新進展。據韓媒消息,警方在調查過程發現了多個“色情換臉”聊天室,内有大量南韓女子偶像的換臉照片和視訊。

南都記者調查發現,這隻是色情黑灰産的冰山一角。如今,包括換臉在内的多種AI技術,已經被深度應用于色情相關産業。

“N号房”内的照片和視訊。圖自網絡

警方調查N号房

牽出色情換臉專用聊天室

據南韓網站Naver消息,警方在調查“N号房”事件時,在涉事平台Telegram上發現了四個“成人換臉合成物”的專用聊天室,換臉對象均為南韓女藝人。

與通過邀請加入的“N号房”不同,這些專用聊天室需要通過輸入複雜的注冊位址進入。在某個以女性偶像歌手為主題的換臉房内,超過2000名會員上傳了換臉照片和視訊。

這并非色情換臉視訊首次被曝光。事實上,AI換臉背後的技術Deepfakes誕生之初,就是被開發者用于色情換臉:在開發者上傳的視訊中,成人女優的臉被換成各種女明星,且效果極為自然。AI換臉技術由此逐漸走入大衆視野。

從2017年誕生到現在,經過近三年的發展,AI換臉技術已經成為色情産業的利器。據南都記者此前調查,一些國外的成人網站出現了“換臉專區”,其中包括大量以各國女藝人為主題的色情視訊。

去年,網絡安全公司Deeptrace釋出了一份與色情換臉有關的報告。報告顯示,從2018年12月至2019年7月,網上的AI換臉視訊數量幾乎翻了1倍,逼近1.5萬部。其中,色情視訊占比高達96%。

值得注意的是,南韓女偶像的尴尬處境,在Deeptrace的報告裡已經初露端倪。報告顯示,在觀看量排名前十的女藝人中,南韓偶像歌手占據三席,其色情換臉視訊數量達到404部,觀看數總計1340萬次。

南韓偶像歌手成為主要受害對象。圖/AI前哨站

南韓女偶像成為換臉重災區,與南韓的女性地位與流行文化有密切關系。

南韓大學國際研究學院的博士生Xi Lin在其論文中指出,韓流文化中存在“物化”女偶像的現象。平均而言,越關注韓流活動的人,越不認可性别平等。

研究韓流和全球文化的南加州大學安娜堡新聞與傳播學院的實踐助理教授Hye Jin Lee在接受外媒采訪時表示,他懷疑是南韓女偶像的“黑粉”制作了色情換臉視訊。對偶像而言,聲譽和形象至關重要。通過色情換臉視訊玷污她們的形象,能讓黑粉獲得充分的滿足。

在此次N号房事件中,某女子偶像歌手所屬公司的從業人員就在接受韓媒采訪時無奈表示,網絡平台的内容流動非常頻繁,很難确定生産者和傳播者。是以,即使他們知道藝人的色情換臉照片在網絡上流傳,也隻能“放手不管”。“如果要強硬地應對,歌手的形象也将受損,在很多方面都令人頭疼。”他說。

不隻是換臉,AI技術已被深度應用于色情産業

在AI換臉的洶湧暗潮中,女性成為最大的受害者。

一個對比鮮明的事實是,根據網絡安全公司Deeptrace的統計,也有不少男性藝人、企業家甚至是政客被制作進娛樂性質的換臉視訊裡,比如Facebook創始人紮克伯格、美國總統特朗普。然而,色情換臉視訊中的被換臉對象,是清一色的女性。

非色情視訊中女性僅占39%,色情視訊中卻占100%。圖/AI前哨站

這些女性的換臉視訊被數以萬計的人浏覽和品評,自己卻可能毫不知情。一些并非藝人的普通女性在社交網站釋出的生活照,也被盜取和利用。

事實上,不隻是AI換臉,還有其他AI技術被深度應用于色情産業。圖像識别和增強算法的進步,讓AI有了補全畫面缺失部分的能力,由此衍生出“脫衣”或“去碼”工具。

去年6月下旬,AI軟體“DeepNude”現身網絡。它以人工智能算法為基礎,可以識别并“删去”照片中人物的衣服,進而把正常照片轉為“裸照”。由于争議太大,這款軟體在上線數天後就從官網火速下架。但南都記者調查發現,那些已被下載下傳和儲存的軟體資源,仍然在悄然流傳。

可以去除畫面中馬賽克的“去碼”技術,如今也相當成熟,導緻大量所謂“無碼”視訊在網上流傳。去年8月,一段以日本人氣女優三上悠亞為主角的“無碼破壞版”視訊引發熱議,三上悠亞通過Instagram公開回應:“這次的無碼影片流出變成大家讨論的話題,但是很抱歉~這是AI電腦合成的喔。”

三上悠亞公開回應。圖自Instagram。

值得注意的是,從Deepfakes到如今的“脫衣”“去碼”工具,相關開發者都始終隐匿在網絡背後,真實身份成謎。而他們所釋出的軟體和工具,卻因為開源得到廣泛流傳,并且大大降低了技術應用的門檻——哪怕是沒有人工智能理論基礎的普通人,也能通過相關教程和說明快速上手使用。

縱觀全球,遭遇AI色情的女性普遍面臨困境:盡管有肖像權、名譽權等方面的維權角度,但網絡的匿名性和流動性等因素,還是讓她們處于維權無門的狀态。

去年以來,各國監管部門紛紛展開探索,希望找到更好地規制方式。

去年5月底,國家網信辦會同有關部門釋出《資料安全管理辦法(征求意見稿)》,其中要求,“網絡營運者利用大資料、人工智能等技術自動合成新聞、博文、文章、評論等資訊,應以明顯方式标明’合成’字樣;不得以謀取利益或損害他人利益為目的自動合成資訊”。

去年10月,美國加尼福利亞州政府簽署了AB 602法案,禁止在未經當事人同意的情況下進行色情活動——“同意”意味着當事人明确知曉并自願簽署協定(協定中應該包括對色情内容的描述)。如果某個加州居民發現有人未經其允許制作了色情換臉視訊,可以向法院提起訴訟并追讨賠償。法定的損害賠償不少于1500美元但不超過三萬美元,如果不法行為是惡意實施的,法定損害賠償金最高可增至十五萬美元。

如何防範AI技術作惡?我們或許站在一個新時代的起點。

南方都市報(nddaily)原創報道

南都記者 馮群星 陳志芳