韓被列最嚴重的國家! 「9.5萬非法換臉片」受害者一半是女藝人

記者張筱涵/綜合報導

南韓近日爆出在Telegram平臺中,有數十萬名使用者在數個羣組和頻道內,將女性親朋好友用深度僞造(Deepfake)技術製成影片後散佈,震驚衆人。

▲韓爆發嚴重deepfake犯罪現象。(示意圖/達志影像)

據美國《華爾街日報》報導,韓國深僞性犯罪問題日益嚴重,受害者中有高達53%是韓國的女藝人,這些不雅影片中包含未成年者與女性的樣貌被合成到色情內容中,並在網路上遭廣泛傳播。報告顯示,韓國是深僞性犯罪受害最嚴重的國家,這一現象引發了廣泛關注。

根據網路安全公司「Security Hero」最近發佈的《2023年深僞現狀報告》,該公司分析了10個深僞不雅影片網站以及多個影片分享平臺上的85個深僞頻道,總計9萬5820個影片中,受害者的比例以韓國女藝人最高,佔比達到53%。

報告指出,韓國是深僞不雅影片的主要目標國,並列出了10位主要受害者,其中有8位是韓國歌手,這些影片在網絡上的總瀏覽次數達到數百萬次。報告還強調,99%的深僞不雅影片受害者是女性,且94%從事演藝行業。

深僞不雅影片的製作者大多是10多歲的青少年,韓國教育部表示,正在考慮對年僅10歲左右的加害者進行最嚴厲的處罰。這些影片的主要傳播渠道是由俄羅斯創業者帕維爾杜羅夫(Pavel Durov)創建的Telegram。

Telegram自2013年成立以來,一直被指控成爲犯罪信息的溫牀,目前已在31個國家被暫時或永久禁止使用,Telegram方表示,已刪除部分兒童性剝削內容或犯罪相關內容,但人手不足問題依然嚴重。