轉頭、換姿勢、揮手 警3招破解AI變臉
刑事局提醒AI變臉詐騙手法,並公佈破解之道。(翻攝照片/林鬱平臺北傳真)
眼見不一定爲憑!AI概念股全球正夯,利用AI深度僞造(Deepfake)技術從事不法的案件也隨之而生。刑事局指出,歹徒以變臉或聲音合成的方式,假冒親友或名人進行詐騙、恐嚇或製造假訊息,在國內的案例雖然較少,但日後恐成爲治安隱憂,特別公佈「轉頭、換姿勢、揮手」3招破解之道,提醒民衆別被騙。
警方表示,隨着社羣網路發達,民衆利用社羣媒體及通訊軟體,與親朋好友聯繫或聯絡公務已成日常生活一部分,但科技始終來自人性,「詐騙也是利用人性」;AI變臉技術就是以「眼見爲憑」的傳統觀念,鬆懈民衆的戒心。
刑事局表示,目前AI變臉技術仍有破綻,特別拍攝「拆解AI深僞(Deepfake)變臉詐騙影片」,公佈3招破解之道。警官說,可先從「側臉、脖子」部位辨識,目前的軟體不會偵測分析及套用到這兩個部位,所以側面影像會產生模糊狀,臉部跟脖子也會產生色差。
民衆若與熟人視訊察覺有異,或是與生活中未見過的人,或自稱檢警的公務人員視訊,可要求對方轉頭、變換姿勢、在臉前揮手等三「撇步」,就可藉由影像破綻分辨出對方是否使用AI深僞技術變臉,避免受騙上當。
警方統計,今年接獲AI相關案件的檢舉及報案不到十起,大多是假交友詐騙。歹徒會先變臉成帥哥美女與被害人搭訕、噓寒問暖,再擷取被害人視訊影像或照片,合成不雅照,勒贖金錢。
警方說,AI深僞變臉技術,可製造出逼真虛假影像,被害人都不知道鏡頭裡的美女是假的。幾年前查獲「小玉」即是利用變臉技術,製造名人不雅性愛影像;大陸也曾發生科技公司老闆,接到變臉技術的詐騙視訊電話,被騙1873萬元(新臺幣)。
警方指出,不論是何種AI深僞犯罪,民衆都要記得「談到錢要警覺、談借錢要查證、談投資金錢要當心」,才能防止被騙。