AI「換臉」超有趣!但如果拿來做壞事……
▲AI在人臉辨識技術上愈來愈進步,就連給人換臉都沒問題,現在一些視頻讓人覺得有趣,但如果被有心人利用,會造成如何的災難已經可以預見。(圖/視覺中國CFP授權提供)
文/腦極體
在座的各位,是不是已經試過人臉解鎖手機了?是不是嘗試過刷臉購物了?玩過人臉識別的動物表情小遊戲了沒?如果都有的話,那麼想必咱們可以達成一個共識:AI在人臉這件事上已經越來越精通了。
如果說識別只是AI對人臉做出的第一件事,那麼第二件事是什麼呢?從種種跡象來看,答案只有一個,那就是給人換臉。
當然,AI不會真的去給人整容(至少目前不會),它能做的是在視頻裡給人換臉。比如最近刷屏級的小視頻可能大家都已經看過了。
視頻中的女主角(確切的說是女主角的臉)是《神力女超人》的扮演者蓋兒.加朵(Gal Gadot)。但這當然不是其本人出演了什麼令人羞恥的小電影。而是有人用深度學習技術把蓋兒的臉替換到了原片女主角的身體上。乍看之下基本沒什麼破綻,但其實兩個人是不怎麼像的。
▲網友deepfakes用深度學習技術把蓋兒的臉替換到了原片女主角的身體上,乍看之下沒什麼破綻,騙過許多人。(影片來源/SendVids)
這個ID叫做deepfakes的網友,始終致力於在Reddit上分享其利用AI技術製作的明星換臉小視頻。差不多所有當紅的好萊塢女星都被他「炮製」了一遍。
各位同學是不是感覺有點興奮?以後想看哪位明星的片子自己動手做就是了,甚至可以把自己的臉替換上去演對手戲,各種YY(意淫)皆能成真。
可是,如果是你親戚朋友的臉被替換了呢?如果把犯罪現場所拍攝嫌疑人的臉換成你呢?如果在你不知情的情況下,不法分子發給你家人一段有你露臉的綁架視頻呢?
當我們不能相信自己的眼睛,各種混亂和罪惡的重量,絕對會大於那一點點違法的「福利」。
換臉的恐怖之處,在於AI很簡單
其實視頻換臉這件事也並不特別了。耳熟能詳的可能要屬《玩命關頭7》裡爲了讓保羅.沃克(Paul Walker)迴歸,片方用了替身+動態捕捉+CGI動畫的方式,以保羅的兩位弟弟爲替身,最終讓觀衆的老朋友重新回到了大銀幕上。
▲保羅.沃克車禍身亡後,導演找來他的兩個弟弟當替身,利用替身+動態捕捉+CGI動畫的方式,重新讓他出現在電影《玩命關頭7》中。(圖/翻攝自B.C.&Lowy)
這樣的換臉技術雖然高超,卻並不讓我們擔憂。因爲這是電影的藝術需要,必須要耗費大量人工與後期特效成本,並且要求專業的視訊短片技術才能實現。這意味着,這種精準的換臉並不能出現在日常生活中,也不會給普通人帶來威脅。
但AI在瓦解這一切。
讓我們重新回到前面提到製作女星換臉小電影的deepfakes。這老兄不僅是個中老手,還是一位熱愛分享的「技術型活雷鋒」(大好人)。他不僅免費發佈了他的成果,還不厭其煩的分享了自己製作換臉視頻的教程,以及自己編寫的深度學習代碼和相關資料集。大概他的意思是,別再問我要誰誰的視頻了,你們自己做去吧……
當然,這老兄也不是專注女明星,上邊這張就是他分享的如何把尼可拉斯.凱吉(Nicolas Cage)換成川普的教程,大概其內心深處也深諳中國的「表情包之道」。
根據他的分享,製作一個明星換臉視頻非常簡單。以蓋兒.加朵的視頻爲例,他首先會在Google、YouTube以及各種網路圖集中收集蓋兒的各個角度的視頻和圖片,組成一個能滿足深度學習任務進行臉部替換的素材庫。
然後他會通過TensorFlow上提供的機器視覺相關模型,學習和理解原版小電影中女主角的面部特徵、輪廓、動作和嘴型等等。繼而讓模型在素材庫中尋找各種角度、各種表情下AI認爲合適的圖片與視頻,對原本視頻進行替換。
雖然可以看到,他做的視頻在很多細節上還是有瑕疵,不夠自然。但是大體一看已經可以矇混過關,並且製作效果在日漸提高。
這裡隱藏的真正問題,在於利用開放原始碼的AI架構進行視頻換臉這件事,不是太複雜太前衛了,而是太簡單太容易了。
爲了驗證這點,我先後把deepfakes分享的視頻和代碼發給了三位從事機器視覺相關工作的朋友,得到的回覆基本一致:這東西毫無技術難度。只要會用TensorFlow的基礎功能,電腦顯卡不至於太爛,差不多幾個小時就可以搞出來一個。
哪怕連程式設計基礎都沒有的人,跟着教程一步步走,蒐集足夠多的素材,也可以自己搞出來換臉視頻。
設想一下,當你身邊某個仇人想要陷害你的時候,只要收集你的照片和自拍,就可以隨意把你和任何罪惡甚至骯髒的視頻結合到一起,然後在你的社交圈裡散播得到處都是,那場面何其令人膽寒?這就像槍支可以無審查、無監管的隨意買賣,並且價格低廉。
▲如果有人想要陷害你,只要收集你的照片和自拍,就可以隨意把你和任何罪惡甚至骯髒的視頻結合,然後在你的社交圈裡散播得到處都是,那場面何其令人膽寒?。(圖/視覺中國CFP提供)
在機器視覺開發的底層技術日益完善後,視頻換臉必然繼續在三個層面加強它的普及化:
1.近乎無門檻使用。換臉相關的資料集、原始程式碼和架構,在今天只要有心就可以輕易找到,隨着技術的成熟,這種趨勢大概只會愈演愈烈。
2.可以工具化。由於技術並不複雜,這個功能被工具化的可能性很大。也就是說不法分子可以把它做成一個應用APP,購買了之後只要按要求添加視頻和希望替換人的圖像,就可以自動生成換臉視頻,達成真正的無門檻。
3.欺騙性不斷增強。有相關AI從業者認爲,deepfakes的視頻僅僅經歷了初步的學習和替換過程,沒有進行修補和細節雕琢,就已經獲得了很高的完成度。那麼假如進一步結合對抗生成網路進行修飾,大概就可以生成真僞難辨的視頻了。
總之,當我們知道照片可以PS之後,視頻也不再可信了。而且,不僅僅是視頻。
山雨欲來:下一站是直播+換臉
去年年初的時候,德國紐倫堡大學的相關團隊發佈了一個應用,也就是非常出名的Face2Face。這款應用的能力,是通過攝像頭進行臉部追蹤,從而讓視頻裡的人跟着你說話。
由於其精準地捕捉效果和即時化能力,Face2Face在誕生之日起就引起了軒然大波。在其演示視頻下,無數網友質疑這項技術將成爲網路詐騙、綁架勒索的幫兇,質疑如果視頻電話的另一端,竟然不是你認識的那個人,那將會是多麼恐怖的一件事。
▼影片取自YouTube,如遭刪除請見諒。
▲德國紐倫堡大學團隊發佈Face2Face應用軟體,可通過攝像頭進行臉部追蹤,讓視頻裡的人跟着你說話,網友質疑這項技術將成爲網路詐騙、綁架勒索的幫兇。(影片來源/YouTube)
當然了,Face2Face目前是個封閉狀態,使用者只能扮演其提供的角色嚐嚐鮮而已。但經過了一年多的發展,直播中的臉部捕捉和替換技術也已經大幅度提升。如今我們可以在直播平臺上看到即時替換的背景和道具,而利用AI在直播中進行臉部替換,也已經是近在咫尺的一件事。
與之相配合的,是AI進行聲紋識別與聲音合成技術也在突飛猛進。比如Adobe在近兩年陸續發佈了新的聲音合成技術。普通人用AI來進行柯南用蝴蝶結完成的換聲,已經不是多困難的事情。
藉助AI,直播中換臉和換聲正在同步向前跨越。那麼帶來的影響會是什麼呢?
雙頭人開播?川普坐在白宮辦公室裡跟你連線?某當紅小鮮肉在直播中跪着給你唱《征服》?沒問題,統統都可以。
有沒有很開心?當然,你跟直播平臺可能都開心了,小鮮肉卻不開心了。
而換個角度想想,假如同樣的技術運用在視頻電話裡呢?假如你接到的親人/朋友的視頻電話,套取你的隱私或者跟你借錢,事後竟然發現是陌生人處心積慮僞造的。假如一個人可以徹底僞裝成另一個人,還會有人開心嗎?
當我們打開手機電腦,發現一切都不是真的。真是挺喪心病狂的一件事。
AI換臉並不難,由於多種應用場景的存在和超高的娛樂性,我們也很難阻止它的到來。於是真正該讓我們頭疼的,大概就是深藏其中的法律問題與倫理陷阱。
基本可以很篤定地說,今天國內外的很多直播與視頻平臺,都在研發直播換臉技術。並且某些解決方案已經相當成熟。試想一下,換臉之後的當紅女神與小鮮肉,整晚開直播說一些迎合獵奇心理的話,禮物還不多到把平臺擠爆了?——即使用戶明知是假的。
當然,正規直播平臺大概不敢這麼做,使用這種技術會非常剋制。但是假如有協力廠商外掛程式可以做這件事呢?或者在缺乏監管的地下直播/半地下直播平臺上呢?畢竟利益和獵奇可以驅使人去做各種事情,技術的門檻一旦解禁,滾滾而來的法律問題很可能決堤。
這裡隱藏的倫理陷阱,是肖像權這個東西可能會前所未有的複雜化。無論是明星還是普通人,大概都不希望被別人「易容」成自己的樣子來進行直播。
但問題是,你如何證明「他/她」易容的是你呢?或者說你如何證明你是你?我們知道,肖像權是指你本人拍攝的圖像和視頻。但是用你的面部資料搭建起來的AI模型還屬於你的肖像權範疇嗎?
更困難的是,你根本無從證明AI搭建出來的肖像模型跟你有直接關係。畢竟深度學習訓練是在看不見的後端完成的,製作者大可以說是臆想出來,或者用跟你很像的人來搭建的。再或者只比你臉上多一顆痣,是不是就不是你了呢?
更復雜的倫理情況還有很多,比如一個人享有故去親人的肖像權嗎?假如一個人希望用AI來重現已故的親屬,與亡者進行視頻通話,但另一個親屬卻堅決認爲這是違法行爲,那麼到底該聽誰的?
這還是基礎的倫理與法律矛盾,在這之外,是大把可以用AI換臉術進行的非法勾當。比如詐騙、勒索、誣陷等等等等。
總而言之,AI換臉術這件事在今天可以歸納爲三句話:
一、火是肯定要火的。二、亂是一定要亂的。三、如何監管,大概是不知道的。
▲AI換臉術只會越來越火,亂象也只會多不會少,而且防不勝防,如何防止自己被拿來當素材?也許不要發太多自拍會是個好方法。(圖/翻攝自pakutaso)
哦對了,最後應該說一下如何防止別人做出你的AI換臉視頻:不要發太多自拍。
好文推薦
人們爲何越來越短視?世界爲何越來越極端?
在社羣媒體上撒謊 在搜尋引擎上告解
●本文轉載自虎嗅網,文章爲作者獨立觀點,不代表虎嗅網立場。本文由 腦極體 授權 虎嗅網 發表,並經虎嗅網編輯。轉載此文章須經作者同意,並請附上出處(虎嗅網)及本頁連結。以上言論不代表本報立場。88 論壇歡迎更多聲音與討論,來稿請寄editor88@ettoday.net