“張文宏”深夜帶貨?本人都想報警
被造假的名人只能“發聲明”,上當的消費者只能“認倒黴”,這種無力被動的狀況必須改變。
全文1311字,閱讀約需4分鐘
撰稿/柳早(媒體人) 編輯/遲道華 校對/楊利
什麼?“張文宏”開始帶貨了?
最近有網友向媒體發來一段視頻詢問“張文宏是不是帶貨了?”在賣一種蛋白棒,家裡的老人信以爲真已經下單,還轉發了很多羣。
據媒體報道,在名爲“般畫234”的賬號視頻中,“張文宏”反覆介紹着一種產品,口型是他的,聲音也是他的。目前,這段僞造的視頻在賬號內已不可見。
如果是辨別能力強的觀衆,不難看出這是AI深度合成的視頻。可是對很多老年消費者或是對“互聯網生態”不那麼瞭解的人來說,這依然能起到以假亂真的效果。比如該賬號的商品櫥窗截圖顯示,這款蛋白棒已售出1266件,可見“中招”的消費者並不少。
這種現象也並非罕見,除了張文宏之外,不少名人都深受生成AI仿冒之苦。比如此前引發衆多關注的“假靳東”事件,騙子用AI僞造靳東的形象,以“談戀愛”“拍戲”爲名,大肆詐騙老人錢財;此外,明星藝人劉德華、黃百鳴,胖東來創始人於東來,小米董事長雷軍等,都曾就自己被AI仿造發佈過聲明。
這種現象之所以猖獗,其實和追責困難有關,這點從張文宏的大吐苦水就能看出來。有記者聯繫了張文宏,“這樣的賣貨賬號不止一個,且一直不斷在變,自己多次向平臺投訴但屢禁不絕。”他稱自己也曾考慮過報警,但對方看不見摸不到,就像幽靈一般難以描述,“像蝗災一樣,一次次害人”,只能寄希望於相關部門加強監管。
事實上這正是問題的癥結所在,僞造名人的賬號,由於數量衆多、分佈廣泛,讓逐個進行維權變得近乎不可能。而且這些賬號還學會了一大堆伎倆,比如趁着深夜把帶貨視頻放出,到了早上再把視頻屏蔽掉,這樣買的人就投訴無門,也很難被發現。
這種亂象顯然不應該再持續。其實現在已經不乏相關規定對此進行約束,《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》等,都在內容審覈、信息標識方面對生成AI的規範使用提出了要求。後者還特別強調,使用AI生成內容不得侵害他人肖像權。
但快速發展的AI產業造成了相關信息的爆炸式增長,客觀上給AI信息甄別帶來了困難。據《2024人工智能安全報告》顯示,2023年基於AI的深度僞造欺詐暴增了3000%,基於AI的釣魚郵件增長了1000%,可見問題的嚴峻。
因此,治理也應當提速,跟上產業發展的步伐。值得注意的是,今年9月,國家網信辦發佈《人工智能生成合成內容標識辦法(徵求意見稿)》,明確要求AI生成合成的內容要在顯著位置作出標識,這也是進一步提出的強制性規範。
而問題的關鍵還在於執行,尤其是生成AI的主要使用場景——短視頻平臺,更要主動承擔主體責任。對於生成AI內容應當進行更加嚴格的審覈,並定期進行大規模內容篩查,如發現違規使用場景,就應當對賬號作出嚴肅處理。
同時也應當對被侵權人和消費者維權提供更大的支持。比如張文宏抱怨“對方看不見摸不到”,這種現象就應當引起重視。當被侵權人或消費者向平臺提出質疑,平臺應當進行協助,提供相應的信息,幫助被侵權人和消費者鎖定賬號背後的實體或個人,由此進入賠償或司法程序。
無論如何,不能任由AI造假氾濫成災。從新聞也能看到,被造假的名人只能“發聲明”,上當的消費者只能“認倒黴”,這種無力被動的狀況必須改變。對此,無論是相關部門還是互聯網平臺,都需要進一步發力,提高信息篩查能力,讓侵權者付出沉重代價,也讓AI的技術發展始終保持在法治軌道之內。
值班編輯 康嘻嘻 實習生 張茉莉
本文部分內容首發自新京報公號“新京報評論”
未經新京報書面授權不得轉載使用
歡迎朋友圈分享
星標“新京報”
及時接收最新最熱的推文
點擊“在看”,分享熱點