你的聲音被誰“偷”走了?
親耳聽到的就是真的嗎?未必。網絡平臺上,AI聲音隨處可見。 從“張文宏醫生”推銷蛋白棒視頻“走紅”網絡,後被本人“打假”,到多位配音演員稱聲音被AI“偷走”,公開維權……“新華視點”記者調查發現,隨着人工智能技術和語音大模型應用的發展,AI合成聲音App大量出現,最快只需十幾秒便可“克隆”出來。與此同時,AI聲音濫用現象愈發突出,不時引發爭議。
AI聲音濫用不時發生
記者在某短視頻平臺以“AI克隆聲音”爲關鍵詞檢索發現,明星翻唱、新聞播報、吐槽點評等大量視頻涉及AI聲音,有些甚至出現不雅詞彙,不少視頻點贊和評論量過千。 而AI聲音濫用事件也不時發生,引發關注和討論。 在社交平臺上,通過AI模仿惡搞各領域名人的音視頻不在少數。此前,短視頻平臺涌現了大量AI模仿某知名企業家聲音吐槽堵車、調休、遊戲等熱門話題的視頻,個別視頻甚至還有髒話出現,一度登上熱搜。該企業家隨後發視頻迴應稱:“相關事件的確讓自己挺困擾,也挺不舒服,希望大家都不要‘玩’了。” 中國社會科學院大學互聯網法治研究中心主任劉曉春表示,在未經過授權、未進行標註的情況下,用他人聲音製作AI語音產品,尤其是“借用”公衆人物的聲音,很容易引起誤解,不僅會侵害個人信息安全,還可能擾亂網絡空間生態和秩序。
聲音是如何被“偷”走的?
AI如何生成以假亂真的聲音?受訪專家介紹,AI能夠“克隆”聲音,主要是依靠深度學習算法,即短時間內從採集的聲音樣本中提取關鍵特徵,包括頻率、音色、聲調、語速、情感等,將這些特徵記錄爲數學模型,再通過算法合成。 中國科學院自動化研究所模式識別實驗室工程師牛少東說,隨着算法越來越先進,在高性能設備和高精度模型的加持下,AI生成的語音內容從兩年前的“一眼假”升級到如今的“真假難辨”。 AI聲音在最近一兩年時間內變得格外“流行”。清華大學新聞與傳播學院教授瀋陽說,人工智能技術的普及,讓AI模擬聲音的門檻大幅降低。通過一些開源軟件和平臺,沒有專業知識的普通用戶也能操作。 業內人士告訴記者,AI模擬人聲在互聯網“流行”,有追逐流量和變現的目的。通過“克隆”名人聲音製作的惡搞、獵奇類視頻,在相關平臺播放和點贊量均不低,有的甚至還被推上熱搜。發佈者也相應獲得流量曝光、粉絲增長、廣告收入等播放收益。
多措並舉強化治理
用AI生成他人聲音,是否違法違規?多位受訪專家表示,個人聲音中包含的聲紋信息具備可識別性,能以電子方式記錄,能關聯到唯一自然人,是生物識別信息,屬於個人信息保護法規定的敏感個人信息之一。 2024年4月,北京互聯網法院宣判全國首例“AI聲音侵權案”,明確認定在具備可識別性的前提下,自然人聲音權益的保護範圍可及於AI生成聲音。該法院法官認爲,未經權利人許可,擅自使用或許可他人使用錄音製品中的聲音構成侵權。 近年來,有關主管部門出臺《人工智能生成合成內容標識辦法(徵求意見稿)》《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》等規定,一定程度上給AI技術使用劃定了紅線。 2024年12月,廣電總局網絡視聽司發佈《管理提示(AI魔改)》,要求嚴格落實生成式人工智能內容審覈要求,對在平臺上使用、傳播的各類相關技術產品嚴格准入和監看,對AI生成內容做出顯著提示。 多位專家表示,各類社交網絡、短視頻平臺要強化主動監管意識,及時發現、處理可能涉及侵權的AI生成作品;相關部門應繼續加大對利用AI技術進行詐騙等違法犯罪行爲的打擊力度,形成更加完善的常態化治理機制。 據新華社