人工智能技術應用亟待規範
近日,一系列由AI生成的配音視頻在網絡上引發關注,其逼真程度令人驚訝,不僅畫面栩栩如生,聲音特徵也與真人幾乎無異,短時間內便收穫了過億次的播放量。然而,這些視頻中的內容與畫面中的公衆人物毫無關聯,現已被平臺下架。
AI技術的發展降低了深度僞造和低價量產的門檻,AI生成影像、換聲及換臉視頻大量出現。這些視頻雖吸引眼球,但背後隱藏的風險卻不容忽視。
當前,虛假信息的製造和傳播已成爲全球性問題,以假亂真的AI合成技術讓普通人在信息甄別上陷入困境。《2024年人工智能安全報告》顯示,基於AI的深度僞造欺詐在2023年激增30倍,對網絡安全和社會安全構成嚴重威脅。虛假信息的泛濫,不僅擾亂了網絡空間的正常秩序,更可能將負面情緒從虛擬世界傳導至現實,加劇社會焦慮。
應對深度僞造等亂象,需要多方協作、共同治理。目前,我國已出臺《互聯網信息服務深度合成管理規定》等法律法規,從源頭加強內容管理。同時,《人工智能生成合成內容標識辦法(徵求意見稿)》的發佈,也標誌着國家層面正加大對AI技術的監管力度。只有讓AI在合法合規的框架內健康發展,才能讓人們真正享受到技術變革帶來的紅利,推動人工智能產業良性發展。
作爲信息傳播的重要一環,平臺運營商和服務提供者也應承擔起相應的責任,對AI生成內容劃定紅線,嚴禁違法違規、侵權欺詐內容的傳播,並添加顯著提示標識,防範虛假信息擴散。此外,利用數字水印、時間戳、哈希函數等技術手段,既能提高信息真實性的可驗證性,也是防範虛假信息傳播的有效手段。作爲內容消費者,受衆也應保持警惕,提高辨別AI生成內容的能力,避免偏聽偏信。 (作者:李秋暘 來源:經濟日報)