社羣演算法失控 竟推暴力影片給青少年

社羣平臺會推薦暴力、色情、厭女情節等影片給部分青少年。(Photo by Nordskov Media)

原本還在抖音滑貓狗的影片,下一秒突然出現車禍的血腥場景,社羣平臺的演算法正在失控!專家研判,社羣平臺的演算法只關注觀看數、用戶年齡等虛擬資料,不一定會真實審查內容。對此,抖音與Meta都聲明辯稱,企業有使用大量資源來保護兒少使用的安全。

推薦兒少暴力內容

《BBC》報導,曾在抖音工作的用戶安全分析師康恩曾檢視抖音的內容推薦,發現平臺會推薦暴力、色情、厭女情節等影片給部分青少年。

儘管抖音引進AI工具來移除大多數有害的影片,並將有疑慮的內容貼上標籤,供人類人工檢視。康恩指出,所有未被AI移除、被AI標記,或被其他用戶檢舉的影片,只要在特定狀況纔會被審查,例如觀看數超過1萬;至於Meta則相當仰賴用戶檢舉纔會下架影片,意味着用戶早就已經看過這些影片,所以才能進行檢舉。

英國監管單位「 Ofcom」安全政策發展主任娜拉說,不管是否是刻意的,大多數主流社羣平臺都曾推薦有害的內容兒少,但企業卻對此視而不見,以對待成人用戶的方式來對待兒少。

演算法只看數據

對此,抖音表示,企業在用戶安全方面,不僅僱用超過4萬名員工,更投資超過20億美元,主動檢測98%違反規定的內容;旗下有Instagram與臉書的企業Meta則表示,企業運用超過50種工具與資源,確保能給兒少用戶「正面且符合年齡的使用經驗」。

《紐約時報》報導,馬斯克收購原名推特的社羣平臺X滿一年後,X的有害內容這段期間大幅增加。根據研究機構Reset的紀錄,該平臺出現166則反猶太主義言論的貼文,其中包含對猶太人採取暴力或否認納粹大屠殺等內容,部分甚至已違反歐洲國家法律。。

康恩表示,演算法被設計來最大化用戶的參與,不斷推薦用戶願意花更多時間觀看的影片,但最大的問題是團隊在訓練演算法時,其實並不清楚社羣平臺實際上會推薦什麼性質的內容,而只關注觀看數、年齡、趨勢等數據。

【更多精采內容,詳見】