算法到底該不該爲“信息繭房”背鍋?
平臺算法應用生態成爲近年來監管的焦點。繼互聯網信息服務算法相關的多部政策文件出爐後,去年11月至今,中央網信辦連同四部門聯合開展 “清朗·網絡平臺算法典型問題治理”專項行動(下稱“專項行動”),其中,整治“信息繭房”、增強算法向善服務、防止用戶沉迷等成爲關注重點。
“信息繭房”(information cocoon),也被稱爲過濾氣泡(filter bubble),指個性化算法通過跟蹤用戶行爲,如點擊、停留時長、社交關係等,篩選出符合其偏好的內容,形成一種“無形的信息過濾機制”,用戶看似自由選擇,實則被困在由算法編織的“氣泡”中,接觸的信息逐漸同質化,最終導致認知閉環。這一概念最早由互聯網活動家伊萊·帕裡澤(Eli Pariser)於2011年提出,彼時社交媒體興起,藉助算法推薦系統日益取代傳統媒體成爲新聞分發和消費的重要機制。而最近幾年,伴隨人工智能的快速發展,“算法之惡”更加顯化,成爲輿論討伐焦點並被置於監管雷達之下。去年11月,農夫山泉創始人鍾睒睒用“大惡”、“必須改變”等尖銳詞彙,激烈指責社交媒體通過算法機制屏蔽信息、扭曲事實、助推網絡暴力,引發了一場針對算法和平臺的輿論風暴。
算法究竟應該爲 “信息繭房”承擔多少責任?答案還尚不清晰。技術批評者將算法比作“食肉的老虎”,認爲其設計初衷和商業模式本身就意味着對用戶注意力的單向收割與信息的過度篩選;而反對者認爲,人性纔是繭房的土壤,算法只是放大了人性的弱點。
最近,一項刊發在新聞頂刊《Digital Journalism》的研究顯示,算法驅動的個性化推薦,相比用戶的自我選擇,反而會增強新聞的多樣性。來自暨南大學新聞與傳播學院的研究者利用一種虛擬的代理測試的實驗方法,模擬人類用戶與推薦算法互動,探討了算法與用戶行爲交互對新聞多樣性的影響。
具體做法是,利用虛擬用戶在抖音平臺上模擬不同用戶行爲並自動化收集數據,對比了三種情況下——純隨機曝光(即無個性化推薦)、僅有預選個性化(算法推薦但不受用戶輸入影響)以及同時存在預選和自選個性化(算法推薦並結合用戶選擇)——的新聞多樣性,同時考察了用戶主動選擇的新聞主題範圍和用戶對不符合其興趣的新聞內容進行互動的概率對新聞多樣性的影響。
結果發現,算法推薦的新聞比純隨機新聞更具多樣性,特別是在僅有算法決定推薦內容時,多樣性最高。當用戶參與內容選擇時,新聞曝光的多樣性反而有所降低,說明用戶的偏好會進一步強化已有興趣,減少對多元新聞的接觸。
該研究還發現,若用戶主動關注更多類型的新聞,新聞曝光的多樣性會增加,但若關注範圍變化不顯著,多樣性不會明顯提升。同時,只有用戶大幅增加對無興趣內容的互動(如遇到無關新聞有75%概率去點擊)時,新聞多樣性纔會顯著提升,這表明單靠用戶自身調整行爲遠遠不夠打破信息繭房。
“我們認爲,算法本身不應該被指責限制了多樣性;事實上,它是一種潛在的推動新聞多樣性的工具。”文章作者指出,“一個強有力的、促進多樣性的算法可以幫助聚焦公衆的注意力,通過提供一套統一然而多樣性的新聞,防止個體深陷極端信息或誤信。”
然而,更早之前,2023年清華大學基於大數據的一項實證分析得出了不同的答案。
實驗者從兩個大型數據集找到了大量用戶被困於“信息繭房”的證據,進而指出信息多樣性的喪失與人機交互系統中的兩個基本機制密切相關。一是基於相似性的匹配機制;二是對用戶反饋的利用,即根據用戶的正面和負面反饋來調整後續推薦內容。例如,最初用戶可以訪問各種主題,如名人、運動、動物等,但隨着用戶和推薦算法之間交互的增加,他們的訪問權限逐漸僅限於其中的幾個主題。
另外,暨南大學研究者提到的“多樣性”,可能也存在爭議。就連作者也表示,“非常值得強調的一點是,算法生產的多樣性不一定是真正的多樣性”,因爲無論其範圍和選擇如何多樣性,都仍然是在平臺的控制之下,用戶很難逃脫算法壘下的高牆。
面對鍾睒睒的責問,抖音副總裁李亮在接受鳳凰網採訪時迴應稱,抖音更看重的指標是用戶的長期留存,從商業邏輯上看,他們“沒有動力去製造所謂的‘繭房’,也最有動力打破‘信息繭房’。”
不過,有一些觀點指出,只要平臺的盈利主要來自對用戶注意力的留存,那麼算法帶來的所謂的多樣性,如果真的存在的話,也很可能只是從單一的情緒化內容變成多樣的情緒化內容而已,其結果仍然是認知的極化和撕裂,因爲情緒化內容最能延長用戶的使用時長。
這就不得不提人類在構建“信息繭房”過程中的主動作用。即使算法完全中立,用戶仍會主動選擇符合自身偏見的內容。諾貝爾經濟學獎得主丹尼爾·卡尼曼(Daniel Kahneman)曾提出,人腦存在兩個系統,“系統1”由情感驅動,依賴直覺和本能,追求即時滿足;“系統2”主要負責邏輯推理和理性思考。情緒渲染類的內容備受歡迎,因爲它們完美迎合了“系統1”。通過15秒短視頻、情緒化標題和即時反饋機制,將用戶鎖定在多巴胺驅動的循環中。也有實驗顯示,當用戶被強制推送對立觀點時,反而強化了原有立場。從這個意義上講,算法作爲一個工具,放大了人類認知中有助於形成“信息繭房”的一面。
對於如何破解“信息繭房”,暨南大學和清華大學的兩項研究都認爲,用戶可以通過反向“訓練”算法來增加信息的多樣性,比如有意識地對算法的選擇給與負面反饋並隨機探索其他選項。不過,研究人員也指出,這種做法雖然可能有用,但要大幅提升信息的多樣性,打破“信息繭房”,僅靠個體自身很難做到。
爲此,政府必須加強監管,出臺相應的政策和法規。在最近的專項行動中,網信辦等要求平臺不得推送高質化內容誘導用戶沉迷,不得強制要求用戶選擇興趣標籤,不得超範圍收集用戶個人信息用於內容推送以及規範設置“不感興趣”等負反饋功能等。在此之前的2021年和2022年,監管部門先後發佈《關於加強互聯網信息服務算法綜合治理的指導意見》和《互聯網信息服務算法推薦管理規定》,爲建立健全算法安全監管體系、規範信息服務提供了明確的法律依據和制度保障。當然,除了技術和監管,能否打破“信息繭房”,還要取決於每一個個體的選擇。
參考資料: