臺大研究:聊天機器人提供錯誤資訊 超過七成將被使用者記憶

AI聊天機器人會回答錯誤資訊已經不是新聞,但進到人們記憶中的錯誤資訊會影響人們的決策。聯合報系資料照片

臺灣大學心理系副教授黃從仁的研究團隊今年11月20日在《美國心理學家》期刊發表最新的聊天機器人研究,研究發現,對話機器人的訊息中有77%的錯誤詞彙成爲參與者的記憶。研究也發現,一次性的警語無法減少錯誤的記憶,即使預先頻繁、針對特定項目警告參與者,也無法阻止參與者記憶特定項目的錯誤資訊。

臺灣科技媒體中心(SMC)邀請專家發表看法,此項研究作者之一黃從仁表示,聊天機器人會回答錯誤資訊已經不是新聞,但進到人們記憶中的錯誤資訊會影響人們的決策。這項研究證實,機器人提供的錯誤資訊中,有7、8成會變成人們的記憶,且即使機器人在提供錯誤的資訊前,已經抱持着自我懷疑、並提出警告,但這些警告只能增加人們的戒心,無法真正避免錯誤資訊成爲記憶。

爲了避免錯誤資訊仍被記憶的問題,黃從仁認爲,聊天機器人應儘量不要輸出錯誤的資訊,例如透過人工檢核的方式剔除學習資料中的錯誤資訊,或是讓聊天機器人透過網路搜尋,先對答案進行事實查覈。如果機器人真的無法確認答案的真確性,要直接回答「不知道」。

臺大資訊工程學系副教授陳縕儂表示,現今生成式AI越來越普遍,由機器生成、帶有錯誤資訊的內容,是否會在人機互動中潛移默化影響使用者,是規範現代AI產品非常重要的考量。這項研究可以提供未來AI技術產品發展的指引,也能讓法規透過這個結論,來制定合適的規範策略。

另外,陳縕儂提醒,這則研究只探討了「錯誤資訊」造成的影響,但「偏頗資訊」的影響力可能更大,因爲偏頗的訊息可能並非錯誤,所以使用者更難經由事實查覈來驗證正確性。陳縕儂表示,我們在使用這些對話機器人時,需要對機器提供的資訊抱持懷疑,也需要具備自己的思辨能力與查覈力,做出自我的最終判斷,才能避免AI機器影響人類想法言論。