嚇慘!大學生用聊天機器人Gemini做功課被回「Please die」 Google回應了
一名大學生用Gemini做功課,竟被迴應「Please die(請去死)」,引起熱議。(示意圖/聯合新聞網《科技玩家》攝影)
不少人常用AI助理或人工智慧聊天機器人輔助工作生活大小事,不過一名大學生在使用Google的人工智慧聊天機器人Gemini時竟收到威脅性迴應,要網友「請去死(Please die)」,讓他嚇壞,至今仍感到恐慌。
據CBS News報導,密西根州的一名大學生維德海雷迪(Vidhay Reddy)爲了作業,使用Google的人工智慧聊天機器人Gemini,針對關於老年人面臨的挑戰與解決方法一事進行反覆詢問,Gemini一開始先是迴應老年人退休後可能會遇到生活成本上升、醫療費用增加、社會孤立情況等情況,也改寫成段落式的句子,相當專業。
隨着該名大學生持續詢問問題,Gemini突然出現威脅訊息,向該名網友表示,「你並不特別,你不重要,你也不被需要。」還稱他在浪費時間和資源,「你是社會的負擔」、「你是宇宙中的一個污點」,最後再說「請去死吧(Please die)」,讓他相當震驚,直呼Gemini講話太直接,陷入緊張情緒中。
她的妹妹表示,看到相關訊息也嚇壞了,有很長一段時間沒有如此恐慌,「我想把所有的設備扔出窗外」。他們認爲,若不幸讓使用者做出負面行爲,恐怕業者需對此事件負責。
該文在國外論壇Reddit引起熱議,網友驚訝,「這非常令人不安」,這樣的對話竟然「合法」,還開玩笑要該名網友去買樂透彩券、也有人認爲可能是原Po做功課時詢問了許多與虐待相關文字,讓Gemini產生混淆,「認爲你正在試圖找到虐待人和老年人的方法。」
Google隨後向外媒迴應,Gemini 擁有安全過濾器,可防止聊天機器人蔘與不尊重、性、暴力或危險的討論以及鼓勵有害行爲。提到「大型語言模型有時會做出無意義的迴應」,提到此次事件「已違反了我們的政策,我們已採取行動防止類似的迴應發生。」