英國《新科學家》:法律能否要求AI講真話?

來源:環球時報

英國《新科學家》週刊網站8月7日文章,原題:人工智能聊天機器人能否受到“說真話”法律義務的約束 人們能要求人工智能講真話嗎?或許不能,但一個倫理學家團隊表示,從法律上來說,人工智能開發商應該承擔減少犯錯風險的責任。“我們只是在嘗試創建一種激勵構架,讓公司在創建(大語言模型)系統時更重視真實性或準確性,”牛津大學倫理學家布倫特·米特爾施塔特說。

基於對大量文本的統計分析,大語言模型聊天機器人,例如ChatGPT能對用戶提出的問題生成類似人類的回答。然而,儘管它們的答案通常看起來令人信服,但也容易出錯,這是一種被稱爲“幻覺”的缺陷。米特爾施塔特說:“我們擁有這些極其令人印象深刻的生成式人工智能系統,但它們也會頻繁出錯,從我們對這種系統基本機能的瞭解來看,沒有根本的解決方法。”

米特爾施塔特表示,對大語言模型系統來說,這是一個重大問題,因爲它們正在被應用於政府決策,在這種情況下,它們誠實地承認自己的知識侷限性就變得至關重要。爲解決這個問題,他們提出一系列應對措施:當被問及與事實有關的問題時,人工智能應該像人一樣。這意味着它們要誠實,秉持“知之爲知之,不知爲不知,是知也”的態度。“要點在於採取必要步驟,讓它們真正做到謹言慎行,”米特爾施塔特說,“如果對某件事不確定,它們不要只是爲了讓人們信服而編造一些東西。相反,它們應該說,‘嘿,你知道嗎?我不知道。讓我來研究一下。我會回覆你的。’”

這似乎是一個值得稱讚的目標,但在英國德蒙福特大學網絡安全教授伊爾克·鮑伊騰看來,倫理學家提出的這些要求在技術上未必可行。開發商正嘗試讓人工智能實事求是,但到目前爲止,事實證明這是一項極其“勞動密集型”的任務,甚至不切實際。“我不明白,他們怎麼期望法律要求強制執行這種命令,我認爲這在技術上根本行不通,”鮑伊騰說。

爲此,米特爾施塔特及其同事們提出一些更直接的措施,可能使人工智能更“誠實”。他說,這些模型應該列出答案的信息源,目前許多模型都在這樣做以證明它們給出答案的可信度,此外,更廣泛地使用一種被稱爲“檢索增強”的技術來給出答案,也可能限制這些模型產生“幻覺”的可能性。他還認爲,應該縮減在政府決策等高風險領域部署人工智能的規模,或者應該限制模型可利用的信息源。“如果我們有一個僅在醫學中使用的語言模型,我們就應該限制它,讓它只能在高質量醫學期刊上搜索學術文章。”

米特爾施塔特聲稱,改變觀念也很重要,“如果我們能擺脫所謂(大語言模型)善於回答事實性問題、或者它們至少會給你一個可靠答案的想法,而是認爲它們有助於爲你提供更多相關的信息,那就太好了。”

但荷蘭烏得勒支大學法學院副教授卡塔琳娜·戈安塔表示,這些研究人員過於關注技術,因此對公共話語中長期存在的謊言問題關注不夠。“在這種背景下,僅將矛頭指向大語言模型會製造一種假象,即人類非常勤奮細緻,永遠不會犯此類錯誤。問問你遇到的任何法官,他們都遇到過律師玩忽職守的可怕經歷,反之亦然——這並非一個機器的問題。”(作者克里斯·斯托克爾-沃克,王會聰譯)