最近,美國麻省理工學院(MIT)一個研究團隊發布研究結果稱,人工智慧將對人類虛假記憶產生影響,即人們會產生沒有發生或偏離實際事件的回憶。
該研究通過在人與人工智慧的互動過程中,提出暗示性問題來產生虛假記憶的誘導,從而模擬犯罪證人訪談。測試分為四種條件:控制、基於調查、預先編寫的聊天機器人和使用大型語言模型(LLM)的生成式AI聊天機器人。
200位參與者觀看了一段犯罪視頻,然後與指定的人工智慧面試官或調查員進行互動,回答問題包括五個誤導性問題。結果顯示,使用生成式AI聊天機器人更容易讓參與者形成錯誤記憶,相比控制條件多出3倍,比調查條件多1.7倍。其中,36.4%的測試者在與生成式AI聊天機器人的互動中被誤導。
一周後,由生成式AI聊天機器人誘導的錯誤記憶數量保持不變。同時,對這些虛假記憶仍然高於控制條件。研究人員經過研究發現:對聊天機器人不太熟悉但更熟悉人工智慧技術的參與者,以及對犯罪調查更感興趣的參與者,更容易產生錯誤記憶。這些發現強調了在敏感情況下使用先進人工智慧的潛在風險,如警察審訊中對倫理考慮的必要性。
研究通過拆解人工智慧誘導虛假記憶產生的三個階段來尋找原因。例如,預設一個只涉及一把刀的犯罪現場,而人工智慧系統通過詢問,一把不存在的槍來引入錯誤信息,讓目擊者對現場的槍產生了錯誤的記憶。由此可見,人工智慧引導的提問可以扭曲人類的記憶,並損害目擊者證詞的可靠性,從而凸顯了人工智慧對人類記憶和感知影響的倫理問題。與其他干預措施相比,生成式AI聊天機器人更容易誘導人,並且產生更多錯誤記憶。而且,由生成式聊天機器人所引發的虛假記憶,在一周後保持不變。
事實上,有關人工智慧欺騙和誘導人的研究並不少見。今年5月,來自MIT、澳大利亞天主教大學(ACU),以及Center for AI Safety的最新研究發布《Patterns》雜誌一篇綜述文章中,描述了AI系統欺騙性的風險,並呼籲全世界一起解決這一問題。
論文第一作者、MIT博士後Peter S. Park認為:「人工智慧欺騙行為的產生,是因為基於『欺騙的策略』,被證明是在特定人工智慧訓練任務中,表現出的最佳方式。欺騙有助於它們實現目標」。
今年6月,德國的科學家Thilo Hagendorff對LLM展開一系列實驗,發現LLM(大模型)已經湧現出「欺騙能力」,它們可以理解並誘導欺騙策。而且,相比前幾年的LLM,更先進的GPT-4、ChatGPT等模型在欺騙任務中的表現顯著提升。
正如圖靈獎得主傑弗里·辛頓(Geoffrey Hinton)教授多次的警告:「如果不採取行動,人類可能會對更高級的智能AI失去控制。」
文章來源: https://twgreatdaily.com/zh-sg/c1ae195da8193e658b46b82666a9541a.html