為什麼大型科技公司在人工智慧助理上的賭注如此冒險?

2023-10-04     DeepTech深科技

原標題:為什麼大型科技公司在人工智慧助理上的賭注如此冒險?

自生成式人工智慧熱潮掀起以來,科技公司一直在努力地為這項技術開發殺手級應用程式。最開始是在線搜索,目前的情況是喜憂參半。現在輪到了人工智慧助手。

上周,OpenAI、Meta 和谷歌為他們的人工智慧聊天機器人推出了新功能,允許它們聯網並扮演某種私人助理。

據我的同事威爾·道格拉斯·海文(Will Douglas Heaven)報道,OpenAI 為 ChatGPT 加入了新功能,其中包括與聊天機器人進行對話的能力,就像在打電話一樣,它可以用逼真的合成聲音即時回答你口頭提題。OpenAI 還透露,ChatGPT 將能夠搜索網絡內容。

作為競爭對手,谷歌 Bard 聊天機器人已接入該公司的大部分生態系統,包括 Gmail、Docs、YouTube 和地圖。其目標是,人們將能夠使用聊天機器人詢查詢自己的信息,例如,讓它搜索電子郵件或整理日常安排。

Bard 還將能夠立即從谷歌搜索中檢索信息。類似地,Meta 也宣布,它也將部署人工智慧聊天機器人。用戶將能夠在 WhatsApp、Messenger 和 Instagram 上向人工智慧聊天機器人和名人的人工智慧虛擬化身提問,人工智慧模型可以從必應搜索中在線檢索信息。

(來源:MIT TR)

考慮到技術的局限性,這是一個冒險的行為。科技公司還沒有解決人工智慧語言模型的一些存在已久的問題,比如他們有編造東西或「產生幻覺」的傾向。

但我最擔心的是,正如我今年早些時候所寫的那樣,它們可能帶來安全和隱私災難。科技公司正在將這項存在嚴重缺陷的技術交到數百萬人的手裡,並允許人工智慧模型訪問他們的電子郵件、日曆和私人信息等敏感信息。在這個過程中,他們使我們都更容易遭遇大規模的詐騙、網絡釣魚和黑客攻擊。

我之前已經介紹過人工智慧語言模型的重大安全問題。現在,人工智慧助手可以訪問個人信息並同時搜索網絡,他們特別容易受到一種稱為間接提示注入的攻擊。它非常容易實現,而且沒有已知的修復方法。

正如我在四月份所寫的,在一次間接提示注入攻擊中,第三方可以通過添加旨在改變人工智慧行為的隱藏文本來改變網站,攻擊者可以使用社交媒體或電子郵件將用戶引導到帶有這些隱藏提示的網站。一旦發生這種情況,人工智慧系統可能會被惡意操縱,允許攻擊者嘗試提取人們的信用卡信息。隨著新一代人工智慧模型接入社交媒體和電子郵件,黑客有了更多漏洞可鑽。

我向 OpenAI、谷歌和 Meta 提問,問他們做了什麼來抵禦提示注入攻擊和幻覺問題。在發稿時,Meta 和 OpenAI 沒有回覆。

關於人工智慧的幻覺傾向,谷歌的一位發言人表示,該公司發布 Bard 是一項「實驗」,它允許用戶使用谷歌搜索來核實給出的答案。

這位發言人說:「如果用戶發現了編造或不準確的東西,我們鼓勵他們點擊『不喜歡』圖標並提供反饋。這是 Bard 學習和改進的一種方式。」顯然,這種方法讓用戶承擔了發現錯誤的責任,然而人們往往過於信任計算機產生的回應。關於我提出的抵禦提示注入的問題,谷歌表示目前還沒有答案。

對於提示注入,谷歌表示這個問題還沒有一個好的解決方案,仍然是一個活躍的研究領域。該發言人表示,該公司正在使用垃圾郵件過濾器等其他系統來識別和過濾可能的攻擊,並正在進行對抗性測試和紅隊演練,以確定惡意行為者可能如何攻擊基於語言模型的產品。

這位發言人說:「我們正在使用經過專門訓練的模型,來幫助識別違反我們政策的已知惡意輸入和不安全輸出。」

我理解每次新產品發布都會有經過一段時間的磨合。但即使是人工智慧語言模型產品的早期支持者,對這些產品也沒有什麼好印象,這很說明問題。《紐約時報》專欄作家凱文·羅斯(Kevin Roose)發現,谷歌的助理善於總結電子郵件,但也會告訴他收件箱裡不存在的電子郵件。

簡而言之,科技公司不應該對所謂的人工智慧工具的「必然性」如此自滿。普通人不會喜歡那些經常犯錯和失敗的產品,尤其是其背後的技術總是以令人討厭和不可預測的方式失效。距離我們看到黑客惡意使用這些新的人工智慧助手只是時間問題。現在,我們都只能坐以待斃。

我不知道你是怎麼想的,但我打算再等上一段時間,先不讓這一代人工智慧系統窺探我的電子郵件。

作者簡介:梅麗莎·海基萊(Melissa Heikkilä)是《麻省理工科技評論》的資深記者,她著重報道人工智慧及其如何改變我們的社會。此前,她曾在 POLITICO 撰寫有關人工智慧政策和政治的文章。她還曾在《經濟學人》工作,並曾擔任新聞主播。

支持:Ren

文章來源: https://twgreatdaily.com/zh-tw/c768079b295cd12e02491627347fe451.html