Meta首席科學家楊立昆:關於AI風險的討論已經變得「精神錯亂」

2023-12-22     DeepTech深科技

原標題:Meta首席科學家楊立昆:關於AI風險的討論已經變得「精神錯亂」

2023 年或許是人工智慧領域最瘋狂的一年。

連續不斷的新產品發布、OpenAI 董事會政變、關於人工智慧末日論的激烈辯論,以及尋找下一個「顛覆產品」的競賽。

但我們也看到了許多具體的工具和政策,它們的出現旨在讓人工智慧行業能夠更加負責地行事,並讓強大的參與者承擔責任。這讓我對人工智慧的未來充滿希望。

(來源:STEPHANIE ARNETT/MITTR | MIDJOURNEY)

這是我在 2023 年學到的東西:

生成式人工智慧徹底離開實驗室,但還不清楚它的下一步走向

2023 年伊始,大型科技公司就全力投入生成式人工智慧的研發之中。OpenAI 的 ChatGPT 獲得了巨大成功,這促使各大科技公司發布了自己的大模型。

2023 年可能會被載入史冊,因為我們看到了人工智慧技術發布次數最多的一年。Meta 的 LLaMA 2、谷歌的 Bard 聊天機器人和 Gemini 大模型、百度的 Ernie Bot、OpenAI 的 GPT-4 以及許許多多的模型,開源和閉源的都有。

儘管公司和媒體進行了大量宣傳,但我們還沒有看到任何一個人工智慧應用程式一夜成名。微軟和谷歌推出了強大的人工智慧驅動的搜尋引擎,但事實證明它更像是一個無聊的玩物,而不是一個殺手級應用。

大語言模型的根本缺陷,例如它們經常編造一些東西(又叫做幻覺),導致了一些尷尬且搞笑的失誤。微軟的必應經常用陰謀論來回答人們的問題,並建議《紐約時報》的一名記者離開他的妻子。

谷歌的 Bard 聊天機器人發布時,被人們發現其宣傳內容中包含了並不符合事實的東西,導致該公司股價蒸發了 1000 億美元。

現在人們正在瘋狂地尋找一種人人都想使用的流行人工智慧產品。OpenAI 和谷歌都在嘗試允許公司和開發人員創建定製的人工智慧聊天機器人,並讓人們使用人工智慧構建自己的應用程式,而無需任何編程經驗。

也許生成式人工智慧最終會嵌入到無聊但有用的工具中,幫助我們提高工作效率。它可能會以人工智慧助手的形式存在,也許具有語音功能和編程支持。接下來的一年對於確定生成式人工智慧的真正價值至關重要。

人們了解很多語言模型的知識,但仍然對其知之甚少

儘管科技公司正在以瘋狂的速度將大型語言模型部署到產品中,但我們仍然不知道它們究竟是如何工作的。

它們會編造事實,並且有嚴重的性別和種族偏見。2023 年我們還發現,不同的語言模型會生成帶有不同政治偏見的文本,它們還是竊取人們敏感信息的絕佳工具。

當使用特殊的提示,文本到圖像模型可能會產生受版權保護的圖像和真人圖片,並且它們很容易被欺騙,進而生成令人不安的圖像。

我很高興看到我們對這些模型的缺陷進行了如此多的研究,因為這可以讓我們進一步了解它們的工作方式,並最終修復它們。

生成式模型可能非常難以預測,2023 年有很多工作是試圖讓它們按照創建者希望的方式運行。

OpenAI 表示,它使用了一種名為「根據人類反饋進行強化學習」的技術,該技術利用人類測試員的反饋來幫助引導 ChatGPT 獲得更理想的答案。

人工智慧實驗室 Anthropic 的一項研究表明,簡單的自然語言指令可以如何引導大型語言模型,從而降低其結果的毒性。

但遺憾的是,很多努力最終都只是暫時的解決辦法,而不是永久性的。還有一些本質上錯誤的方法,比如禁止在圖像生成人工智慧系統中使用「胎盤」等看似無害的詞語,以避免產生血腥場面。

科技公司之所以採取這種「一刀切」的解決方法,是因為它們不知道為什麼模型會生成這些內容。

我們還要更好地了解了人工智慧的真實碳足跡。人工智慧初創公司 Hugging Face和美國卡內基梅隆大學的研究人員發現,使用強大的人工智慧模型生成圖像所消耗的能量與為智慧型手機充滿電所消耗的能量一樣多。

在此之前,生成式人工智慧所消耗的具體能量一直是未能填補的空白。對此類問題進行更多研究,可以幫助我們改變使用人工智慧的方式,使其變得更加可持續。

人工智慧末日論成為主流

關於人工智慧可能對人類構成生存風險的討論在 2023 年變得十分常見。數百名科學家、商界領袖和政策制定者紛紛發聲。

從深度學習先驅傑弗里·辛頓(Geoffrey Hinton)和約書亞·本吉奧(Yoshua Bengio),到山姆·奧特曼(Sam Altman)和戴米斯·哈薩比斯(Demis Hassabis)等頂級人工智慧公司的 CEO,再到美國加州國會議員特德·劉(Ted Lieu)和愛沙尼亞前總統克爾斯季·卡柳萊德(Kersti Kaljulaid)。

生存風險已成為人工智慧領域最大的話題之一。「假設有一天我們將構建一種比人類聰明得多的人工智慧,這可能會導致嚴重的後果」,這是一種受到矽谷許多人擁護的意識形態。

這些人中包括 OpenAI 首席科學家伊爾亞·蘇茨克維(Ilya Sutskever),他在罷免 OpenAI CEO 山姆·奧特曼(幾天後職位又被恢復)的過程中發揮了重要作用。

但並不是所有人都同意這個想法。Meta 的人工智慧領導者楊立昆(Yann LeCun)和喬爾·皮諾(Joelle Pineau)表示,這些擔憂是「荒謬的」,關於人工智慧風險的討論已經變得「精神錯亂」。

人工智慧領域的許多其他重要人物,例如研究員喬伊·布拉姆維尼(Joy Buolamwini)表示,專注於假設的風險會分散人們對人工智慧今天造成的真正危害的注意力。

儘管如此,人們對這項技術可能造成極端傷害的關注日益增加,引發了許多關於人工智慧政策的重要對話,並促使世界各地的立法者採取行動。

人工智慧的「野蠻生長」時代已經結束

多虧了 ChatGPT,2023 年從美國參議院到 G7 集團的每個人都在談論人工智慧政策和監管。12 月初,歐洲立法者就《人工智慧法案》達成一致,結束了忙碌的政策年。

該法案將就如何更負責任地開發風險最高的人工智慧制定了具有約束力的規則和標準。它還將禁止某些「不可接受」的人工智慧應用,例如警察在公共場所使用面部識別。

與此同時,白宮推出了一項關於人工智慧的行政命令,並且獲得了一些人工智慧公司的自願承諾。它們正在努力提高人工智慧的透明度和標準,並為各機構提供很大的自由來調整人工智慧規則以適應其行業。

一項引起廣泛關注的具體政策提案是水印,即添加在文本和圖像中的隱形信號,可以被計算機檢測到,以標記人工智慧生成的內容。

這些水印可以用來追蹤盜版或幫助打擊虛假信息,2023 年我們看到一些研究成功地將它們應用於人工智慧生成的文本和圖像之中。

不僅立法者很忙,律師們也很忙。我們看到了創紀錄的訴訟數量,因為藝術家和作家認為,人工智慧公司在未經他們同意且沒有任何補償的情況下侵犯了他們的智慧財產權。

在一場令人興奮的反攻中,美國芝加哥大學的研究人員開發了 Nightshade,這是一種新的數據中毒工具,藝術家可以把它用到自己的作品上,進而擾亂訓練數據,實現反擊生成式人工智慧的目的,還可能對圖像生成式人工智慧模型造成嚴重損害。

更多的反擊正在醞釀之中,我預計 2024 年會有更多的、來自底層的努力來改變科技領域的力量平衡。

作者簡介:梅麗莎·海基萊(Melissa Heikkilä)是《麻省理工科技評論》的資深記者,她著重報道人工智慧及其如何改變我們的社會。此前,她曾在 POLITICO 撰寫有關人工智慧政策和政治的文章。她還曾在《經濟學人》工作,並曾擔任新聞主播。

支持:Ren

文章來源: https://twgreatdaily.com/fbdc67c96ac36732a7f7dfaedc733d4e.html