DeepMind開發AutoRT新系統,用AI大模型為機器人「發號施令」

2024-01-17     DeepTech深科技

原標題:DeepMind開發AutoRT新系統,用AI大模型為機器人「發號施令」

你會把還能穿的髒衣服堆在哪裡?我先來揭自己的短:臥室的椅子上。

不知道為什麼,每次我要睡覺的時候,都非常不想收拾這些衣服,所以我寧願把它們都堆在椅子上,然後告訴自己「明天再說吧」。如果可以的話,我願意花大價錢將這項工作自動化。

多虧了人工智慧,我們未來或許真的可以看到家務機器人的問世。幾十年來,真正好用的家務機器人只存在於科幻小說中,這也是許多機器人科學家的最終目標。

機器人並不聰明,我們覺得容易的事情它們卻很難做到。能夠完成手術等非常複雜工作的機器人通常售價高達數十萬美元,貴得令人望而卻步。

我最近報道了美國史丹福大學開發的名為 Mobile ALOHA 的新機器人系統,研究人員用它驅動了一個便宜的、可以輕鬆買到的帶輪子的機器人,讓它能夠完成一些極其複雜的事情,比如煮蝦、擦拭污漬和搬動椅子。

他們甚至讓它做了三道菜,儘管是在人類的監督下完成的。

史丹福大學助理教授切爾西·芬恩(Chelsea Finn)是該項目的顧問,她說,機器人技術正處於一個轉折點。過去,研究人員一直受到訓練機器人所需數據量的限制。

現在有了更多的可用數據,像 Mobile ALOHA 這樣的工作表明,有了神經網絡和更多的數據,機器人可以非常快速、輕鬆地學習複雜任務。

驅動聊天機器人的大型語言模型,依賴從網際網路上收集的龐大數據集才能完成訓練,但訓練機器人需要使用真實場景中收集的數據。

這使得構建龐大的數據集變得十分困難。紐約大學和 Meta 的研究小組最近想出了一個簡單而聰明的方法來解決這個問題。

他們將 iPhone 綁在機械臂(抓取器)上並記錄在實驗參與者家裡完成的任務。收集來的數據被用來訓練一個名為 Dobb-E 的系統,可以在大約 20 分鐘內完成 100 多項家庭任務。

美國卡內基梅隆大學助理教授迪帕克·帕塔克(Deepak Pathak)表示,Mobile ALOHA 還反駁了機器人界的一種觀點,即主要是硬體缺陷阻礙了機器人完成此類任務。

(來源:STEPHANIE ARNETT/MITTR | ENVATO)

「缺失的部分是人工智慧。」他說。

至於讓機器人對語音指令做出反應,以及更好地適應現實世界裡的混亂環境,人工智慧也可以派上用場:谷歌的 RT-2 系統可以將視覺語言動作模型與機器人相結合。

它使機器人能夠「看到」和分析世界,並對語音指令做出反應,完成相應行動。

DeepMind 開發了一個名為 AutoRT 的新系統,使用類似的視覺語言模型來幫助機器人適應看不見的環境,並利用大型語言模型來為一隊機器人提供指令。

不過,即使是最先進的機器人也做不到幫人洗衣服,因為這項家務對於機器人來說實在太難了。堆起來的衣服沒什麼規律可言,形狀千奇百怪,這使得機器人很難處理它們。

但這可能只是時間問題,來自史丹福大學的研究人員 Tony Zhao 說。他樂觀地認為,即使是最棘手的任務,總有一天機器人也有可能使用人工智慧來完成。只不過它們需要先收集好的數據。

作者簡介:梅麗莎·海基萊(Melissa Heikkilä)是《麻省理工科技評論》的資深記者,她著重報道人工智慧及其如何改變我們的社會。此前,她曾在 POLITICO 撰寫有關人工智慧政策和政治的文章。她還曾在《經濟學人》工作,並曾擔任新聞主播。

支持:Ren

運營/排版:何晨龍

文章來源: https://twgreatdaily.com/zh-tw/4a60d8e5e86e2214ca252db44c7543a3.html