編譯/VR陀螺
《Boz To The Future》是一檔由Meta Reality Labs打造的播客節目,該節目由Meta首席技術官Andrew Bosworth主持,旨在探討Meta Reality Labs正在瞄準的元宇宙、VR/AR以及AI等領域。
《Boz To The Future》於近日發布了其最新一期節目,該節目旨在紀念Meta基礎人工智慧研究團隊 (FAIR) 成立10周年,Meta首席科學家Michael Abrash出席了活動並談到了AI與VR/AR融合的願景。
藉助上下文AI(永不疲倦、隨時可用的主動助手),AR眼鏡和VR頭顯可以幫助您實現目標,增強您的感知、記憶和認知,讓您的生活幾乎神奇地變得更輕鬆、更高效。
這在以前是不可能的,因為以前從來沒有任何設備能夠從你的角度看待你的生活。我相信這最終可能是AR/VR革命最重要的方向。正如圖形用戶介面 (GUI) 是我們今天與數字世界交互的方式一樣,情境AI將成為未來的人機介面,它將比GUI更具變革性,因為它直接觸及數字世界的核心。幫助我們按照自己想要的方式生活。
在過去的幾年裡,奇蹟發生了。大型語言模型 (LLM) 出現了,它具有處理理解用戶目標所需的多模態推理的潛力,並幫助他們根據上下文和歷史實現這些目標。
關鍵在於,大型語言模型有可能在視覺、音頻、語音、眼動跟蹤、手部跟蹤、肌電圖和其他上下文輸入、你的歷史記錄以及廣泛的世界知識之間進行推理,然後採取行動幫助你實現目標,並在需要時對你進行引導或消除歧義。
LLM需要更上一層樓才能發揮潛力,而FAIR正是實現這一目標的理想團隊。從整體上看,FAIR的人工智慧研究與Reality Labs的AR/VR研究的融合彙集了創建上下文人工智慧介面所需的所有元素,這將充分實現Meta的未來願景。
除播客外,Meta的博客文章還透露,Meta正計劃於明年將多模態人工智慧引入Ray-Ban Meta,並為其視頻和多模態感知研究提供Ego-Exo4D基礎數據集。不過從長遠來看,當前只是一個開始,因為未來完整的情境人工智慧系統需要的各種技術現在還不存在。
來源:Meta