谷歌I/O 2022|AR眼鏡再出道、沉浸式導航功能來了

2022-05-13   VRPinea

原標題:谷歌I/O 2022|AR眼鏡再出道、沉浸式導航功能來了

(VRPinea 5月13日訊)昨天凌晨,谷歌2022年度全球開發者大會如約而至。雖然往屆I/O大會的焦點主要集中在軟體上,但自從谷歌在2019年的大會上推出Pixel3a智慧型手機以來,硬體的「存在感」就開始逐漸增強,甚至在今年超越了軟體。

下面小P就先帶大家盤點一下,本次Google I/O大會上有關AR軟硬體方面的消息。

用於實時翻譯的AR眼鏡

在本屆開發者大會上,谷歌談論了許多關於智慧型手機、平板電腦和手錶的話題。但是,最讓小P感到意猶未盡的是,谷歌在大會的最後展示的一款AR眼鏡原型機。

在這段時長不足2分鐘的概念視頻中,谷歌集中展示了這幅AR眼鏡的實時翻譯功能。對於語言不通的移民家庭來說,溝通上存在一道難以跨越的鴻溝。但當他們帶上這款AR眼鏡原型機,視野中就會出現顯示實時翻譯的文字,就像是一塊放大版的字幕。

谷歌之前也推出過一些搭載實時翻譯功能的產品,比如Pixel Buds耳機,但相較這次展示的AR眼鏡,後者是具有明顯優勢的。一方面,這款智能眼鏡的形態和傳統眼鏡幾乎沒什麼差別,這也就意味著在看向字幕時,用戶也可以保持正常的交流,避免了尋找按鍵和等待轉錄的尷尬。另一方面,除了佩戴者本人,幾乎沒有旁人能聽到語音,因此不會感到不自然。

實際上,谷歌在I/O大會展示AR眼鏡並不是一件稀奇事。早在2020年,谷歌就收購了加拿大智能眼鏡初創公司North,隨後各種泄密和專利也表明其正在開發新的AR眼鏡。但目前尚不清楚這款眼鏡的具體發布時間,以及是否支持除實時翻譯以外的其他功能。但小P認為可能性很大,因為North原先推出的AR眼鏡就已具備天氣預報、導航、語音助手等功能。

沉浸式3D地圖

在I/O 2022大會期間,谷歌宣布為Google地圖推出沉浸式視圖模式和Geospatial API,這兩個新功能也被看作是谷歌試圖打造世界級AR體驗的證明。

據了解,谷歌使用神經渲染技術將2D衛星和街景圖像組合成高質量的3D場景。正如視頻所展示的那樣,新的沉浸式視圖巧妙地將來自Google地圖、Google地球和街景的實時交通、天氣與動畫數字模型相結合,甚至可以看到鳥兒飛過建築物、動畫地標,以及波光粼粼的湖面。

對用戶而言,藉助沉浸式視圖模式,就能以3D視角探索各個街道,並進一步導航到室內。谷歌表示,該功能將適用於「幾乎任何手機和設備」,並將於今年晚些時候開始在洛杉磯、倫敦、紐約、舊金山和東京推出,其他城市也在計劃中。

全新的ARCore Geospatial API

在將AR眼鏡推向世界之前,谷歌首先要解決的是視覺定位系統(VPS)的問題。近日,Meta、Niantic等公司也在試圖創建一個底層的3D世界地圖。

而谷歌利用Google Maps的現有數據,創建了新的ARCore Geospatial API,以用於在特定位置創建AR錨點。據谷歌稱,ARCore平台的開發人員可以在超過87個國家和地區放置錨點,而無需前往該位置或掃描額外的物理空間。通過這種方式,開發者可以將AR遊戲或展覽固定這些特定位置,且任何擁有智慧型手機的人都可以看到這些作品。

其他值得關注的技術或服務

LaMDA 2:谷歌AI對話系統LaMDA的第二代,可以把任務或主題拆分成要點,從而為用戶提供建議。

谷歌翻譯新增24種語言:其中包括一些美洲土著使用的語言,且超過3億人使用這些語言。

更加精確的搜索功能:周邊多重搜索功能幫助用戶在附近搜索到可以獲取同種類物品的渠道,未來該功能將發展為場景探索功能,即在接受圖像的基礎上,還能提供問題的答案,比如在一眾植物中快速識別到稀有植物。

其中,場景探索功能未來如能應用在AR眼鏡上,那將成為谷歌強有力的競爭優勢。從本次開發者大會中,我們也能發現谷歌的各項有關語言的技術變得越來越成熟,大型語言模型可能會在其日後推出的產品中扮演更加核心的角色。

本文屬VRPinea原創稿件,轉載請洽:brand@vrpinea.com