文/VR陀螺
在Meta Connect 2023大會上,伴隨著Meta Quest 3和Meta與雷朋聯合打造的Ray-Ban Meta智能眼鏡正式亮相,高通也正式發布了最新的驍龍XR專用平台:第二代驍龍XR2和第一代驍龍AR1。這兩款平台也藉由Meta的硬體新品實現商業化落地,正式走向消費者。
晶片作為XR設備的核心,相關技術飛速發展,如今XR設備已不再需要依賴手機處理器。面向虛擬現實(VR)、混合現實(MR)和增強現實(AR)三大領域,高通現已擁有完整的XR專用平台產品組合。
自2018年高通發布首款XR專用平台第一代驍龍XR1以來,陸續推出第一代驍龍XR2、第一代驍龍XR2+、第一代驍龍AR2平台,獲得了全球多家XR品牌的認可,目前已有80+款XR設備採用了驍龍平台。第二代驍龍XR2和第一代驍龍AR1的問世,將會對行業帶來哪些影響?本文將探究高通在XR領域的最新布局。
第二代驍龍XR2是高通進一步推動VR/MR設備普及而打造的全新XR專用平台,尤其為MR部分提供了更加穩定的技術支撐。
Quest 3在發布之前,行業內已流傳了不少曝光信息,隨著設備的正式發布,才得以一窺高通在其中發揮的底層技術實力。Quest 3售價499美元,現已接受預定,於10月10日發售。(詳細內容可參照VR陀螺文章:《混合現實+AI+智能眼鏡!Meta Connect大會打出組合拳》)
1、遊戲性能加倍:GPU性能提升2.5倍,功耗降低50%
在能效和性能方面,根據高通官方提供的相關參數,第二代驍龍XR2針對單晶片架構進行了大幅優化,其與第一代驍龍XR2相比,GPU性能提升了2.5倍,GPU能效提升了50%,相當於延長VR/MR設備電池續航時間,且不再需要外置電池組,以便幫助OEM廠商打造高性能且價格合理的設備。
在顯示方面,第二代驍龍XR2可支持3K×3K顯示,遊戲超級解析度、視覺聚焦渲染、空間扭曲。此處提到三項技術均與遊戲顯示性能優化有關:
Meta Connect會上還以即將發售的《阿斯加德之怒2》為例,展示了Quest 3一體機以第二代驍龍XR2為支撐的強大遊戲性能。
以上技術能進一步提升VR/MR內容的色彩和細節,在保持同樣的視覺效果的情況下降低功耗,這對開發者來說無疑是一大利好消息。
2、VST視頻透視線程優化,時延降至12ms
高通認為,從能夠實現完全沉浸式和數字化的虛擬現實,到物理世界和數字世界無縫融合的混合現實,以及能夠在物理空間中疊加虛擬內容的增強現實。這三大XR場景應該是相互連通的,但以現有的XR設備如何讓人從感官上獲取更真實的虛實融合體驗,MR或許是最好的方法。
如果要在VR/MR頭顯中體驗虛實融合的內容,主要依託VST技術將頭顯攝像頭拍攝到的畫面實時傳輸到螢幕上。
早期的VST主要使用單色攝像頭,完成空間定位和物理識別,主要用於安全邊界定位和手部追蹤,如今在MR領域得到了更出彩的應用,例如剛發布的Quest 3,已發布的Quest Pro、PICO 4,以及未上市的蘋果Vision Pro均搭載了全彩攝像頭,以儘可能地將現實世界的全貌反映到頭顯螢幕中。
從Meta的演示來看,Quest 3的高保真全彩Passthrough可以讓用戶的物理環境清晰可見,效果更佳,與前代產品不同,Quest 3支持房間掃描,可自動創建安全邊界。Meta還表示,Quest 3的像素比Quest 2高出10倍以上。
高通優化了整個視頻透視線程,第二代驍龍XR2可以實現低至12ms的視頻透視時延。另外,還將通過幾何校正、降噪、動態亮度調整等技術,提升視頻透視的圖像質量。
3、感知交互精細度提升,AI引擎性能提升8倍
在交互方面,高通將並發感知技術分為兩個部分,一是環境理解,二是用戶理解。
要實現MR效果,環境理解算法是關鍵。第二代驍龍XR2最高支持10路並發攝像頭和傳感器,可準確地完成平面檢測、深度估計、3D重建、語義理解、物體識別和追蹤,定位牆壁、家具以及其他物品的現實位置。由此開發者可以將虛擬內容放置在用戶當前的現實場景,例如用戶在MR場景中拋出一個虛擬球,球的運動軌跡能與現實場景進行相應的物理碰撞反饋。
針對用戶理解,第二代驍龍XR2能夠同時處理用戶頭部追蹤、眼球追蹤、面部表情、手勢追蹤的運動輸入數據,同時對全身運動的感知能力也擴展了手柄追蹤、動作追蹤的精細程度,甚至支持虛擬形象的編/解碼。
Quest 3還官宣了明年將推出的「Augments」新功能,這是一種能夠識別空間的交互式虛擬對象,它可固定於現實環境中。如用戶可以在牆上掛上包含Facebook和Instagram照片/視頻的電子相框等。
但要做到實時檢測空間,錨定虛擬3D內容並長期存儲,將產生十分龐大的數據量,同時需要消耗大量算力,為此高通提升了XR平台所搭載的高通AI引擎能力,每瓦特性能可提升8倍。
在高通AI引擎方面,第二代驍龍XR2支持INT8,大大提高了運算效率,同時優化了不同AI模塊之間的連接,以實現緊密的協同處理。高通還針對計算機視覺模塊做了改進,為第二代驍龍XR2打造了專用模塊視覺分析引擎(Engine for Visual Analytics),其中的「Feature detection and tracking」(特徵探測和追蹤),這項功能會直接在硬體上運行,大幅提升6DoF追蹤效果。
具體來說,在第一代驍龍XR2中是通過軟體實時運作來實現特徵探測和追蹤,而在第二代驍龍XR2,這項功能則是在晶片層面通過視覺分析引擎實現,關鍵點檢測數量將大幅提升,功耗和時延降低。隨著訓練AI模型的參數逐步增加,對內存容量的挑戰難度在增大,高通也一併擴展了終端側的內存。
4、支持Wi-Fi 7 / Wi-Fi 6E,實現無界XR連接
在連接傳輸方面,高通在通訊領域的技術積累也在XR中的流暢交互得以體現。
VR/MR設備的數據傳輸需要保持始終在線的狀態,而且還要滿足與遊戲PC相連的需求, 第二代驍龍XR2支持新一代的Wi-Fi 7和Wi-Fi 6E技術,對用戶體驗有著極大改善,對設備之間互聯互通、XR內容傳輸、手機無線連接、實時多頻互動、高速上傳下載等應用場景帶來了直觀的效率和穩定性提升。
高通面向XR推出的高通FastConnect軟體套件也融合到了第二代驍龍XR2中,使Wi-Fi連接功耗降低25%,峰值速度可達5.8Gbps,時延降低80%。通過FastConnect軟體套件的支持,還可讓用戶「即連即用」,保證在使用XR設備時的穩定性,也能在VR/MR場景中改善時延、抖動性等問題。
高通近年來在AR方面持續投入,三年內陸續推出兩款AR眼鏡參考設計以及AR專用平台第一代驍龍AR2,並構想了理想化的AR智能眼鏡的多個特性:分布式處理、輕便日常、無線連接、智能交互等等。
現在,搭載第一代驍龍AR1的Ray-Ban Meta智能眼鏡已正式發布,對於這類智能眼鏡,扎克伯格表示:「我認為智能眼鏡將成為未來的一個重要平台......之前團隊不少人認為智能眼鏡只有真正實現3D全息圖、內置顯示器等才會真正普及,但是這需要很長的時間。如今得益於AI的進步,內置的AI助手將能看到你所看到的,聽到你所聽到的,AI將與其他AR功能同樣重要。」
第一代驍龍AR1將著重圍繞日常生活中的場景帶來沉浸式互動體驗支持,主要集中在以下幾點:即時拍攝、AI能力、可拓展平台、虛擬助手、視覺搜索等。
1、解放雙手、快速連接,即時拍攝改變智能眼鏡影像記錄方式
第一代驍龍AR1通過拍攝、眼鏡側AI等功能來突出智能眼鏡的「解放雙手」能力,用戶能直接與智能眼鏡交互,降低智能眼鏡對手機、電腦等終端的操作「依賴」。
例如拍攝方面,第一代驍龍AR1採用14-bit雙ISP(圖像信號處理器),14-bit ISP能夠實現每秒捕捉27億像素能力,能滿足大部分拍攝需求,支持即時拍攝。且智慧型手機上常見的功能:自動曝光、自動人臉檢測、計算HDR和人像模式,均可在驍龍AR1的智能眼鏡中得以體驗。
驍龍AR1有望改變智能眼鏡拍攝照片和視頻的方式,用戶無需舉起手機操作,只要抬手就能一鍵拍出高清照片和視頻。FastConnect軟體套件也在第一代驍龍AR1得以應用,且支持藍牙5.2和5.3,實時視頻直播、照片快速分享以及音樂串流功能均可實現。
2、眼鏡側AI:語音指令、視覺搜索,適用更多日常場景
AI能力在驍龍AR1同樣發揮著重要作用,通過計算機視覺輔助提高拍攝照片/視頻質量,支持AI輔助的回聲消除和降噪,實現更清晰的語音通話。
驍龍AR1支持語音指令,可以通過AI將信息具現化,讓用戶在智能眼鏡上看到結合現實情景的信息,隨時啟用視覺搜索、實時文本翻譯以及導航功能,還集成健康傳感器,可實時監測和追蹤健康及運動數據。利用眼鏡側的AI能力,用戶能夠獲得解放雙手的完美虛擬助手,這在滑板、騎自行車、做飯等日常生活場景中十分有用。
3、支持AR單目/雙目配置的可擴展平台
驍龍AR1是一款可擴展平台,支持三種不同配置,為OEM廠商帶來更多選擇:一是以拍攝和音樂功能為核心的智能眼鏡;二是以通知提醒和導航功能為核心的單目顯示智能眼鏡;三是具有豐富的視覺效果和更多功能的雙目顯示智能眼鏡。
Meta展示的Ray-Ban Meta智能眼鏡,搭載驍龍AR1。整體外形輕巧精緻時尚,與普通的墨鏡並無太大差異,可滿足全天候佩戴的需求,售價299美元,於10月17日發售。
此前有數據指出,初代Ray-Ban Stories共計銷售了超過30萬台,但是設備活躍度一般。可見人們對智能眼鏡的需求並不低,將AI+AR結合起來,讓智能眼鏡滲透生活中的各個角落,便是高通為賦能下一代智能眼鏡打造的首個專用平台驍龍AR1的目的。
從遊戲、社交、辦公到企業應用,XR技術已滲透到工作生活等各大場景,作為沉浸式體驗的重要硬體組成部分,XR設備能在顯示和交互方面帶來最直接的感官體驗,相關技術的快速發展以及用戶需求的多樣化催生了更個性化的垂直場景探索。
儘管蘋果強調的空間計算概念讓更多人看到了XR的可能性和應用前景。但目前XR的普及度並不算高。對普通用戶來說,更關注能通過XR看到什麼內容,能在虛擬世界做什麼。但畫質不清晰、流暢度低、眩暈感、交互響應慢和定位不準確等這些「看得見」的顯示和交互問題還未解決。
要實現理想化的XR顯示和交互體驗還有一段距離,高通作為XR底層供應鏈上的龍頭企業,正積極布局XR專用晶片、AR專用晶片以及相關底層技術,並尋求與更多企業合作推動XR生態搭建來彌補物理世界和虛擬世界的差距。
目前高通已經有了明確的方向,隨著XR對感知交互技術、高清顯示、健康監測以及高速網絡等功能的需求提升,AI的作用愈發凸顯。AI的研發已成為主流趨勢,高通也加大了在AI領域的投資,面向邊緣終端推動混合AI規模化擴展。
有了AI在性能方面的優化支持,高通改善顯示難點的第一步就是通過算法提升幀率,將遊戲超級解析度、視覺聚焦渲染、空間扭曲這些圖像技術應用到XR平台,從而改善XR畫面清晰度,提高顯示質量和視覺效果。
另外,VST的顯示效果也通過第二代驍龍XR2的幾何校正、降噪、動態亮度調整等技術得到改進,全彩視頻透視的圖像質量得到提升的同時,時延降至12ms(一般來說,時延要在20ms以內才能有效緩解VR眩暈感)。
在XR領域,人機互動主要依靠各種輸出/輸入硬體和技術來實現:XR設備通過各種傳感器和攝像頭捕捉運動數據和空間數據,再將數據轉化成代碼並以此構建3D資產疊加到虛擬世界中。
相應的數據量也在成倍增大,對網絡連接和感知技術來說是巨大的挑戰。高通的第二步就是提升圖像處理能力,第二代驍龍XR2的並發感知技術同時支持高達10路並行攝像頭和傳感器,相比上一代XR2平台(7路)可提供更加細緻精確的運動追蹤、面部追蹤以及房間映射效果。
AR交互也是高通正在努力的方向,高通的驍龍AR1智能眼鏡方案強調「所見即所得」拍攝能力的同時還強調了「解放雙手」這一特性,除了減少在手機端的操作,將無界交互的語音指令、AI助手應用到更具體的場景,使其更加易用、常用。
憑藉高通強大的集成能力,第二代驍龍XR2和第一大驍龍AR1兩大平台,結合AI技術進一步提升了XR設備的性能、功耗、視覺效果、交互能力等,並率先成功應用到Quest 3和Ray-Ban智能眼鏡。
空間計算仍在發展初期階段,高通對現階段的XR市場需求有著怎樣的認知?
高通技術公司副總裁兼XR業務總經理司宏國(Hugo Swart)表示:「目前,VR和MR行業的發展勢頭非常強勁,遊戲、健身、娛樂等消費級應用正在不斷發展,此外在企業市場也出現了培訓、教育、醫療等應用。在AR領域,面向消費者的沉浸式體驗剛剛起步,但我們看到已經有大量的企業正在使用豐富的AR應用,包括遠程協助、說明/指導、以及通過AR智能眼鏡賦能的生產力工具。」
在沉浸式交互方面,實際上Meta在大會上展示的部分交互功能或與蘋果Vision Pro有相似之處,高通是如何看待這兩個不同的XR平台?
司宏國肯定了蘋果對XR行業的積極作用,並表示:「高通和蘋果的策略不同,他們產品的價格較為昂貴,並且需要採用多個晶片以及外置電池來支持。但是對於廣大用戶來說這可能並不是他們所期待的,而且這樣的架構很難確保終端價格是大多數用戶可以負擔的。相似的手勢識別和追蹤功能,高通選擇採用更加實用的思路,以將VR和MR體驗帶到更廣闊的市場當中。」
在高清顯示方面,為何高通仍主推3K×3K解析度的解決方案,是否符合用戶的體驗和市場需求?
司宏國認為:「目前,4K顯示仍然是非常昂貴的解決方案,還並不具備足以實現規模化擴展的供應能力。而3K×3K解析度已經能夠帶來出色的視覺效果,相比市場上已有的解決方案有著很大的優勢,我認為3K×3K能夠在用戶負擔的起的價位上打造滿意的用戶體驗,對於下一代VR/MR設備是最理想的選擇。」
為什麼之前推出了驍龍AR2,如今又「反向」推出驍龍AR1?
高通認為,實際上智能眼鏡品類的發展潛力巨大。其外形可以像傳統的墨鏡一樣輕巧時尚,可以全天佩戴,而且通過AI技術可實現更多智能化體驗,還支持許多便捷功能,比如實時拍攝照片和視頻,不需要再從口袋中掏出手機。
驍龍AR2採用多晶片架構,在AR眼鏡上可以實現空間定位Slam(6DoF)等功能,這一平台的設計採用了分布式處理架構,支持將小部分工作負載直接在眼鏡端進行處理,然後將大部分工作負載放在手機或其他主機終端上處理。
而新發布的驍龍AR1特別針對輕薄智能眼鏡用例在影像拍攝、音樂串流等功能進行了優化,其支持的功能也相對簡單,因此所有的處理可以在眼鏡端完成,不需要藉助手機。傳輸信息也只需要進行簡單的Wi-Fi連接,使智能眼鏡和智慧型手機相連即可。至此,高通的AR生態將更加豐滿。
隨著XR在技術方面的改進與發展,高通離自己期盼的XR未來越來越近,第二代驍龍XR2和第一代驍龍AR1有望加速空間計算的變革。