大模型軍備競賽遠未結束,但已註定成為少數人的遊戲

2024-06-12     AI狐頭條
轉載自《中歐商業評論》
ceibs-cbr

撰文|唐浩楠

被改變的搜尋引擎

近20年來,全球搜尋引擎的市場格局一直相對穩健,很少出現突破性的創新,大模型的出現帶來了一個革命性的機會。

傳統的搜索方式是輸入一個關鍵詞或問題後,搜尋引擎提供一些最相關的結果。要獲得有用的信息,用戶必須自己進行篩選並一個個地打開連結,再花時間進行閱讀和總結。從輸入一個關鍵詞到得出結論,整個搜索過程用時,可能要花至少幾分鐘的時間,用戶才能得到想要的結果。

這個效率顯然不算高,用戶還要排除競價排名廣告等其他因素帶來的干擾。特別是隨著移動網際網路時代推薦算法的興起,越來越多的 C 端用戶使用搜索的頻率下降了,這一趨勢在中國市場尤為明顯,人們已經開始把小紅書、微信、微博等一系列社交媒體平台當作新的搜尋引擎。

如何讓人們重新回到搜尋引擎?成了谷歌、百度們近些年來的困擾。

可以肯定的是,谷歌仍然是搜索領域的主導力量,它仍然占據著全球搜尋引擎市場90%的份額(百度占據了中國市場約 60% 的份額)。但越來越多的用戶,尤其是Z世代的用戶,已經變得更喜歡在谷歌以外的地方獲取信息,根據相關機構的調研數據顯示,這個數字已經達到了 40%。

造成如今這個局面的原因有很多:隨著搜尋引擎們的廣告業務的不斷增長,有用的搜索結果在頁面上的位置越來越靠後,而廣告的位置則越來越靠前。此外,受到搜尋引擎優化(SEO)的困擾,許多垃圾信息擠掉了相關的搜索結果,只為了在搜尋引擎中能夠排名靠前。

此前,谷歌已經開始將來自 TikTok 等社交媒體平台的更多內容直接整合到搜索結果中。在百度,人們也可以搜到來自小紅書的內容。隨著Google Bard(後更名為 Gemini)和文心一言的發布,如今在搜索某些內容時,用戶可能會收到一個由人工智慧編寫的清晰、自然的語言答案。

但問題隨之而來。自那以後,谷歌的人工智慧產生了一系列不實和錯誤信息——比如建議在披薩餅食譜中加入膠水,或是食用石頭來補充營養。儘管大家都清楚人工智慧不可避免地會出錯,但當這些錯誤與人們長期信賴的搜尋引擎相結合展示時,其帶來的影響要遠超過與聊天機器人對話時發現它在「不知所云」 所帶來的負面感受。許多專家擔心,世界上最重要的知識引擎突然充斥著不可靠甚至危險的謊言會帶來難以逆轉的危機。

樂觀主義者表示,人工智慧提供的答案雖然不完美,但人們可以比以往任何時候都更高效地訪問他們需要的信息。他們認為,錯誤信息只是一個短期問題,隨著時間的推移,它將變得越來越準確。

為了解決這一問題,許多 AI搜索開始在回答中加入信源索引,以此保證答案可追溯、可考證、可信賴。信源的引入部分解決了大模型的幻覺問題與可解釋性薄弱的問題,提升了人們使用 AI的信心。此外,如此「學院派」的功能也特別適合那些把搜尋引擎當生產力工具的用戶。

崑崙萬維董事長兼 CEO 方漢認為,中國的移動網際網路時代群雄割據,大量娛樂向的輕度內 容存放在各個巨頭的平台上,但一些嚴肅內容的公開程度反而更高。崑崙萬維天工 AI 搜索的目標群體,就是那些將搜索當作生產力工具的群體,包括傳媒、科研和投研等領域的人士。傳統的搜索巨頭賴以生存的基於廣告的商業模式難以支持 AI 搜索的顛覆式創新,而大模型搜索在提升人們生產力上的創新,有望帶來新的收費模式。

事實上,網際網路現在面臨的難題可能與 AI 搜索的準確性無關。令人擔心的是,如果人們只看搜尋引擎為其總結的內容,那些依靠流量來支持其業務的網站的收入將會銳減,最終將專業的內容生產者們踢出市場。長期來看,沒有人再願意生產 AI 需要的高質量內容,過去三十年來科技巨頭、內容生產者和廣告主之間的平衡正在被打破。

AI的「黑盒」

當然,谷歌作為這場大模型競賽的失意者,其對 AI 發展的貢獻也不可磨滅,幾十年如一日的大量投入,發明了 Transformer 這一具有跨時代意義的基礎架構,其對 OpenAI GPT 的苦苦追趕猶如 20 世紀 60 年代美蘇之間的登月競賽,最終逼出了世界上首個千億參數大語言模型。

那麼,大語言模型是我們通往 AGI (通用人工智慧)的正確道路嗎?至少目前專家們對此還沒有達成共識。儘管大模型展現了驚人的能力,但它也有一些明顯的問題。

首先是不可解釋性,大模型生成內容是依靠對上千億個神經元連接參數的計算,因此難以解釋其決策過程和生成結果的具體原因。這種不可解釋性導致的黑盒決策模式會造成很多應用上的問題,特別是在一些敏感領域,模型的不可解釋性與監管要求相衝突。

人工智慧和大數據專家竇德景博士認為,與傳統的深度學習模型相比,其實大語言模型的可解釋性已經有所提升了。原因是我們可以用提示工程對其進行模型事後解釋,從而探索大模型行為的邊界。這樣可以從完全不可見的黑盒模式,向介於白盒和黑盒之間的狀態轉變,這種模式又被稱為「玻璃盒子」。

其次,人工智慧的倫理和安全也是一個必須得到重視的問題。很多專家已經建議各國政府行動起來,建立類似於國際原子能機構的跨國組織,用來監管人工智慧的發展。OpenAI 的首席科學家伊利亞•蘇茨克維爾(現已離開 OpenAI)曾在公司內部建立了一支超級對齊團隊,確保人工智慧的行為能對齊人類的價值觀,從算法層面保護人類的根本利益。

阿里巴巴則嘗試從訓練數據的角度出發解決問題。天貓精靈和通義大模型團隊聯合提出了 100PoisonMpts(又稱「給 AI 的 100 瓶毒藥」)項目, 該項目提供了業內首個大語言模型治理開源中文數據集,由十多位知名專家學者成為首批「給 AI 的 100 瓶毒藥」的標註工程師。標註人各提出 100 個誘導偏見、歧視回答的刁鑽問題,並對大模型的回答進行標註, 完成與 AI 從「投毒」到「解毒」的攻防。首批領域數據圍繞 AI 反歧視、同理心、商榷式表達等目標,已覆蓋法理學、心理學、兒童教育、無障礙、冷知識、親密關係、環境公平等維度。

最後是計算效率問題,訓練大模型需要的計算量極大,能耗也驚人。 例如,訓練 GPT-3 耗用了 1.287 吉瓦時電量,大約相當於 120 個美國家庭一年的用電量。在全球面臨氣候變化的影響越來越大的今天,如何提升大模型的訓練效率以及雲計算的效率是各大 AI 企業和雲計算設施提供企業必須面對的問題。

把 AI 當作方法

1994 年,凱文 · 凱利在他的《失控》一書中,對 AI 有著極為精準的預測:

「我們幾乎不會注意到水果上的標籤、電影字幕等無處不在的文字。馬達剛開始出現的時候就像一隻巨大高傲的野獸,但自那以後,它們逐漸縮小成為微事物,融入(並被遺忘於)大多數機械裝置之中。最深刻的技術是那些看不見的技術,它們將自己編織進日常生活的 細枝末節之中,直到成為生活的一部分。

AIGC 大爆發之後,內容創作者們發現,AI 作為輔助性工具在幫助他們提供靈感、產生創意、提高效率等方面已經越來越遊刃有餘,他們在日常工作中的不同層面都需要 AI 的協助,這也讓工具型 AI 應用平台得以迅速出現。內容創作者從相關應用平台提供的產品中獲得更多想像力和創意,並節省了大量的時間。

現在,AI 不僅能幫助人們進行藝術創作,造出數字分身,還能幫助人們一鍵完成曾經的繁瑣工作。人們已經從對技術的好奇與觀望,轉為思考如何讓大模型落地並產生真正的價值。

當我們將 AI 視為工具而不是人類的替代品的時候,一種 AI 與人類新的共處方式也就出現了。

麥肯錫的研究報告稱,生成式 AI 有望為全球經濟貢獻約 7 萬億美元的價值,而這些價值的測算主要來自兩個角度:第一是 60 多個生成式 AI 用例在 16 個業務職能中的應用;第二是生成式 AI 對 850 個職業及超過 2100 項具體工作任務的影響。

預計到 2030 年前,約 50% 的工作內容將實現自動化。在中國,這可能意味著約 2 億勞動者需要進行技能轉型或升級。生成式 AI 不僅能夠提高工作效率和創新能力,還將深刻改變未來的工作方式和經濟結構。

文章來源: https://twgreatdaily.com/c8e8cf3d86fe7c565534d5cee9f6845d.html