大模型「慢思考模式」成大勢所趨 360發布CoE架構提前卡位

2024-09-16     中國證券報

中證網訊(記者 傅蘇穎)日前,OpenAI發布的o1-preview引發業內廣泛關注。據悉,o1-preview的工作原理本質上是CoT(Chain-of-Thought,思維鏈)的自動化,把一個複雜問題拆解成若干簡單步驟,從而有利於大模型解決複雜的邏輯問題。o1採用的這種「慢思考模式」,將使複雜人工環節的自動化成為大勢所趨。

據悉,這種方法並非OpenAI首創,早在7月底的ISC.AI 2024大會上,360集團創始人周鴻禕就宣布,「用基於智能體的框架打造慢思考系統,從而增強大模型的慢思考能力」,並多次表達類似觀點。同時,360發布的CoE(Collaboration-of-Experts,專家協同)技術架構及混合大模型,就是該方法的產物,該技術架構也已應用於多個產品中,比如360 AI搜索、360 AI瀏覽器。

值得一提的是,CoE架構並非只接入了一家企業的模型,而是由360牽頭,百度、騰訊、阿里巴巴、智譜AI、Minimax、月之暗面等16家國內主流大模型廠商合作打造,目前已接入了這些企業的54款大模型產品,未來預計會全量接入100多款大模型產品。

同時,CoE技術架構不僅接入了「大模型」,還接入了很多十億甚至更小參數的專家模型,這使得整個系統更加智能。CoE架構在實現「讓最強的模型回答最難的問題」的同時,還能在回答簡單問題時調用更精準的「小模型」,在獲得高質量回答的同時,節約推理資源、提升響應速度。

業內人士表示,擁有了底層技術創新的情況下,國內在做應用和產品層面的優勢更大。一方面,360通過CoE技術架構,構建了國內首個大模型競技平台——模型競技場(bot.360.com),目前已經入駐360 AI瀏覽器,成為國內大模型領域的基礎設施。在多模型協作模式下,用戶可從16家國內主流大模型廠商的54款大模型中任意選擇3款大模型,進行多模型協作,以此達成比單個大模型回答問題好得多的效果。另一方面,CoE還成為了支撐360 AI搜索的底層技術架構。

文章來源: https://twgreatdaily.com/zh-cn/60c1da1ef139589eb86279eeeb21b386.html