甲小姐對話周鴻禕:不發展AI才是最大的不安全|甲子光年

2023-12-25   甲子光年

原標題:甲小姐對話周鴻禕:不發展AI才是最大的不安全|甲子光年

AI信仰決定了一個公司願不願意全身心All in AI。就像攀岩一樣,如果你不相信你的雙腳,不相信安全繩,就攀不了岩。

作者|甲小姐 劉楊楠

編輯|王博

「我們在攀岩館聊吧。」

53歲的360集團創始人周鴻禕過往在公眾面前有很多標籤,如今又多了一個——攀岩愛好者。去年,他直接把攀岩館建在了360集團總部大樓里。

這可能是歷次甲小姐對話中,地點最特殊的一次。

談及為何學攀岩,這位「紅衣大叔」的回答很樸素——第一,增加一項求生技能,要是某天發生災難,會攀岩的人在廢墟中的倖存率更高一點;第二,增加核心力量;第三,增加平衡感。

這座攀岩館已經留下很多企業家的身影,包括王石、俞敏洪等。2023年12月13日,在北京的雪夜中,這裡終於迎來第一位女性創業者——甲子光年創始人&CEO張一甲。

周鴻禕指導甲小姐攀岩,圖片來源:「甲子光年」拍攝

攀岩只是預熱,這次對話的主題還是AI。此前,在2023甲子引力年終盛典的巔峰論壇上,周鴻禕有過精彩的分享,其中「美國已經在全力以赴開動下一場工業革命」的表述還上了微博熱搜。繼續未完的話題,於是有了這次「雪夜岩館之約」。

從岩壁上下來,周鴻禕對甲小姐說:「AI信仰決定了一個公司願不願意全身心地去All in AI。就像攀岩一樣,如果你不相信你的雙腳,不相信安全繩,就攀不了岩。」

站在現在時間的橫截面上,很多人對AI的發展感到「亂花漸欲迷人眼」,有太多新聞,太多觀點,反而很難獲得真相和答案。但周鴻禕對AI已經產生了篤定的體系感。

建立Al信仰,All in AI,不斷提高自身含AI量,是周鴻禕提出的「AI三角」。

周鴻禕有兩個「堅定」:一方面,他是堅定的AI發展派,認為未來3-5年,人工智慧會引發一場全新的工業革命,不應該為了安全風險因噎廢食;另一方面,作為多年的安全專家,他又堅定地發展AI安全,要將大模型「關進籠子裡」。

本文,甲小姐對話周鴻禕,聊聊AI信仰,以及與之相關的一切。

甲小姐對話周鴻禕直播現場,圖片來源:「甲子光年」拍攝

1.談派系:「堅定的發展派」

甲小姐:上次論壇最後,我們聊到「AI的派系之爭」。上個月OpenAI的權斗事件,讓矽穀人工智慧領域的兩個派系「浮出水面」——一派叫e/acc,有效加速主義,比較激進地認為人類應該無條件地加速技術創新,技術爆發一定對人類有好處。OpenAI創始人薩姆·奧爾特曼(Sam Altman)就很像這一派;另一派叫EA,有效利他主義,認為要儘可能保證AI對人類是有愛的,不能傷害到人類,當AI可能威脅人類,就應該加以阻止。OpenAI首席科學家伊利亞·蘇茨克維(Ilya Sutskever)的立場就很像這一派。當時,你說這個分類不夠好,自己是「堅定的發展派」。如果讓你給國內人工智慧領域劃分一下派系,你怎麼分?

周鴻禕:首先我比較反對用美國人編的那兩個名詞,什麼e/acc、EA,說一會兒我就暈了。中國可能就三派,一派是堅定的發展派,堅定發展人工智慧;一派是抵抗派,他們覺得人工智慧最終也許會超越人類,所以保持很高的警惕;還有一派是無所謂派。

甲小姐:你說自己是「堅定的發展派」,這種「堅定」從何而來?

周鴻禕:現在人類自身的進化已經基本停止了,幾十萬年來我們的個子變高了一點,大腦也沒有變化太多。人類只能靠不斷發明各種有力的工具來突破自己的邊界——人不會飛,但人類發明了飛機;人不能在海底生存,但人類發明了潛水艇。

在人工智慧方面,人類經過60年的努力,終於取得「零的突破」。過去一年我們「度日如年」,一方面大家都有壓力,覺得如果自己不搭上這班車可能會被淘汰,特別是搞網際網路、數字化的人離人工智慧更近一點,感到的壓力更大;另一方面,這輪人工智慧發展的速度極快,在AI生成圖片、視頻方面每天都有論文出來,一天取得的成果相當於大模型突破前一年的進度。

我認為人工智慧是人類有史以來比電腦、網際網路還要牛的真正強有力的工具。這個工具可以給人類帶來工業革命級的變化,會重塑社會各個行業,包括人們生活、工作的方式。人工智慧是一個巨大的發展機會,不要因為今天還不存在的問題就拖慢了發展節奏,所以我是堅定的發展派。

甲小姐:你身邊的企業家都是什麼派?

周鴻禕:我遇到的大多是發展派。企業家的使命就是在困難中看到機會。如果天天抱怨,但拿不出解決方案,這不叫企業家。

甲小姐:擔憂AI發展的人,有一個很樸實的想法,歷史上從來沒有一種低級生物可以控制得住一個智能水平更高的生物。當AGI到來,人類如何例外?

周鴻禕:這個問題把我問住了。但其實這是個「偽命題」。我認為今天很多人對「碳基生物」「矽基生物」的劃分很不科學。大模型是一種技術,和數字化技術一樣,它會以各種形態存在於社會中,和人類共生。大模型不一定全在一個陣營,可能會有被用來做壞事的大模型,我們肯定也能造出對人類友好的大模型,幫人類來對抗作惡的模型。

甲小姐:所以你認為無論AI多麼強大,人類依然能控制AI?

周鴻禕:這是我們追求的目標。曾經有一個科幻故事,一個器皿里漂浮著一個用福馬林浸泡的大腦,它只能跟人交流,它只有真正長出手和腳,或附身到機器人上,擁有在現實生活中調用API的能力,才可能傷害人類。這些能力不是它與生俱來的,是人賦予它的。人能賦予它能力,就能控制它。

甲小姐:上次你聊到,「大模型什麼都好,最致命的問題是能源問題。如果全球都建超大規模的大數據中心,有可能全球的能源根本就不夠用,不用擔心矽基生物超越碳基生物那一天。」這種能源困境有解決的思路嗎?

周鴻禕:今天的人類文明快要碰上一個瓶頸了。人類在牛頓、愛因斯坦時代,以及楊振寧、李振道時代都有很多璀璨的群星,出現了很多物理學家、化學家、數學家。但最近100年人類很多科學成就都是應用科學,基礎理論缺乏突破,這導致人類很難走向星辰大海。

馬斯克的想法很好,但用化石能源也就只能送點東西上火星,要走出太陽系幾乎都不可能,更不要說星際旅行。今天新能源說得很漂亮,但都是碳基能源生產的,如果再過50年地球上沒有煤也沒有石油,新能源能否實現自我循環可能都不一定。沒有室溫超導、可控核聚變這些物理、化學上的突破,完全是不行的。

今天的大模型只會跟你聊天,幫你寫文章,但這只是大模型最初的基本能力。將來,大模型還有一個很重要的能力,就是成為科學家的工具,幫助人類突破科學問題。

2.談安全:「要真正把大模型放在籠子裡」

甲小姐:對AI發展激進或保守態度背後的本質爭議是,我們能不能讓AI在更強大的同時又足夠安全。360是做安全業務起家的,你相信人類最終能夠控制強人工智慧,是因為你比其他AI從業者更懂安全嗎?

周鴻禕:這話只能對一半。做安全的人往往是悲觀主義者。一般人看到一個新事物都會先擁抱它,但我們做安全的人會先琢磨它有沒有什麼不安全的地方,而不是稀里糊塗地把它當成一個黑盒子。

從安全的角度出發,我很有信心讓防禦攻擊的安全技術越來越高明。

很早以前在安全領域有一個全球性難題,就是零日漏洞(zero-day),這種漏洞可以神不知鬼不覺地深入你的系統,在你的系統里潛伏多年,慢慢移動到你的核心電腦上竊取或破壞資料。我們用10年時間破解了這個難題。我們原來是看不見這種國際級攻擊的,但現在我們都能發現、追蹤、定位並把它踢出去。所以我們在安全技術方面還是有很多積累。

甲小姐:你在計算機安全中積累的經驗可以在人工智慧領域復用嗎?

周鴻禕:人工智慧本質是一種軟體,只是人工智慧的安全問題比較複雜,可以分為三層——

第一層是數據安全。數據質量直接決定了大模型的能力。換句話說,你的數據被污染了,用壞數據訓練出的大模型在某些時候就會出錯。這種數據污染攻擊在技術層面都好解決,還是在傳統的數字化範疇里;

第二層是內容安全。大模型不可能只學好知識,它不可避免會學很多壞知識。比如現在用大模型做欺詐、做網絡攻擊的難度特別低。很多人試圖在大模型里建立安全圍欄,讓它不能教人做炸彈、做毒品。但很多人能通過一種「注入攻擊」或「算法攻擊」的方式,通過花言巧語的誘導,讓大模型變得很傻很天真,對人無話不說;

第三層,也是最大的安全問題,大模型有杜撰能力,其實這不是缺點,恰恰證明了大模型擁有智能,有智能的東西才會杜撰。搜索沒有智能,所以搜索不會告訴你不存在的東西。大模型不一樣,當你問它一個不存在的東西時,它會用一些它知道的知識給你瞎編一個,這是一種創造力的體現。但有些場合,比如在企業或工業內部,這種杜撰可能就變成一種危害。如何保證大模型在某些場景下生成的內容準確無誤,是整個內容安全的核心,這裡面可能需要很多新技術。

今天的大模型還不太會用工具,也無法附身到很多機器人、無人機上,還沒有真正和世界連接在一起,不能親自感知世界,但未來一旦出現這種情況,如何有效監控大模型的行為是否得當就很重要,要把大模型放在籠子裡。

甲小姐:你多次提到,可以訓練一個GPT來監督另一個GPT,為什麼大模型無法自我監督?

周鴻禕:一個複雜系統無法對抗自己的系統弱點。大腦就是複雜系統,人的大腦皮層有各種腦區,包括語言區、視覺區、早期動物本能的核心反應區,人類還產生了獨有的推理、運動區域。大模型也是一個複雜系統,GPT背後有16個專家模型組成,它很難自我修正,需要通過系統外部的力量來約束它。但我們可以訓練一些小規模的大模型,比如,有的大模型負責檢測用戶對大模型的注入攻擊;有的負責檢測內容安全。這些小模型功能單一,不會危害人類。

甲小姐:訓練一個GPT來監督另一個GPT,360目前進展如何?

周鴻禕:我們在研究AI安全時發現,Agent架構是設計安全最好的方式。按照360的思路,我們有很多探針、傳感器,實時把大模型每天的行為收集起來,專門給另一個大模型做分析、研判,一旦發現問題,另外一個大模型就會及時叫停這個大模型。當然這不涉及用戶行為和數據。這個負責監督的大模型就只做一件事,不需要和外界打交道,只聽我們的指令,能力很單一,所以它不太會對世界造成危害。

甲小姐:為什麼說「Agent是設計安全最好的方式」?

周鴻禕:我認為Agent是人工智慧領域一座很重要的里程碑。Agent是從一個叫Longchain的開源項目中誕生的。這也是我認為開源很了不起的原因,GPT出現後開源社區圍繞它做了很多探索。

大模型只是一個大腦,它沒有工具。一個人離了工具啥也做不成,大模型也一樣。現在大模型很被動,沒有目標,做一件事需要你和它對話多次,形成一個workflow(工作流)。

而我們在真實工作中,需要一個智能超人,我給它設定一個目標,他就能按這個目標完成任務。每完成一輪任務,我們還要有一個獎勵函數,這些都是大模型不具備的能力,而現在這些能力都能夠被放在Agent的框架里。在大模型產生意識前,Agent能夠讓大模型真正的威力發揮出來。

GPTs就是OpenAI做的一個簡單的Agent架構,簡單到一個人用自然語言就能定義。如果定義複雜了, 用的人就少。因此GPTs的能力比GPT要強大,它知道什麼場景下要完成什麼任務,可以調取獨特的數據和API。如果要做行業模型,沒有Agent架構,基本上是不可想像的。

3.談發展:「不發展才是最大的不安全」

甲小姐:智能,意味著強大,安全,意味著聽話,從定位上,安全對智能有一定的制約作用,二者似乎有著相反的作用力——做智能就像在做發動機,做安全就像在做剎車系統。二者在你看來矛盾嗎?

周鴻禕:不發展才是最大的不安全。做安全的理念是,不安全的情況不可避免,它出現的時候我們如何把危害減到最小。

今天汽車的安全已經不是靠剎車了,很多時候你來不及剎車,也有人會踩錯剎車。安全靠安全帶、安全座椅、安全氣囊、發動機艙等環節的設計。同樣,我們要解決數據安全問題並不需要降低數據傳輸速度,解決網絡安全問題並不需要切斷所有網絡。

人工智慧越能幹對人類的幫助越大,我們要做的是,一旦人工智慧出現傷害人類的情況,我們有一種關鍵裝置能及時制止它。

甲小姐:在你看來安全和智能是正相關的?

周鴻禕:我們不能為了發展而不顧安全,也不能為了安全而停止發展。安全的目的不是為了制約,是為了讓大家更放心地使用人工智慧。當然,也許我們的解決答案不完美,因為「道高一尺,魔高一丈」,大家都在進化。自然界中每個生物都有天敵,人類的天敵可能是細菌、真菌、病毒這些微生物,可能比人工智慧更可怕。很多人聽我講了安全之後,反而對人工智慧更有信心了。

甲小姐:上次你在甲子引力說,我們這輩子大機率看不到矽基生命取代碳基生命了。

周鴻禕:人類打核戰自我毀滅的機率可能更大一些。

甲小姐:安全和發展之間是否會存在一條邊界,越過這條邊界後,人工智慧不安全的幾率會陡增?

周鴻禕:有一個原則,我認為現階段,在一些關鍵的場景下,人類要在人工智慧的決策迴路里。美國有一家公司自我吹噓說人工智慧可以直接接管美軍無人機。現在我們還沒有真正把人工智慧關進籠子裡,它能夠自主決定的後果很可怕。

這也是360做大模型一個很重要的原因——我們立志要解決大模型的安全問題,但如果我不了解大模型,我根本沒有辦法解決大模型的安全問題。人類通過什麼樣的技術手段讓人工智慧保持安全,這是未來幾年我們面臨的一個很大的問題。即使將來有一天,大模型變成一個超級物種,人類作為它的創造者,我也依然相信人類還是萬物之靈。

甲小姐:上個月你去了一趟矽谷,後來你在社交網絡以及甲子引力上都分享了一些見聞。這次去矽谷最讓你意外的發現是什麼?

周鴻禕:美國有很多偏激的言論,讓別人覺得他們人人都很擔心人工智慧安全問題。但事實上,美國整個產業界完全在擁抱大模型,擁抱人工智慧——VC非AI項目不投,創業者會想方設法在自己的項目里加入人工智慧,包括美國財富500強的大公司都在思考如何用AI加持自身業務。

另外,美國人也在搶英偉達的GPU,而且GPU在美國賣得也很貴,你有錢也買不到貨。很多創業公司開玩笑說融到錢也沒用,錢也不能訓練大模型,誰能給我投英偉達顯卡或者借給我用,我就願意接受誰的投資。馬斯克也是嘴上說一回事,行動是一回事。他一直在喊AI很危險,但自己偷偷買了幾萬張卡,建了個團隊。

所有人都明白,如果不用AI改造、賦能你的業務基因,你就會被同行降維打擊。所以AI不會淘汰人,不會淘汰公司,而是會用AI的公司會把其他人淘汰。

甲小姐:美國哪些做法或思想是中國可以借鑑的?

周鴻禕:我上次去美國問他們美國如何解決社會問題和經濟問題,他們的答案是——必須創新,必須抓住這次工業革命的機會。他們認為這次人工智慧帶來的工業革命不亞於95年的網際網路或80年的PC。如果通過這個機會創造一個增量市場,就有可能在發展中解決很多已經存在的問題。否則一直在存量市場裡競爭,可能很多矛盾難以解決。

我並不崇洋媚外,但我們得承認,美國在人工智慧方面還是比我們領先,我們要學習他們的一些做事方法。人工智慧是屬於全人類的技術,我們如果能把人工智慧發展起來,對中國的幫助也很大。他山之石,可以攻玉。我們要知道世界上其他人都在幹什麼。

4.談格局:「極大限度降低推理成本後,真正的人工智慧革命就來了」

甲小姐:你在微博上談「從長期看谷歌趕上GPT-4綽綽有餘」,為什麼你判斷谷歌能追上OpenAI?

周鴻禕:通用大模型發展到今天,人才密度、算力密度和數據質量的高低已經成為決定勝負的關鍵。

谷歌之前沒有發力有三個原因——

首先,公司做大了難免目標不統一,發明Transformer之後大家都滿足於在此之上寫個論文,而不在乎把算法從論文變成產品從而改變世界。谷歌不讓人家發論文,這些人就走了。

第二,對於谷歌而言,若要成功,必先自宮。谷歌原先主要的業務收入來自搜索,如果做好大模型,就可能顛覆搜索。谷歌做大模型首先打的不是OpenAI,而是自己。為什麼微軟毫不猶豫推出New Bing?因為Bing在搜索市場的占有率可以忽略不計,他光腳的不怕穿鞋的,怎麼玩兒都行;

最後,美國的輿論環境是,對大公司吹毛求疵,對創業者基本完全包容。小公司說一些破格的話,做錯事,大家覺得是敢想敢為、有創造力;但大公司做錯一點事都會導致公眾口誅筆伐,這時候公司的法務、公關部都會站出來。這些人都不會保障公司的創造性,而是保證公司不犯錯,相當於谷歌是在戴著鐐銬跳舞。

所以在谷歌把這三個問題想明白後,就取得了很好的進展。首先算法上,Transformer就是谷歌原創的,不是問題;第二,谷歌本身就是做搜索的公司,還有YouTube等那麼多產品,數據也不是問題;第三,據說谷歌這次做Gemini聚集了七八百人,人數已經不比OpenAI少了,人力也不是問題。長期來看,谷歌還是最有錢、最有人才。所以谷歌一旦想通了,把自己的團隊整合、打通技術,充分利用自己的資源,最終效果肯定很好。

甲小姐:谷歌這次的進展,會如何影響全球AI的路線選擇和產業格局?

周鴻禕:第一,大模型下一步競爭可能不再是文本知識,而是多媒體數據。Meta最近也精神抖擻,基於其Emu圖像生成模型,發布了一個免費的獨立AI圖像生成器網站「Imagine with Meta AI」。Imagine比Midjourney、Stable diffusion還要好,因為Meta有兩大軟體——Facebook和Instagram。Instagram是全世界最大的圖片社交分享網站,數據量大了,出圖效果自然就好。現在國內多模態比國外弱一些。

第二,當手機上的傳感器都跟大模型整合為一體,會產生非常多的應用場景。谷歌這次推出Nano版本,能在終端、手機等各種設備上部署模型,這樣大家就不用學OpenAI的路。OpenAI恨不得在全世界壟斷,獨此一家別無分號,大家都用他的雲端服務。

不要忘了,全世界的安卓系統都是谷歌的。今天的OpenAI在手機上還只是一個App,沒有和手機系統打通。而谷歌推出Nano版本後,可以把自己的Gemini Nano或者Gemini Pro在雲端或本地部署,跟安卓系統緊密連在一起。

第三,谷歌還有一個殺手鐧——TPU。谷歌沒有用英偉達的GPU訓練,因為英偉達的東西確實很貴。當然,谷歌也買得起。今天訓練成本只是貴一時,因為你不會天天訓練,訓練三周、一個月也就差不多了。最大的成本是推理成本。

我認為推理成本是妨礙人工智慧普及的一個重要因素。今天搜索成本非常低,幾乎為零,所以搜索可以免費讓一億人用都沒問題,流量大了之後就有廣告,這是比較成立的模式。但OpenAI為什麼不敢讓人免費用,只能使用一段時間?因為你用得越多,用他的算力就越多,推理成本很高,他一個月就就要收你幾十美元。

如果推理成本降不下來,谷歌的「免費+廣告」模式就推動不下去。但是谷歌用 TPU之後,如果它的推理成本能比英偉達的GPU降低100倍,那麼谷歌就有可能針對高級用戶收費,對普通用戶免費,廣告模式就能得以延續。這樣就把谷歌最糾結的問題解決了。

我聽說微軟也在搞晶片,OpenAI、Facebook、蘋果等等所有的公司都在搞晶片。我也了解了一下,大家不是要跟英偉達直接競爭,而是大家都要解決推理晶片的問題,目標就是兩件事——第一,讓大模型能夠部署到邊緣終端、PC伺服器、手機,包括汽車智能設備上;第二就是極大限度降低推理成本。

我認為明年這個問題解決後,真正的人工智慧革命就來了。大家幾乎可以免費使用大模型,這對各行各業的賦能是完全不同的,會快速改變整個世界。

甲小姐:有人認為大模型是新一代作業系統,你怎麼看?

周鴻禕:事實上我一直覺得大模型未來更像PC,而不是作業系統,大模型會無處不在。

對企業而言,以大模型上車為例,分三個階段——第一步,先用雲端把大模型接到車上,在車裡變成一個個人助理,可以和你聊天、活躍氣氛,我認為這是最粗淺的應用;第二步,通過API和汽車本地的智能座艙結合在一起,能夠控制車上的娛樂車門鎖閉、天窗開啟;第三步,如果大模型真的和自動駕駛結合在一起,光靠雲端算力就不夠了,大模型就要部署到本地。

很多創業公司一旦悟了這點,我認為最終就會分為三支隊伍——第一,繼續依託已有大模型的API找場景,做應用,這個市場依然很大;第二,和各種設備結合,尤其是邊緣和終端設備;第三,是在企業級、產業級大模型上做私有化、本地化部署和深度定製。

5.談信仰:「AI信仰決定了一個公司願不願意全身心地去All in AI」

甲小姐:最近你有一個新觀點,提倡企業建立「AI信仰」,即相信AI是真AI、相信AI是工業革命級技術、相信AI將重塑所有業務、相信不擁抱AI的公司和個人都將被淘汰。「信仰」是一個比較抽象的詞,你如何判斷企業是否有「AI信仰」?

周鴻禕:這本來是我對內部的講話。因為我在內部天天說人工智慧,但我發現有些團隊轉型了,有些還沒有,所以我提出AI信仰的概念。我認為每個公司、每個團隊都要衡量他們有沒有AI信仰,就是你到底信不信AI——現在很多人還不信。我們要相信,這一次是真正的人工智慧,不是人工智障,跟我們原來搞的那種假的人工智慧有本質不同。AI信仰決定了一個公司願不願意全身心All in AI。就像攀岩一樣,如果你不相信你的雙腳,不相信安全繩,就攀不了岩。

甲小姐:建立AI信仰之後,企業如何「All in AI」?

周鴻禕:對內,要找到一些能被人工智慧改造的業務流程。你不改造,你的同行一定有人改造,就像人家手裡有AK-47,你還是拿了大刀長矛,這就是生產力工具的差異。

對外,首先你要看一看所有產品中有哪些能被AI加持,不能被AI加持的產品就應該被淘汰。在能保證數據不泄露的情況下,大家一定要多用大模型。如果你們公司的人都不用AI,將來你說要轉型AI,那真的是緣木求魚。

第二,公司關鍵的技術人員、產品經理要看很多最先進的AI論文,研究很多AI產品,再來看自己的產品進展。AI說神秘也不神秘,就是看這些AI先鋒都在做什麼,看微軟在做什麼,Salesforce在做什麼,谷歌在做什麼,包括ChatGPT推的產品,Stable diffusion推的產品都要去看。

第三,公司All in AI不在於你買了多少塊顯卡,也不在於你投的錢比百度多,要量入為出,在非常細微的環境都用到AI,比如面試、財務、做內容這些方面。All in AI並不是說你要做一個AI原生的Killer App,哪怕你只是把所有業務都加上AI,也算是All in AI。

甲小姐:你還提到,「在擁抱AI的過程中,企業要以『含AI量』作為企業擁抱AI的衡量標準,維度包括員工熟悉AI的程度,產品及業務流程被AI加持的程度等。目前,360內部已經以此為標準進行全流程改造。」企業的「含AI量」怎麼計算?

周鴻禕:那就是看我們有多少人每天都在用AI,在談論AI,在熟悉AI,還有我們有多少產品都加了AI。整體來看,AI信仰、All in AI、含AI量這三個概念是一個三角形。首先要有AI信仰,然後All in AI,不斷用自己的含AI量來恆量自己的AI信仰是否堅定。

越是傳統的企業,越要想辦法要建立AI信仰。用AI的過程中你就會發現,原來你的數字化程度還不夠高,用AI就會倒逼你加快數字化,因為你有數據、有知識,才能訓出自己的大模型。 我相信在未來3-5年,人工智慧會引發一場全新的工業革命。

對此,我有兩個觀點——第一,發展AI要有長期主義。這件事不會熱一陣就過去了,而是會長期改變我們每個人的生產生活。第二,做企業的人要有企業家精神,堅持創新。我希望所有公司和個人都能藉助這波AI的機會,自我重塑。

*RAM對本文亦有貢獻

|甲小姐對話系列回顧 |

甲小姐對話特倫斯:進化比你聰明

甲小姐對話王小川:我們已經進入通用人工智慧時代

甲小姐對話黃鐵軍:作為個體的永生沒有意義

甲小姐對話張斯成:ChatGPT過熱容易導致錯誤判斷

尊敬的甲子光年用戶/讀者,感謝您在2023年對甲子光年的支持和陪伴!

科技產業的發展日新月異、追風趕月!

為了更好服務於甲子光年的用戶/讀者,甲子光年特開展此次針對用戶/讀者的需求問卷調查。期望收集大家對甲子光年的品牌認知與評價,以及對甲子光年內容和服務的真實需求,以便為大家提供更為精準、前沿、專業、深度的科技內容和智庫服務。

本次調研不涉及個人隱私,獲取數據僅用於指導2024年甲子光年業務開展,請您放心填答。