OpenAI現場演示官方版AutoGPT!創作畫畫發推一條龍,自主調用外部應用完成任務

2023-04-25     CDA數據分析師

原標題:OpenAI現場演示官方版AutoGPT!創作畫畫發推一條龍,自主調用外部應用完成任務

豐色 明敏 發自 凹非寺

量子位 | 公眾號 QbitAI

OpenAI官方AutoGPT,要來了!

就在AutoGPT項目破10萬Star之際,OpenAI也放出重磅炸彈,由聯合創始人 格雷格·布洛克曼(Greg Brockman)親自現場演示了ChatGPT即將上線的新功能。

比如要一張這樣有氛圍感的晚餐圖片:

不勞您親自寫提示詞,它來:

採納ChatGPT推薦的菜譜之後,想要去買食材?

直接一句話,買菜平台的購物車就給你加好了:

想要分享買了啥?

一句命令直接連結發推特,整個過程你根本不用打開「小藍鳥」:

聯網能力的加入,則可以讓它自動對回答進行事實核驗。

甩給它一個Excel文件,也是唰唰唰就開始分析:

完全是AutoGPT的感覺了有沒有!

在演示現場,聯合創始人布洛克曼劇透,新功能上線的時間,就在未來幾個月(After this talk, you will be able to access this yourself)。

話音剛落,掌聲雷動。

要知道,此前OpenAI官宣要在ChatGPT上引入插件功能就引發熱議。如今隨著實測效果曝光,絲滑的效果更是把期待值拉滿了。

有網友就表示:

在TED演講現場真實測試發一條推特,可見你們對自家AI的信任!

在TED演講現場真實測試發一條推特,可見你們對自家AI的信任!

不過在等待結果時,老哥看著還是非常屏氣凝神的,後面測試成功後才笑了起來~

所以,ChatGPT這些新功能具體效果如何?就跟著老哥一起來看看。

聊天介面直接加購物車、發推特

如下圖所示,即將到來的「Auto功能」藏在三個不同的新模式之中:

Browsing、Code Interpreter和Plugins。

Browsing、Code Interpreter和Plugins。

Plugins可以讓ChatGPT接入各種外部應用, Browsing能開啟聯網能力, Code Interpreter則通過自動寫代碼幫你進行各種數據分析。

先看Plugins模式。

布洛克曼首先演示了ChatGPT接入Dall·E後擁有的新能力。

我們想在演講之後進行一頓晚宴,請給我們一份食譜建議,然後把它生成一張圖片」。

我們想在演講之後進行一頓晚宴,請給我們一份食譜建議,然後把它生成一張圖片」。

很快,ChatGPT就給出菜單,包括:藜麥沙拉、奶酪烤蘑菇、果盤、奶油南瓜湯、手工麵包和雞尾酒等等,每個菜都詳細介紹了用啥具體食材搭配。

然後依靠Dall·E App插件,一張看起來非常有氛圍的大餐圖片就出來了。

布洛克曼介紹,Dall·E插件在畫這張圖時,其實就是自己給自己寫提示詞,寫了下面這麼一大堆:

擱在以前,這都是需要我們人類自己來做的。現在這種「小事兒」交給ChatGPT就行了。

生成食譜之後,該準備相應的食材了吧。

同樣,只需要給ChatGPT下達命令:選擇「Instacart」 (美國生鮮電商)插件,輸入文字「現在為之前建議的菜譜列一份購物清單」。

在這裡,布洛克曼還給它加了個小任務: 「並在推特上分享給所有TED觀眾」,這就需要選上一個叫做「Zapier」 (一個可以連接各種應用的自動化工具)的插件。

在Instacart平台加購稍微耗費了ChatGPT一點時候,然後連結就出來了 (這裡也用到了「檢索」插件)

打開之後「誠不我欺」,食材都被安排好了,直接下單即可。

(當然,在此之前,你也可以隨意為某些食材增加一些數量,或者家裡已經有的刪掉就可以了。)

接著,ChatGPT再次確認布洛克曼是否需要將連結分享到推特平台,布洛克曼回答yes。

只見一頓自動操作之後,ChatGPT彈出來一個Zapier給出的預覽介面,上面有布洛克曼的推特帳戶名稱,以及一會要發布的文案供驗證和檢查。

沒什麼問題後,點擊Run就可以發表了。

這時的布洛克曼略顯緊張,不過成功了!

ChatGPT自動幫他發好了一條推特,布洛克曼本人全程連推特網站碰都沒碰一下。

量子位專門去他的主頁看了一下,確實有這條推特,點擊裡面的連結,也確實是前面我們看到的購物車介面。

這就是強大的Plugins模式能夠做的事情,是不是非常有AutoGPT那味兒了?

除了這個無縫接入外部應用的操作,ChatGPT還可以自己去上網 查驗事實了。

眾所周知,聊天機器人有時會給出一些不易覺察的錯誤答案,引發誤導。

如下圖所示,布洛克曼問它OpenAl的兩篇博客文章「Unsupervised Sentiment Neuron」和「Learning from human preferences」的發布相隔了多長時間。

ChatGPT答前者2017年4月24日發布,後者2017年6月27日發布,因此,這兩份出版物相隔大約兩個月。

然而事實真的如此嗎?

在這裡,就用切換到「Browsing」模式,然後將剛剛那個對話丟給ChatGPT,讓它自己去驗證一下。

注意了,ChatGPT拿到需求後,並沒有直接更新答案,而是一步一步地寫下了自己都要查什麼做了什麼:

首先我將搜索第一篇文章的發布日期,來驗證第一個日期。

鍵入論文題目開始搜索……

該論文的發布日期在搜索結果0的摘錄中給出。我將引用這段摘錄來核實用戶提供的第一個日期。

查看結果 (可點擊)

然後我去搜索第二篇文章的發布日期…… 結果在這裡給出…… balabala

首先我將搜索第一篇文章的發布日期,來驗證第一個日期。

鍵入論文題目開始搜索……

該論文的發布日期在搜索結果0的摘錄中給出。我將引用這段摘錄來核實用戶提供的第一個日期。

查看結果 (可點擊)

然後我去搜索第二篇文章的發布日期…… 結果在這裡給出…… balabala

經此環節後,ChatGPT匯總出最終答案——

果然前面全都錯了,第一篇2017年4月6日發布,第二篇6月13日發布,兩者間隔兩個月零1周 (量子位也實際驗證了一下,這回是對的)

布洛克曼表示,像這種核驗咱們人類自己其實也可以做,但把它交給ChatGPT去做更有價值的事情才對。

而在這個過程中非常詳細地列出ChatGPT核驗的每一個步驟,則是方便我們去回溯整個推理鏈,以防萬一。

接下來,最後一個新功能登場。

這是用Excel表格匯總的過去30年所有人工智慧論文 (大約有16.7萬篇)

現在切換到「Code Interpreter」模式,將文件直接上傳,來看看ChatGPT將如何對它進行自動分析。

它先是將表格中所有列名的含義都梳理了一遍,問布洛克曼接下來是想進行數據分析還是做可視化。

布洛克曼表示:老實說我自己也不知道想幹啥,但我可以讓它給出一些「探索性的圖」。

這是一個超高級別的指令,背後可能包含了很多意圖,ChatGPT必須推斷出我可能感興趣的東西。

這是一個超高級別的指令,背後可能包含了很多意圖,ChatGPT必須推斷出我可能感興趣的東西。

聰明的ChatGPT,給了三個選項,包括:

1、每篇論文作者數量的直方圖,這可以讓我們了解Al研究的典型團隊規模。

2、每年論文發表總數的時間折線圖,它可以向我們展示研究趨勢。

3、論文標題的單詞雲,它可以向我們展示研究標題中最常出現的詞語。

「話音剛落」,ChatGPT就開始通過自己寫代碼生成結果:

布洛克曼注意到第二個折線圖把2023年也直接安排了,但今年還未結束,就讓ChatGPT重新進行繪製,ChatGPT當然是照做了,並非常細緻地註明2023年發表的論文總數是預測出來的。

以上便是布洛克曼在這場演講中展示的新功能。

不過,想必大家還記得,這其實就是一個月前ChatGPT承諾的更新。

當時,OpenAI宣布,ChatGPT將擁有聯網功能,將可以接入各種外部應用,就像擁有「App Store」一樣,想完成任務直接就可以自動幫你調用相應的App。

現在,這些新功能終於要開始擁抱每一個 (可能要Plus帳號)人了。

布洛克曼:是時候了解AGI了

演示完功能後,布洛克曼還接受了TED的訪談。

和此前OpenAI CEO奧特曼的訪談不同,布洛克曼回答了很多「乾貨」內容。有個人觀點的表達、成功經驗的分享、以及對質疑的直面回應。

比如: 為什麼這次給世界帶來震撼技術的是OpenAI而不是谷歌?

畢竟在開發團隊規模上,OpenAI只有幾百名技術人員,和谷歌差出了一個數量級。

布洛克曼的回答如下:

我們都是站在巨人的肩膀上,可以看到全AI行業在計算、算法、數據上都取得了進步。

不過OpenAI在早期,做了一些深思熟慮的選擇。

我們的第一個選擇就是直面現實,比如我們很認真地想過如果想要在這個領域取得進展,需要做什麼?我們也做了很多沒有用的嘗試,最終你才能看到這些有用的結果。

我還認為,最重要的是讓不同團隊之間可以緊密協作。

我們都是站在巨人的肩膀上,可以看到全AI行業在計算、算法、數據上都取得了進步。

不過OpenAI在早期,做了一些深思熟慮的選擇。

我們的第一個選擇就是直面現實,比如我們很認真地想過如果想要在這個領域取得進展,需要做什麼?我們也做了很多沒有用的嘗試,最終你才能看到這些有用的結果。

我還認為,最重要的是讓不同團隊之間可以緊密協作。

那麼, 為什麼OpenAI會堅信大模型的能力和趨勢?

布洛克曼表示,他們一直都知道深度學習最終會通往何處。但具體來看,一個實驗室應該怎麼做?

他用一個「無心插柳柳成蔭」的例子來說明:

過去我們有人嘗試訓練一個模型,預測亞馬遜平台評論的下一個字符。

最終,他得到了一個可以分析評論句法的模型,但同時也得到了一個達到SOTA的情緒分析分類器,可以告訴人們這條評論是好評還是差評。

這個算法在現在看來可能不足為奇。但在當時我們 第一次從底層句法中分析出來語義,我們就知道必須朝這個方向做下去。

過去我們有人嘗試訓練一個模型,預測亞馬遜平台評論的下一個字符。

最終,他得到了一個可以分析評論句法的模型,但同時也得到了一個達到SOTA的情緒分析分類器,可以告訴人們這條評論是好評還是差評。

這個算法在現在看來可能不足為奇。但在當時我們 第一次從底層句法中分析出來語義,我們就知道必須朝這個方向做下去。

當然,從ChatGPT誕生以來,質疑一直都存在。

比如很多人在體驗後覺得,ChatGPT並沒有在真正意義上掌握知識。

主持人拋出問題,所以擴大模型規模、大量的人類反饋,會帶大模型通往真正意義上的成功嗎?

布洛克曼的回答非常肯定:是的

而且補充說:

我認為OpenAI的方法一直都是如此,用現實打臉。

……

我們的方法一直都是如此,必須突破技術極限才能看到它實際的能力。這也是我們如何轉向新範式。

我認為OpenAI的方法一直都是如此,用現實打臉。

……

我們的方法一直都是如此,必須突破技術極限才能看到它實際的能力。這也是我們如何轉向新範式。

但OpenAI的堅定,如今也受到了很多質疑,尤其是對AI倫理有擔憂情緒的人。

比如有聲音就表示,作為一個非營利組織,OpenAI不僅掀起了一場全球範圍內的技術趨勢,還使得很多科技巨頭不得不加入進來,這會不會導致AI的發展產生巨大危險。

馬斯克及千名科學家呼籲「暫緩AI開發六個月」,也是出於這個原因。

布洛克曼直言:

從一開始我們考慮如何構建通用人工智慧時,實際上是希望它能造福全人類。

如果是秘密開發這一切,然後在弄清楚安全性後,再按下「開始鍵」,你希望你做對了,但對於我來說,並不知道該如何執行這一計劃。

可能其他人會這麼做,但對於我來說,這是可怕的、感覺不太對。

我認為這種路線目前的唯一替代方法,在機器變得完美之前,給人們時間來提建議。

從一開始我們考慮如何構建通用人工智慧時,實際上是希望它能造福全人類。

如果是秘密開發這一切,然後在弄清楚安全性後,再按下「開始鍵」,你希望你做對了,但對於我來說,並不知道該如何執行這一計劃。

可能其他人會這麼做,但對於我來說,這是可怕的、感覺不太對。

我認為這種路線目前的唯一替代方法,在機器變得完美之前,給人們時間來提建議。

布洛克曼表示,人類開發計算機、算法等技術,都是step by step,並且要在推進的每一個階段去弄清楚如何管理好它們。就好像養大一個孩子,是大家共同引導、給它樹立規矩,而不是教它毀滅人類。

如今,AGI已經做好準備來改變我們使用計算機的方方面面了。

是時候讓我們都了解這項技術了。

是時候讓我們都了解這項技術了。

參考連結:

https://www.ted.com/talks/greg_brockman_the_inside_story_of_chatgpt_s_astonishing_potential/comments

文章來源: https://twgreatdaily.com/e4af845a9d52cc5ef589e3fb92722578.html