這個世界越來越殘酷,最終可能只有不甘平庸並努力奮鬥的人才算是精彩活過一生,絕大多數人不過是機器人放過的過客而已,來時哭泣,去時默默。
作者:今綸
現在ChatGPT是熱點話題,什麼是ChatGPT?
給個標準答案:
ChatGPT是美國「開放人工智慧研究中心」研發的聊天機器人程序,它是人工智慧技術驅動的自然語言處理工具。
它能夠通過學習和理解人類的語言來進行對話,還能根據聊天的上下文進行互動,真正像人類一樣來聊天交流,甚至能完成撰寫郵件、視頻腳本、文案、翻譯、代碼等任務。
我前兩天試了一下,確實還不錯,那麼,它會搶多少人的飯碗?
我的答案很簡單:理論上,很多平庸的人可能被ChatGPT搶飯碗。
ChatGPT主要是人工智慧在文本方面的應用,我下面先講講人工智慧圖像識別的幾個例子,道理大同小異。
01 人工智慧搶飯碗的事已經發生
我曾經在某人工智慧公司呆過四年,近距離觀察到一些產品從研發到落地的過程,也親身參與到一些數據、圖像的採集工作中。
我能告訴大家的是:從技術到實現大規模商業化有很長的路要走,從大規模商業化到變現有更長的路要走,很多技術、產品可能永遠無法實現可維持一個公司運作的變現。
有的產品只能永遠免費,靠廣告彈窗活著;有的產品需要強關係才能變現,而強關係只能用一次;有的產品面對利益受損者的強力反抗、損害;有的產品從研發到落地都是自嗨。
講幾個例子:
某木材廠以前一條分揀線需要5名工人,工人嫌工資低,而且動不動鬧情緒。
老闆決定試試人工智慧自動分揀,某公司程式設計師給各種木頭拍了幾千張照片,然後把這些照片給機器去學習,再給機器裝上攝像頭和機械臂,它就可以根據「大腦」中存儲的幾千張照片對木頭進行分類了,而且不上廁所不吃飯,24小時不休,春節可以不回家。
相比工人的工資,機器的成本降低到了前者的30%,而且分揀準確率上升了。
這個老闆在全國好幾個城市都有大型木材廠,這節省的成本你想想有多大。
程式設計師有一天發現這條人工智慧分揀線的攝像頭老是壞,他們就很奇怪,因為頻率不正常,於是在附近裝了一個監控用的攝像頭,發現是工人故意破壞的,他們擔心自己失去工作。
凡是在內容、形狀、色彩上確定的東西都可以被機器學習,包括文字、木頭的紋理以及一個人鼻樑的高度。
所以,理論上,木材廠的絕大多數工人都可以回家了,人工智慧是可以搶走這些工人飯碗的。
但是老闆未必敢這麼干,即使他想這麼干,某些環節也未必允許他這麼干。
這裡面有倫理的問題,還有就業的問題,還有穩定的問題。
當然,新增加的生產線可以只用極少數工人,因為與原有利益格局不衝突。
去年年底,和凱兄在某火鍋城吃飯,發現火鍋城用上了送菜機器人,其實就是把菜送到桌邊,但不會幫顧客端上桌,還要自己端。
還有我很熟悉的一款圖書館機器人,可以幫助圖書管理員把書送到相應的書架附近,但將書插入書架中的準確位置,還是需要圖書管理員動手,該機器人還會自動去充電。
給送菜機器人以及圖書館機器人裝上機械臂,完成最後的動作並不難,當然也有一次性投入的成本問題,但是,你這麼干,讓圖書管理員怎麼辦呢?他們可能會集體下崗。
我說的這幾個例子,都和人工智慧的圖像識別功能有關,都出現在ChatGPT驚艷亮相之前。
準確地說,人工智慧搶人飯碗的事情已經發生,但人也會反抗,或者會故意製造「不完美」。
有些飯碗還在,真的是機器人賞飯吃,或者說機器人的創造者賞飯吃。
02 不要神化ChatGPT
ChatGPT出來之後,我友畢發財很是歡欣鼓舞,他認為自己也能做一名優秀的內容創作者推廣他的某產品了。
我的看法:一些資訊號確實會受到ChatGPT的影響,因為它們的內容本來就是來自於網上的摘抄洗稿。
ChatGPT把摘抄的範圍變得更大,速度更快,內容更全,資訊號怎麼可能幹得過?
但是真正有靈魂有才氣的內容創作者依然會在自己的領域受到尊重,獲得物質獎勵。
很多人不知道的是,一些媒體的部分彩票新聞、氣象新聞早就是機器在寫,編輯只是去取稿子編髮而已,沒有記者。
如果一個記者離開了這個崗位,幹不了別的崗位,那也說明他確實沒有什麼工作能力。
還有,那些寫注水論文、報告、方案,騙學校、政府經費的傢伙要高度警惕了。
他們乾的活毫無技術含量,其實就是長期在行騙,ChatGPT真要大規模推廣使用了,那可比查重軟體厲害,查重軟體只能查重,ChatGPT可是能自己寫論文的。
而且能比水貨專家寫得好,因為它資料庫大,而且「博聞強記」,幹活速度快。
那些真正有獨創性的結論、見解,ChatGPT搞不定,因為資料庫里沒有,它沒學到,還是需要大師級的教授、學者一個字一個字敲出來。
音樂界、書法界的情況大致也是如此。
所以,理論上,平庸的人可能被ChatGPT搶飯碗,我們別無選擇,只能把自己變得更優秀。
另外,一些需要複雜決策過程和平衡能力的工作崗位很難被取代。
比如,ChatGPT或者說人工智慧圖像識別機器人可以取代一個大公司的董事長嗎?即使後者願意,它們也干不好這活。因為做董事長除了要懂產品,還要懂政策,懂營銷,還要通曉人情世故,最後一點尤其重要。
那麼,什麼是人情世故呢?很微妙。
開會的時候,副董事長一個眼神,總經理一撇嘴,傳遞的信息只有董事長是懂的,機器人懂嗎?理論上也可以懂,但付出的學習成本很大。而且有些數據、素材、表情可能還涉及倫理、社會公序良俗以及一些心照不宣的「潛規則」。
這些東西,只有董事長去把握,機器人是干不好的。
在《時代》專訪ChatGPT的稿件中,ChatGPT自己回應得很清楚:
「說我有知覺或意識是不準確的。作為一個大型語言模型,我只是一個機器學習模型,沒有和人類一樣的意識。我沒有思想、感覺或經歷,沒有能力做決定或獨立判斷。我們沒有能力長時間保持身份一致,也沒有同理心、換位思考或理性推理的能力。我們只是提供有用信息和幫助的工具,在關鍵決策或複雜任務時不應依賴我們」。
ChatGPT對自己有清醒的認識,但有些人非要神化它。
03 充分激發人的創造力非常重要
ChatGPT也好,人工智慧圖像識別技術也好,它們乾的都是先儲存、學習文字或者圖像,然後調出來使用的活。
所以,絕大多數平庸的人被人工智慧技術搶飯碗是一定的。
這些人只是記住了一些數據、知識,然後憑經驗去干。
但是機器比人的記憶力可能好十萬倍,速度可能快1萬倍,配上更多硬體之後,執行力強1000倍,還不休息,但是成本只有人的一半都不到,甚至是十分之一。
所以,你說老闆們、甲方們有什麼選擇呢?
不幸的是,絕大多數人接受的教育模式就是記憶,然後去解題,這也沒錯,但這只是第一步。
第二步應該是在這個基礎上充分激發人的創造力、天性,創造出更多天才的想法和產品,這才是人和機器的不同。
要命的是,我們一直在追求準確性,但這種準確性在機器那裡完全不可比,更要命的是,我們因為種種原因放棄了去激發想像力和創造性。
ChatGPT出現在美國,這本身就足夠讓人警醒。
除了算力、數據質量之外,自主研發出ChatGPT這種產品需要更多具有創造性的人才。
專業人士認為,目前全球還沒有能跟 ChatGPT抗衡的大模型,業界共識是差距在兩年以上。
追趕需要錢,需要時間,更需要人才。
最後對著心窩扎一刀:
隨著人工智慧在文本、圖像、聲音多領域擁有越來越多的資料庫,機器人變得越來越聰明,甚至表現得仿佛「無所不知」,實際上意味著越來越多的平庸者已經失去了自己的工作,或者面臨這種巨大的風險而不自知。
某些人還有工作恐怕更多是因為強勢部門出手,出於社會穩定的需要而已,其實機器可以乾得更好。
這個世界越來越殘酷,最終可能只有不甘平庸並努力奮鬥的人才算是精彩活過一生,絕大多數人不過是機器人放過的過客而已,來時哭泣,去時默默。