人工智慧可能已經失控,AI先驅科學家發出最新警告

2023-10-24     AI狐頭條

原標題:人工智慧可能已經失控,AI先驅科學家發出最新警告

原創 | 量子號
theQuantumMedia

人工智慧先驅傑弗里·辛頓(Geoffrey Hinton)。(圖片來源:Ramsey Cardy / Collision via Sportsfile, CC BY 2.0, via Wikimedia Commons)

「人工智慧教父」傑弗里·辛頓最新警告:人工智慧可能通過重寫自己的代碼來修改自己,從而「逃脫人類的控制」。他還說,包括像他這樣幫助構建當今人工智慧系統的科學家,仍然沒有完全理解這項技術是如何工作和發展的。言下之意是,人工智慧可能已經不在我們的控制之下了。

據 CNBC 一小時前的最新報道,有「人工智慧教父」之稱的計算機科學家傑弗里·辛頓(Geoffrey Hinton)說,如果人類不小心的話,人工智慧增強型機器「可能會取代人類」。

75 歲的辛頓周日在哥倫比亞廣播公司的《60 分鐘》節目中接受採訪時表示,快速發展的人工智慧技術可能會在「五年內」超越人類。他補充說,如果這種情況發生,人工智慧的發展可能會超出人類的控制能力。

「這些系統逃脫控制的方法之一是編寫自己的計算機代碼來修改自己,」辛頓說。「這是我們需要認真擔心的事情。」

辛頓因其數十年來在人工智慧和深度學習方面的開創性工作而獲得 2018 年圖靈獎。在為谷歌工作了十年之後,他於今年五月辭去了谷歌副總裁兼工程研究員的工作,這樣他就可以自由地談論人工智慧帶來的風險。

辛頓說,人類,包括像他這樣幫助構建當今人工智慧系統的科學家,仍然沒有完全理解這項技術是如何工作和發展的。許多人工智慧研究人員坦率地承認自己缺乏了解:今年四月,谷歌執行長桑達爾·皮查伊(Sundar Pichai)將其稱為人工智慧的「黑箱」問題。

正如辛頓所描述的那樣,科學家們為人工智慧系統設計算法,以便從網際網路等數據集中提取信息。「當這種學習算法與數據交互時,就會產生擅長做事的複雜神經網絡,」他說。「但我們並不真正了解它們究竟是如何做這些事情的。」

皮查伊和其他人工智慧專家似乎並不像辛頓那樣擔心人類失去對人工智慧的控制。另一位圖靈獎獲得者、也被認為是「人工智慧教父」的楊立昆(Yann LeCun)稱任何關於人工智慧可能取代人類的警告都是「荒謬可笑的」 ——因為人類總是可以阻止任何變得過於危險的技術。

人工智慧的未來存在「巨大的不確定性」

辛頓強調,最壞的情況還不確定,醫療保健等行業已經從人工智慧中受益匪淺。

辛頓還指出人工智慧增強的錯誤信息、虛假照片和視頻在網上的傳播。他呼籲開展更多研究來了解人工智慧,政府應制定法規來控制人工智慧技術,並在全球範圍內禁止使用人工智慧驅動的軍用機器人。

在上個月的國會山會議上,皮查伊、埃隆·馬斯克、OpenAI 的薩姆·奧特曼和 Meta 的馬克·扎克伯格等科技高管和立法者在討論需要平衡監管和有利於創新的政府政策時,也提出了類似的想法。

辛頓表示,無論人工智慧護欄是由科技公司實施還是在美國聯邦政府的強制要求下實施——它們都需要儘快實施。

辛頓說,人類可能正處於「一種轉折點」,並補充說,科技和政府領導人必須決定「是否進一步開發這些東西,以及如果他們要開發,該如何保護人類自己。」

「我想我要傳達的主要信息是,接下來會發生什麼還存在巨大的不確定性,」辛頓說。

資料來源:『Godfather of AI,』 ex-Google researcher: AI might 『escape control』 by rewriting its own code to modify itself, CNBC, 作者:Tom Huddleston Jr.

翻譯和編輯:銀河系搭車客

文章來源: https://twgreatdaily.com/zh-tw/e159fa2563d844b37da3a87c83b8863e.html