原创 | 量子号
theQuantumMedia
人工智能先驱杰弗里·辛顿(Geoffrey Hinton)。(图片来源:Ramsey Cardy / Collision via Sportsfile, CC BY 2.0, via Wikimedia Commons)
“人工智能教父”杰弗里·辛顿最新警告:人工智能可能通过重写自己的代码来修改自己,从而“逃脱人类的控制”。他还说,包括像他这样帮助构建当今人工智能系统的科学家,仍然没有完全理解这项技术是如何工作和发展的。言下之意是,人工智能可能已经不在我们的控制之下了。
据 CNBC 一小时前的最新报道,有“人工智能教父”之称的计算机科学家杰弗里·辛顿(Geoffrey Hinton)说,如果人类不小心的话,人工智能增强型机器“可能会取代人类”。
75 岁的辛顿周日在哥伦比亚广播公司的《60 分钟》节目中接受采访时表示,快速发展的人工智能技术可能会在“五年内”超越人类。他补充说,如果这种情况发生,人工智能的发展可能会超出人类的控制能力。
“这些系统逃脱控制的方法之一是编写自己的计算机代码来修改自己,”辛顿说。“这是我们需要认真担心的事情。”
辛顿因其数十年来在人工智能和深度学习方面的开创性工作而获得 2018 年图灵奖。在为谷歌工作了十年之后,他于今年五月辞去了谷歌副总裁兼工程研究员的工作,这样他就可以自由地谈论人工智能带来的风险。
辛顿说,人类,包括像他这样帮助构建当今人工智能系统的科学家,仍然没有完全理解这项技术是如何工作和发展的。许多人工智能研究人员坦率地承认自己缺乏了解:今年四月,谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)将其称为人工智能的“黑箱”问题。
正如辛顿所描述的那样,科学家们为人工智能系统设计算法,以便从互联网等数据集中提取信息。“当这种学习算法与数据交互时,就会产生擅长做事的复杂神经网络,”他说。“但我们并不真正了解它们究竟是如何做这些事情的。”
皮查伊和其他人工智能专家似乎并不像辛顿那样担心人类失去对人工智能的控制。另一位图灵奖获得者、也被认为是“人工智能教父”的杨立昆(Yann LeCun)称任何关于人工智能可能取代人类的警告都是“荒谬可笑的” ——因为人类总是可以阻止任何变得过于危险的技术。
人工智能的未来存在“巨大的不确定性”
辛顿强调,最坏的情况还不确定,医疗保健等行业已经从人工智能中受益匪浅。
辛顿还指出人工智能增强的错误信息、虚假照片和视频在网上的传播。他呼吁开展更多研究来了解人工智能,政府应制定法规来控制人工智能技术,并在全球范围内禁止使用人工智能驱动的军用机器人。
在上个月的国会山会议上,皮查伊、埃隆·马斯克、OpenAI 的萨姆·奥特曼和 Meta 的马克·扎克伯格等科技高管和立法者在讨论需要平衡监管和有利于创新的政府政策时,也提出了类似的想法。
辛顿表示,无论人工智能护栏是由科技公司实施还是在美国联邦政府的强制要求下实施——它们都需要尽快实施。
辛顿说,人类可能正处于“一种转折点”,并补充说,科技和政府领导人必须决定“是否进一步开发这些东西,以及如果他们要开发,该如何保护人类自己。”
“我想我要传达的主要信息是,接下来会发生什么还存在巨大的不确定性,”辛顿说。
资料来源:‘Godfather of AI,’ ex-Google researcher: AI might ‘escape control’ by rewriting its own code to modify itself, CNBC, 作者:Tom Huddleston Jr.
翻译和编辑:银河系搭车客