2018年3月14日,科学巨匠霍金永远离开了人世,霍金史蒂芬·霍金是英国著名的天文物理学家和宇宙学家。他一生的成就可以概括为,第一:奇性定理,爱因斯坦创立的广义相对论被科学界公认为最美丽的科学理论,但是霍金和彭罗斯一道证明了广义相对论是不完备的。第二,黑洞理论。第三,无边界宇宙理论。他认为,时空是有限而无界的,宇宙不但是自洽的,而且是自足的,它不需要上帝在宇宙初始时的第一推动。上述成就中,一个人生前拥有其中的任何一项成就,就足以名垂不朽,而霍金却拥有了这些理论的全部。所以,霍金对科学研究的贡献是巨大的。
然而,在霍金去世前,它还曾对人类的科学发展进行了警告,特别是人工智能的快速发展,未来很有可能将人类带入绝地,无回头的余地,甚至会成为人类灭亡的武器。2013年霍金就曾警告各国谨慎发展人工智能,他将人工智能对人类发展所带来的影响,列为人类发展最大的潜在威胁,在可预见的未来某一天,人工智能可能会超过人类并失去人类的约束。一旦机器人有了思想,发现人类和他们并不是同类,只是将他们当奴隶。机器人很有可能将其列为敌人,同时还具备了自给自足的能力。
那么对于人类来说,这将是巨大的灾难,就像科幻电影《终结者》中所描述的一样,21世纪的一次核战争后,地球被机器人所统治,幸存的人类集聚到一起,反抗机器人的残暴统治。人类曾经为了快速发展,制造了它们,让它们有了意识,有了思考能力。更可怕的是,它们还有自足生产的能力,实现不断自造和更型换代,一切由中央大脑指挥,将人类赶尽杀绝,建立属于自身的红色星球。
当下,人工智能的发展虽然刚起步,还处于萌芽的初期,但不得不让人警惕。如今人工智能已经开始进入我们的生活当中,包括手机、汽车、电脑、监控系统、扫地机器人等等。这些和我们生活息息相关的东西,都已经开始加入了人工智能技术,正在改变我们的生活方式,我们甚至只要和手机说打某某人的电话,它就能很快速的做到,甚至还能和我们简单的对话。无人驾驶汽车更是只要说到哪,汽车就能将你带到哪。
然而,人工智能的发展同样是一把双刃剑,带来好的一面,也有不好的一面。一旦失去控制或者被人控制,很有可能会威胁到我们的生命。在2007年的一次军事训练当中,本来是应该一起同美军射击的机器人,突然失控将枪口对准了美国自己的军队,如果这是在真实的战场上,这将难以想象。
同时霍金对人工智能发展的危险性还提到,现阶段人工智能的发展还是可以控制的,因为它们实现的功能还需要人类编码后才能实现,它们实现的功能,都是由研发人员赋予的。但假如有一天,机器人实现了自足编码和修复漏洞,优化自身的系统,入侵整个网络偷偷自学,提高了自己的智商,这将意味着人工智能的发展正在失去控制。然而这一切可能我们毫不知情,因为它很有可能躲避人类的监控。如果是在武器装备上,这更加危险,想象一下,如果有一天武器突然不受人类控制,战机自己起飞,坦克自己启动,导弹系统不受控制,人工智能将这一切连接起来对抗人类,科幻片里的场景将会成为现实。