高智商犯罪中,是罪犯太高明还是系统太脆弱,这个锅该谁来背?

2019-08-27     北冥有鱼和鲲

2002年,美国上映的电影《猫鼠游戏》讲述了一个犯罪天才的故事。主角是一个年仅16岁的少年,他从没有学习过驾驶技术,却冒充飞机副驾驶,免费乘坐航班在全国各地飞行;他没有上过大学,却成功应聘医院的值班大夫;他没有学过法律,却成为检察官助理;他伪造支票,成功套取数百万美元,成为FBI有史以来年龄最小的通缉犯。但这不仅仅是一部电影,这是历史上真实发生的故事。

故事的主角叫做弗兰克·阿巴格内尔,出生于美国纽约。他利用各种系统和组织的漏洞,获取信任,并骗取巨额财富。在服刑期满出狱后,他帮助FBI抓获了多名金融骗术高手,并成为联邦调查局的研究专员。

在这个让人匪夷所思的事件中,人们最好奇的问题是:他是如何在这些复杂系统中冒充如此重要的身份,却没有被拆穿的?

弗兰克·阿巴格内尔无疑是一个高智商人才,但也说明这些重要系统内部存在问题。一旦这些问题被人利用,就能轻易的造成系统失灵,发生灾难性事件。

哈佛大学的克里斯·克利尔菲尔德和多伦多大学的安德拉什·蒂尔克斯克对当代社会各个领域发生的灾难性事件进行了深入的研究,这些领域包括金融领域、航空领域、医疗领域甚至邮局、大学和奥斯卡颁奖典礼。他们发现这些灾难性事件的背后都有规律可循。在两个人的著作《崩溃》中,他们分析了这些灾难发生的深刻原因,并探讨解决方法,如何及时发现系统漏洞,让系统远离崩溃。

什么样的系统容易发生灾难性崩溃呢?

克里斯·克利尔菲尔德 和安德拉什·蒂尔克斯克认为造成系统发生灾难性崩溃的原因主要有以下两个:

一、系统的复杂性和紧密耦合性

社会学教授查尔斯培洛在对著名的三里岛核泄漏事故的调研中发现,有两个因素促使系统容易发生崩溃:系统的复杂程度和紧密耦合程度。

当系统各部分之间的关系像蜘蛛网一样错综复杂时,就容易发生蝴蝶效应,一个小失误被无限放大,酿成灾难性事故。

2015年天津滨海新区发生连续性爆炸事件,导致大面积区域受到影响,参与救援的30余辆消防车和7641辆商品汽车全部损毁,造成165人伤亡,多家公司资产严重受损,被迫迁址。经过调查,事故的起因是由于湿润剂散失,仓库内的硝化棉造成干燥起火,引发相邻集装箱内的硝酸铵等危险化学物品相继发生爆炸。

在这起灾难事故中,仓库区对危险货物的混乱管理,危险物品的大量堆放造成了系统的复杂性,以致于在火灾刚发生时,难以预计到如此严重的后果。

现在技术的发展,让各种仪器设备越来越先进,我们通过简单的指示就能操纵复杂的机器。但是在享受这些便利的同时,也让我们对仪器形成依赖,无法掌握现场的真实情况。人们的行为更容被错误的仪器指示误导。

如果系统的紧密耦合性过高,当一个部分出现问题,就容易引发多米诺效应,造成系统性崩溃。

同样以天津滨海新区的爆炸事件为例,除了管理的混乱性,各种危险易爆的化学药品紧密堆放,缺乏隔离和阻燃设施,缺乏缓和的余地也是造成灾难性后果的重要原因之一。

培洛根据这一系统理论,制定了一个判断系统危险程度的矩阵:

x轴和y轴分别表示系统的复杂程度和紧密耦合性。

当我们将系统按照这个矩阵进行衡量时,那些位于矩阵右上方的系统,表示复杂性和紧密耦合性最高,这些系统发生崩溃的概率也最大。作者克里斯·克利尔菲尔德认为,“如果系统两者都具备,那么你就应该知道,在这种系统中重大失误迟早会发生。”

二、人们对微弱警示信号的忽视

被称为“永不沉没的客轮”泰坦尼克号在第一次航行时就撞到雪山发生海难,造成了1500多人葬生海底,这在当时堪称最严重的一次航海事故。事后人们经过调查发现,当泰坦尼克号驶入冰山密集的海面区域时,先后收到过六次来自周围航船的警示信号,但讯息均被电报员忽略,船长爱德华·史密斯也没有将这些警告放在心上。对重要的信号缺乏必要的重视最终导致了悲剧的发生。

系统的崩溃通常不会瞬间发生,在这之前,它会发出很多预警信息。比如在水管破裂之前总会发生漏水现象,车胎报废之前也会发生胎压不稳的情况。但是想让人们及时注意并重视这些信息并不容易。大部分人存在侥幸心理,只要表面上看上去没有大问题,就会掉以轻心,导致悲剧的发生。“ 千里之堤溃于蚁穴,失之毫厘谬以千里” 古人对后人早有警示:微不足道的小事情也要重视,否则就会酿成大错。

系统的复杂性也会造成人们对警示信号的忽视,因为人们很难直观的看到这些微弱的警示信号与灾难性结果之间的联系。培洛认为,“当人们搞不清楚状况时,就会构建一个与期待的世界相符的信息,并找出理由排除那些可能与之抵触的信息。 ”这种心理导致我们选择性失明,也容易错过预防灾难发生的关键信息。

针对以上两种原因,我们可以采取以下应对措施,防止系统崩溃,减少灾难事件的发生。

一、减少系统的复杂性

《崩溃》中提到关于系统复杂程度的一个原则:“不要让任何系统的复杂程度超过它需要达到的程度。”否则系统的安全性措施也会成为灾难发生的根源之一。

该书中提到了第89届奥斯卡颁奖典礼现场发生的一件糗事:主持人搞错了奥斯卡金像奖最佳影片的获得者。这种情况通常很少出现,因为评审结果会制作成白纸黑字的卡片送到宣读人的手中,只需要照着念出来即可。但是负责统计选票的人员为了防止万无一失,为每一个评审结果准备了相同的两张卡片。在传递信封的过程中,负责人将第二张最佳女演员的卡片当做最佳影片送了出去,导致出现了尴尬的一幕。

看起来完美的计划,实则增加了整个系统的复杂性,也就提高了风险发生的概率。减少系统不必要的环节,让步骤简单明了,也能增加系统的透明度,有利于降低灾难性假设发生的可能性。

制定标准也有利于降低系统的复杂性。这种方法在20世纪由加拿大的一个医师团队发明。当踝关节骨折时,医生依据个人经验进行肉眼诊断时,会经常出现失误,而让病人反复去做X射线检查,不仅会带来放射性风险大,也很耗费时间。为了改变这一状况,该医师团队为肉眼诊断制作了标准:从疼痛、年龄、承重和骨头压痛这四个重要方面,对骨折情况进行诊断,根据这四个方面的表现情况来判定诊断结果。结果表明,这种诊断方法极大的提高了医生诊断结果的正确率。

在日常生活中,比如买房子,需要考虑的因素太多,难以抉择时,也可以采用这种方法。制定选房标准,减少这件事情的复杂性,做出最优质的的选择。这种标准可以如下所示:

二、降低系统的紧密耦合性

降低耦合性就是减少各部分之间的关联。当一个部件出现问题时,减少对系统其他部分的影响,从而降低系统的整体风险。美国波音公司生产的每一架客机的零部件都来自上千家工厂,有的工厂只负责生产其中一个零部件。这种离散式生产模式,通过降低系统各组成之间的耦合程度,增加了组件的灵活性,便于机器升级改造。也不会因为少数零件的进度拖延,影响到整个产品的生产周期。

国际项目管理协会PMI规定,在制定项目进度计划时,要考量每个活动的提前量和滞后量,也是为了在各个活动之间预留出缓冲时间,确保进度计划的有效性和合理性。

三、让失败的微弱信号发生作用

如果系统崩溃前发出的警示信号能得到人们足够的重视,很多灾难性事件就能得以避免。但是这并不容易实现,鼓励人们说出观察到的异常现象,唤起人们对警示信号的重视,需要一定的技巧。

1、鼓励个人意见

作者克里斯·克利尔菲尔德说:“不同意见是珍贵的商品,可以帮助我们在复杂紧密耦合的系统中发掘重要的威胁。 ”

在团队中发表不同的意见需要很大的勇气。神经科学证明,大脑会渴望建立与他人一致的想法。当我们发表与团队意见有偏差的想法时,就会触发大脑对错误信息的反馈,你会感觉忐忑不安,缺乏信心。而当我们服从大众意见时,会触发大脑的奖励机制,人们会感觉身心轻松。

开放型的组织文化有利于鼓励人们畅所欲言。在一个团队中软化领导者的权威,展示领导者的包容和开放,创造良好的文化氛围,给予团队成员充足的参与感和责任感,才能获得更多的反馈信息。历史上唐太宗重用魏征,除了因为他的政治才能,也是在借用魏征展示自己包容、大度的形象,以便得以广开言路,获得更多贤士的辅佐,让王朝兴盛繁荣。

2、建立多元化的团队

在多元化的团队中,人们可能来自不同的文化,拥有不同的专业背景,这些差异性可能让团队无法顺利达成一致意见,但也能带来新颖的观点和独特的视角,帮助人们更全面的看待问题。

另外,在多元化的团队中,人们更愿意保持谨慎和怀疑的态度,发表观点的时候也会更加客观。试验研究表明,在多元型市场中,每个人都抱有更具怀疑性的态度,更具有批判精神。

3、鼓励人们发散思维

头脑风暴是经常使用的创意工具,通过各抒己见,可以挖掘出更多潜在的或没有被重视的问题。但是这个方法有一个缺点:人们在发言的时候,很容易受限于思维惯性,或者被其他人的观点影响,难以提出新颖的观点。所以单纯鼓励人们发散思考并不能起到很好的作用。

研究人员佳里克莱因发明了一种事前检验方法:即通过想象一件事情已经发生,来鼓励人们思考导致这一情况的原因。在心理学领域,它称之为未来的后见之明。

一家顶级商业学院曾做过一个调查验证这种方法。面对同一群人,他们对同一个问题,进行了不同版本的提问,得到的答案却相差很大。当提问者采取事前检查的方法进行提问时,让回答者通过想象假设的结果,来倒推原因时,人们能进行更深刻,更全面的思考。

心理学家加里.克莱因认为:“这种方法重新组织了我们考虑原因的出发点。即使我们只是在想象中看到了结果,但人们的整个活动发生了变化,从试图避免可能破坏和谐的任何东西,变为试图让潜在的问题浮出水面。 ”在这个过程中,人们的思维更敏锐,更具洞察力

这些方法可以鼓励人们畅所欲言,分享每个人的观点和视角,发现系统中的问题,下一步就要通过这些问题来不断改善系统,提高系统的安全性。我们可以参考书中给出的循环机制:搜集信息->修补表面上的问题->找到这些问题发生的根本原因->将这些信息在系统中分享->审核采取的措施是否有效解决了问题。

作者克里斯.可利尔菲尔德在《崩溃》中写道“ 虽然我们知道解决系统崩溃的办法,而且这些办法,并没有什么惊人之处。但是这些解决办法却很少应用在实际工作中。”无论多么强大的科技都无法做到万无一失,我们需要在日常生活中不断践行这些方法,才能有效预防系统的崩溃。

文章来源: https://twgreatdaily.com/zh-hans/6yszem0BJleJMoPMwFI_.html