有可能的风险都是灾难性的,因为它们把人类困在单一命运中,比如文明永久崩溃或人类灭绝。这些灾难可能是由自然原因造成的,如小行星撞击或超级火山爆发,也可能是核战争或气候变化等因素造成的。剑桥大学存在风险研究中心(Centre for the Study of Existential Risk)的学术项目经理海顿·贝尔菲尔德(Haydn Belfield)表示,如果这种情况发生,将是“人类命运的悲惨结局”,并将让我们愧对几百代祖先。
希特勒检查了当时德国的先进工程——如果纳粹拥有了不可战胜的优势呢?
牛津大学人类未来研究所(Future of Humanity Institute)高级研究员托比·奥德(Toby Ord)认为,本世纪发生自然灾害的几率不到两千分之一,因为没有自然灾害,人类已经存活了2000个世纪。然而,如果计算人为灾难,奥德相信这种可能性会增加到惊人的六分之一。他把这个世纪称为“悬崖”,意思是人类失去未来的风险从未如此之高。
伦敦一家非营利性研究机构——长期风险中心(Center on Long-Term Risk)的研究人员对未知风险进行了进一步研究,提出了更令人不寒而栗的预测。这些“超级风险”被定义为“天文级的痛苦,远远超过迄今为止地球上存在的所有痛苦”。“在这种情况下,数十亿人仍存活,但质量极端低劣,前景黯淡,死亡将是更好的选择。”简而言之:一个负价值的未来比一个没有价值的未来更糟糕。
如果单一决策是极权主义的,人类文明将是暗淡的。曾经,即使是在制度最严格的国家,新闻也可以从其他国家流入,人们也可以选择流亡。全球性的极权主义统治会彻底消灭这些希望。比灭绝更糟糕的是,“这将意味着我们完全没有自由,没有隐私,没有逃脱的希望,完全没有能力来控制我们的生活,”塔克·戴维(Tucker Davey)说,他是马萨诸塞州未来生命研究所(Life Institute in Massachusetts)的一名作家,该研究所专注于潜在风险的研究。
由贝尔菲尔德和来自14个机构的25位作者撰写的《恶意使用人工智能》(The Malicious Use of Artificial Intelligence)报告预测,这样的趋势将使政治安全受到更加严重的威胁,并在未来几年新的威胁不断出现。尽管如此,贝尔菲尔德说他的工作让他充满希望,而积极的方面,比如关于人工智能的民主的讨论和政策制定(例如,欧盟考虑在公共场所暂停面部识别),让我们对避免灾难性的命运仍然可以保持乐观。