|
发表于 2018-11-1 21:49:01
|
显示全部楼层
这种可能性是存在的,而且概率不低。从目前来看,人类文明的危险性不是来自外部,而是来自我们自身。
随着科技的发展,人类创造出了越来越多的科技产物,去服务我们的生活。而同时,人类也创造出了很多科技的怪物,比如核能、抗生素以及人工智能等。这些产物在和平时期也许会让人类社会飞速发展,但是在动乱与战争中,它们会是人类自掘坟墓的铁锹。
科技永远是一把双刃剑,自从核能潘多拉的宝盒打开后,人类文明就像走在钢索上的表演者,手持一根看似平稳的平衡木,但是一旦有外力去干扰他,也许我们这个文明体系瞬间就会坠入无底的深渊。
现在我们终于明白了,为什么核武器技术只能被大国所掌握。小国也许具备开发核武器的技术,但是他们往往不具备驾驭核武器的能力与体量。我记得有人说过:“大国,一般不会犯错。”这指的就是驾驭核武器的能力。设想一下,如果一枚核弹头落入了一个小国,或者一个激进组织的手里,会是什么样的后果?那必然会引起一系列连锁的反应。足以让人类文明毁于一旦。
人类对药物的不断研究,攻克了一个个医学难题。特别是抗生素发明以后,挽救了无数人的生命,但是随之而来的超级病毒也在不断的变种与进化。一旦出现一种高传播性、任何药物都对之无效的疾病,人类文明也许瞬间就会瓦解。人类社会联系越来越紧密,也许上午在美国爆发的病毒,下午通过飞机旅客就能传播到法国。
人工智能,一个很吸引人的领域,它的初衷是为了服务于人类。假设日后科技发展迅速,人工智能已经达到一定的高度,接近于人类的思维,我们无法保证其自身是否会一如既往的遵循阿西莫夫制定的《机器人三大定律》。《机械公敌》与《黑客帝国》就很详细的描述了这一天的到来的情况。 |
|