可能导致我们灭绝的巨大风险

时间:2017-07-30 01:01:04166网络整理admin

安迪科格兰(Andy Coghlan)结局并不近,但除非我们限制自己的技术聪明才能这是来自英国剑桥的一项倡议的警告,该倡议希望建立一个中心,专注于可能一下子摧毁人类的巨大技术危害这些危险将包括逃避我们控制的机器人,核战争,实验室设计的世界末日瘟疫以及人类活动引发的气候变化的破坏 “我们谈论的是人类活动对我们生存的威胁,”剑桥大学宇宙学和天体物理学教授马丁里斯说他与剑桥哲学家Huw Price和Skype的发明者Jaan Tallinn一起创立了剑桥存在风险项目 Rees表示,我们过分关注普遍存在的微小风险,例如食品中的微量污染物,以及可能导致我们失控的大规模一次性风险为了解决这个问题,里斯,普莱斯和塔林提议在剑桥建立一个存在风险研究中心 “对于低概率,高影响力的事件,我们认为不够,可能会有太多,”里斯说 “金融危机是未预测到的事情的一个很好的例子,并且会有其他类型的事件从未发生过,但我们需要预测,”他说希望该中心能够通过探索如何预测和控制这些巨型风险来阻止我们的灭绝普莱斯说:“我们需要认真考虑可能存在人工智能的”潘多拉盒子“时刻的可能性,如果错过,可能是灾难性的他说,当计算机可以编写自己的程序时,可能会出现这个关键点上个月在美国也出现了对“杀手”机器人的新担忧,非政府组织人权观察组织发布了一份题为“失去人性:针对杀手机器人的案件”的报告人权观察组织的史蒂夫·戈斯说: