这里是普通文章模块栏目内容页
兰德公司:2040年人工智能或发动核战争毁灭人类

据《每日邮报》报道,一家主要的安全智库兰德公司(以下简称“兰德”)警告称,最早在2040年,人工智能就可能发动造成人类毁灭的核战争。兰德称,催生“世界末日人工智能”机器的技术发展,可能会促使一些国家利用它们的核武库冒险。

在冷战期间,被称作“相互确保摧毁”的状态,维持了两个超级大国之间不稳定的平衡。

然而,人工智能的进步可能意味着“相互确保摧毁”状态遭到破坏,从而削弱对方反击的潜力,而且,这种趋势可能无法阻止。

兰德公司:2040年人工智能或发动核战争毁灭人类

冷战期间相互确保摧毁维持了超级大国之间脆弱的平衡

 

兰德称,未来数十年,人工智能的进步,可能破坏“相互确保摧毁”对拥核国家的约束力。

就像在20世纪40年代和50年代的冷战时期,未来核冲突的每一方都有理由担心对手获得技术优势。

改进的人工智能技术,加上更多的传感器和开源数据,可以使各国相信他们的核能力是脆弱的。

报告称,这可能会导致它们采取更激进的措施,跟上美国这样的竞争对手。

兰德研究人员、报告共同作者安德鲁·洛恩(Andrew Lohn)表示,“有些专家担心,人们越来越依赖人工智能会导致新型的灾难性错误。”

各国都面临在技术真正成熟前使用人工智能的压力。因此未来数十年要保持战略稳定性极端困难,所有核大国必须参与新体系的形成,以降低核风险。

报告称,另一种令人担忧的情况是,指挥官可能根据人工智能助手提供的建议作出发动攻击的命令,而人工智能助手接收的信息本身可能就是错误的。

除了提供糟糕的建议外,这样的系统也可能容易受到黑客攻击,从而引发了恶意第三方发动第三次世界大战的可能性。

尽管如此,有人认为人工智能可以通过提高情报收集和分析的准确性,来提高未来的战略稳定性。

专家表示,对用于监测和解释对手行为的分析过程进行改进,可以减少可能导致对抗意外升级的错误计算或曲解。

鉴于未来的改进,最终人工智能系统有可能发展出比人类更不容易出错的能力,因此有助于保持长期的战略稳定性。

根据与在核问题、政府部门、人工智能研究、人工智能政策和国家安全方面的专家举行的一系列研讨会期间收集的信息,兰德研究人员,得出了上述结论。

这项研究是展望2040年重大安全挑战的更广泛研究活动的一部分,考虑了政治、技术、社会和人口趋势的影响。

“人工智能会增加核战争的风险?”研究的全部资料发布在兰德上。

自 凤凰科技

更多阅读:

预计2030年人工智能将使240多万日本人失业

Accenture:调查显示企业不愿花钱对员工进行人工智能培训

人工智能将提高中国经济增长率 制造业等受益

人工智能现状的15张信息图

国家工业信息安全发展研究中心:2016年全球人工智能发展报告解读

Ovum:预计到2021年人工智能助手数量将超过全世界人口

马斯克:全球人工智能竞赛可能引发第三次世界大战

Infosys:多数企业承诺不会因AI技术裁掉员工

Coalition:华尔街12家顶级投行一年内雇佣人数减少3%

金融时报:人工智能犹如是连接消费者的破折号

人工智能会成为未来网络安全防御的神器吗?

日本经济新闻&金融时报:34%的工作将会被人工智能替代

2017年人工智能行业人才需求数据

2017年中国AI企业产业布局与融投大数据盘点

腾讯研究院&BOSS直聘:2017年全球人工智能人才白皮书

收藏
0
有帮助
0
没帮助
0