特朗普欲将AI用于军事关键任务,兰德公司警告2040年前或导致核战争

发表时间:2018-05-02

新智元编译

来源:gizmodo.com

【新智元导读】 美国国防部副部长透露,特朗普政府对利用人工智能帮助军方更高效、成本更低地执行一些关键任务非常感兴趣,五角大楼已经准备在未来6个月内建成一个整合多个AI项目的新中心。于此同时,美 兰德公司发布报告,警告说AI在军事任务中的应用可能 增加核战争的风险。

据美国非盈利新闻调查组织CPI的报道,美国国防部的第二把手上周二透露, 特朗普政府对利用人工智能帮助军方更高效、成本更低地执行一些关键任务非常感兴趣。

美国国防部副部长、前波音公司高管Patrick Shanahan表示,人工智能(使用计算机系统执行通常需要人类智能的任务)可以帮助国防部更好地利用其收集的大量情报数据。

他还表示, AI可以用于加强军事后勤能力 ,在正确的时间为士兵和维修人员提供适当的零件和装备。AI也可以促进更明智的决策,为军方人员提供医疗服务,从而节省成本。

Patrick Shanahan以及其他高级国防官员说, 五角大楼已经准备在未来6个月内建成一个“卓越中心” (Center for Excellence),将多个现有的与AI应用相关的军事计划整合在一起,为这项工作带来更多连贯性和动力。

在Shanahan向防务作家团体(Defense Writers Group)发表上述讲话的同一天,兰德公司(Rand Corporation)发布了一分公开报告,警告说AI在军事任务中的应用可能导致令人担忧的负面影响,包括: AI可能通过巧妙地破坏核威慑的一个关键根基,从而增加核战争的风险 。兰德公司是美国的一个智库,主要为美国军方提供调研和情报分析服务。

兰德报告:人工智能可能在2040年前增加核战争的风险

这份新报告题为《人工智能可能如何影响核战争的风险》(How might Artificial Intelligence Affect the Risk of Nuclear War),报告指出, AI具有破坏核安全基础的“巨大潜力” 。这个严峻的结论是兰德组织的一系列研讨会得出的,参与该研讨会的人员包括AI、核安全、政府和军方的专家。这是兰德公司Security 2040项目的一部分,旨在评估AI以及其他现金计算在未来20年里对核安全的影响。针对这一报告的结论,兰德正 在呼吁国际社会就此进行对话。

这一讨论的核心是核威慑的概念,即保证 “相互保证毁灭”(MAD)或“保证报复”(assured retaliation) ,防止一方对有同等武装的对手发射其核武器。这是一种冷酷、计算式的逻辑,至少在我们经历过的历史阶段,它至少阻止了一场全面的核战争,让理性的、自我保护的大国选择了对抗冷战。只要没有一个核力量维持有重大的先发制人的能力,MAD的概念就仍占据主导地位;如果一个武器系统能够在第一次攻击中幸存下来,并以同等的力量回击,那么“保证报复”就仍然有效。但是如果一方失去了反击的能力,或者即使它开始认为它有失去这种能力的风险,这样的体系就可能削弱并变得不稳定。

这个方程式鼓励国家行为者避免采取可能破坏当前地缘政治平衡的行为,但是,正如我们在过去几十年里一再看到的那样,核大国仍欲图“先发制人”。例如,隐形轰炸机、核潜艇的发展,以及最近俄罗斯总统弗拉基米尔·普京(Vladimir Putin)展示的“无敌”弹道导弹。

值得庆幸的是,这些发展都没有真正地结束超级大国在第一次打击后的反击能力,但正如兰德的新报告指出的那样,先进的人工智能技术与无人机、卫星以及其他强大的传感器等监视技术相结合,可以削弱这种促使微妙的冷战平衡得以保持的技术平衡。该报告称, 人工智能将通过对敌方安全基础设施实行大规模监控,发现人眼看不到的模式,揭示其破坏性的漏洞,从而实现这一目的。

报告作者之一,兰德公司的一名工程师Andrew Lohn说:“这可不仅是电影里的场景,如果我们不加以小心,很简单的事情就可能引发紧张局势,将我们带到危险的局面。”

一个暴露着的敌人突然意识到它很容易遭受“先发制人”,或者意识到它可能很快就会失去反击的能力,将陷入一个非常不利的位置。这种情况可能会迫使处境不利的国家寻找能够恢复平衡的方法,它的行动可能会变得像被逼到角落里的金刚狼一般。先进的人工智能可能导致一个充满不信任、竞争的新时代,孤注一掷的核大国会愿意承担灾难性的、甚至毁灭性的风险。

令人不安的是,即将失去“ 保证毁灭 ”可能会导致所谓的预防性战争,即一场以阻止敌方获取攻击能力为目的的战争。例如,在第一次世界大战前的几年中,德国严重担忧作为其竞争对手的俄罗斯开始成为重要的地区强国。德国专家预测,俄罗斯将能够在20年内在武装冲突中击败德国,这引发了一场预防性战争。而在二战结束后不久,美国的一些思想家,包括哲学家伯特兰·罗素和数学家约翰·冯诺伊曼,呼吁在苏联发展自己的核弹之前,对苏联实施先发制人的核打击。

正如这些例子所显示的那样,事态的发展如果要 破坏军事优势或平衡状态 (即MAD),这一时期可能是非常危险的,会引发各种疯狂的想法。正如兰德公司的报告指出的那样,我们可能正在进入另一个这样的转型期。作者在报告中写道,人工智能“有可能在2040年前加剧核战略稳定面临的挑战,即使技术进步的速度不大”。

兰德公司的助理政策研究员,该报告的合作作者Edward Geist说,自主系统不需要通过杀人来破坏稳定性,更有可能的是造成灾难性的战争。他在一份声明中说:“新的人工智能能力可能会让人们认为,如果他们犹豫不决的话,他们就会失败。”这可能会导致他们扣扳机的手指更加跃跃试试。到那时, 尽管人类仍处于“控制”状态,AI将使战争更有可能发生。

最后,作者警告说,未来可能会出现严峻的形势,但作者也同意AI也可能迎来前所未有的稳定时代。 他们写道:

一些专家担心,对AI的日益依赖可能导致新的灾难性错误。在技术成熟之前,使用AI可能会有压力;它可能易受对抗性的破坏;或者敌方可能认为AI比它实际上的能力更强大,导致他们犯下灾难性的错误。另一方面,如果核大国设法建立一种与AI可能提供的新能力相适应的战略稳定形式,就可以减少不信任并缓解国际紧张局势,从而降低核战争的风险。

作者们表示,无法预测这两种情景哪一种会发生,但国际社会必须立即采取行动,以减轻潜在的风险。在解决方案而言,作者提出了国际讨论,建立新的全球机构和协议,发展创新技术、外交和军事保障等。

这是技术的双刃剑。AI既可以导致我们的厄运,也可以像在《巨人:福宾计划》(Colossus:The Forbin Project;1970)和《战争游戏》(War Games,1983)等电影中那样,保护我们免于由于自己的错误而毁灭。那么,最好记住这句古老的格言: 抱最好的希望,做最坏的打算

本文来自新智元,创业家系授权发布,略经编辑修改,版权归作者所有,内容仅代表作者独立观点。[ 下载创业家APP,读懂中国最赚钱的7000种生意 ]