Unz评论•另类媒体选择$
美国主流媒体大都排除了有趣,重要和有争议的观点
 Michael T.Klare档案
“ Alexa,发射我们的核子!”
人工智能与战争的未来

书签 全部切换总目录添加到图书馆从图书馆中删除 • B
显示评论下一个新评论下一个新回复了解更多
回复同意/不同意/等等 更多... This Commenter This Thread Hide Thread Display All Comments
同意不同意谢谢LOL轮唱
这些按钮可将您的公开协议,异议,感谢,LOL或巨魔与所选注释一起注册。 仅对最近使用“记住我的信息”复选框保存姓名和电子邮件的频繁评论者可用,并且在任何八个小时的时间内也只能使用三次。
忽略评论者 关注评论者
搜寻文字 区分大小写  确切的词  包括评论
列表 书签

没有比发射原子武器并可能引发核浩劫更重要的决定了。 约翰·肯尼迪总统在 古巴导弹危机 1962 年,在设想了美苏核交换的灾难性后果之后,他得出结论,原子能大国应该对这种武器的突然使用设置严格的障碍。 他和其他全球领导人采取的措施包括要求高级官员(不仅仅是军事人员)在任何核发射决定中发挥作用的指导方针。

那是当时,当然,现在是。 现在是什么情况! 随着人工智能或人工智能很快在军事事务中发挥越来越重要的作用,就像在我们生活中的几乎所有其他事情中一样,人类的作用,即使在核决策中,也可能会逐渐减弱。 事实上,在未来某个人工智能饱和的世界中,它可能会完全消失,让机器来决定人类的命运。

这不是基于科幻电影或反乌托邦小说的无意义猜想。 这一切都太真实了,太真实了,此时此地,或者至少此时此地,即将到来。 当五角大楼和其他大国的军事指挥部展望未来时,他们看到的是一个竞争激烈的战场——有人称之为“超级战争” 环境——大量由人工智能引导的机器人武器将以远远超过人类指挥官跟踪战斗过程的能力的速度相互战斗。 人们认为,在这种情况下,指挥官可能会越来越被迫依赖更智能的机器来决定何时何地使用何种武器。 起初,这可能不会延伸到核武器,但随着战斗速度的加快以及它们与常规武器之间的“防火线”的缩小,甚至核发射决策的缓慢自动化可能被证明是不可能的。

随着美军完成自上而下的重组,旨在将其从根本上是小型战争的反恐组织转变为专注于与中国和俄罗斯进行对等战斗的组织,这样的结果只会变得更有可能. 这一转变是国防部在 2017 年 XNUMX 月授权的 国家安全战略. 现在,美国军队不再专注于在无休止的小规模冲突中打击装备不足的叛乱分子的武器和战术,而是正在重新设计,以在多维度(空中、海上、陆地)与装备越来越精良的中国和俄罗斯军队作战、太空、网络空间)涉及多个攻击系统(坦克、飞机、导弹、火箭)的交战,在最少的人工监督下运行。

“所有这些能力结合在一起的主要影响/结果将是一场前所未有的创新战:在传统上发动战争所需的绝大多数过程中,人类决策的最小化,” 观察 退休的海军上将约翰艾伦和人工智能企业家阿米尔侯赛因。 “在即将到来的超级战争时代,我们将看到人类提供广泛、高级别的输入,而机器则负责计划、执行和适应任务的现实,并在没有额外输入的情况下承担数千个个人决策的负担。 ”

“最大限度地减少人类决策”将对未来的战斗产生深远的影响。 通常,国家领导人试图控制战斗的节奏和方向,以确保尽可能好的结果,即使这意味着停止战斗以避免更大的损失或防止人道主义灾难。 机器,即使是非常智能的机器,也不太可能能够评估战斗的社会和政治背景,因此激活它们很可能会导致无法控制的升级情况。

机器在关键的军事决策角色中取代人类可能需要几年甚至几十年的时间,但那个时间即将到来。 正如国防部长吉姆·马蒂斯(Jim Mattis)所说,在控制支持人工智能的武器系统时 最近访问, “在不久的将来,将会有一个重要的人为因素。 “也许是 10 年,也许是 15 年。但不是 100 年。”

为什么是人工智能?

即使在五年前,在军事机构中也很少有人对人工智能或机器人技术在重大作战行动中的作用给予过多考虑。 是的,遥控飞机 (RPA) 或无人机已经 广泛使用 在非洲和大中东地区追捕敌方战斗人员,但这些主要是辅助行动(有时是中央情报局),旨在减轻美国突击队和盟军面临分散的暴力极端分子团伙的压力。 此外,今天的 RPA 仍然 受控制于 人类操作员,即使来自远程位置,也很少使用人工智能驱动的目标识别和攻击系统。 然而,在未来,预计此类系统将在任何战场上占据大部分空间,在许多甚至大多数战斗功能中取代人类。

为了加快这一转变,国防部正在 已经花费 数亿美元用于人工智能相关研究。 “我们不能指望用昨天的思想、武器或装备来对抗明天的冲突,”马蒂斯 告诉 XNUMX 月的国会。 他补充说,为了确保持续的军事霸权,五角大楼将不得不更多地“投资于技术创新以提高杀伤力,包括研究先进的自主系统、人工智能和高超音速”。

为什么突然强调人工智能和机器人技术? 当然,它始于科技界(其中大部分位于加利福尼亚州硅谷)在增强人工智能和 应用 它具有多种功能,包括图像识别和语音识别。 其中一个应用程序,Alexa Voice Services,是亚马逊智能扬声器背后的计算机系统,它不仅可以使用互联网进行竞价,还可以解释你的命令。 (“Alexa,播放古典音乐。”“Alexa,告诉我今天的天气。”“Alexa,打开灯。”)另一个是那种 自动驾驶汽车技术 预计这将彻底改变交通。

人工智能是一种“通用”技术, 说明 无党派信息机构国会研究服务处的分析师,“因为它有可能被整合到几乎所有事物中。” 它也是一种“双重用途”技术,因为它既可以用于军事用途,也可以用于民用用途。 例如,自动驾驶汽车依靠专门的算法来处理来自监控交通状况的传感器阵列的数据,从而决定采取哪些路线、何时改变车道等等。 有朝一日,相同的技术和相同算法的重新配置版本将成为 应用的 自动驾驶坦克在未来的战场上松动。 同样,有一天无人驾驶飞机——在遥远的地方没有人工操作员——将能够在战场上搜寻指定目标(坦克、雷达系统、战斗人员),确定它“看到”的东西确实在它的目标清单上,并“决定”向它发射导弹。

不需要特别灵活的大脑就能理解为什么五角大楼官员会寻求利用这种技术:他们认为这会给他们一个 显着优势 在未来的战争中。 至少可以说,美国与中国或俄罗斯(或两者)之间的任何全面冲突都将异常激烈,可能有数百艘军舰和数千架飞机和装甲车都集中在密集的战场上。 在这样的环境中,决策、部署和参与的速度无疑将被证明是一项关键资产。 考虑到未来的超智能、精确制导武器,谁先开火,谁就比开火慢的对手更有可能成功,甚至生存。 当被迫这样做时,人类可以在这种情况下迅速行动,但未来的机器将行动得更快,同时跟踪更多的战场变量。

作为参谋长联席会议副主席保罗·塞尔瓦将军, 告诉 2017年国会,

“当人们看到人工智能可以为指挥和控制的速度和准确性带来的能力以及先进机器人技术可能给复杂的战斗空间带来的能力,特别是太空和网络空间中的机器对机器交互时,这是非常引人注目的,速度至关重要。”

除了旨在利用人工智能开发自己的武器外,美国军方官员强烈意识到,他们的主要对手也在推进人工智能和机器人技术的武器化,寻求新的方法来克服美国在常规武器方面的优势。 根据 例如,美国国会研究局正在大力投资人工智能的发展及其在军事目的上的应用。 尽管缺乏中国或美国的技术基础,但俄罗斯同样在大力发展人工智能和机器人技术。 五角大楼将无法容忍中国或俄罗斯在此类新兴技术方面的任何重大领先,这可能会威胁到该国的军事优势。

毫不奇怪,在过去的军备竞赛中(从一战前的战列舰发展到冷战时期的核武器),“人工智能中的军备竞赛”目前正在进行中,美国、中国、俄罗斯和其他国家(包括英国、以色列和韩国)寻求在人工智能和机器人武器化方面获得关键优势。 五角大楼官员定期 引用 中国在为其项目寻求国会资助时在人工智能方面取得了进展,正如中国和俄罗斯的军事官员无疑会引用美国的军事官员来资助他们自己的宠物项目一样。 以真正的军备竞赛方式,这种动态已经加快了人工智能系统的开发和部署步伐,并确保了它们在未来的战争中的突出地位。

指挥和控制

随着这场军备竞赛的展开,人工智能将应用于战争的各个方面,从后勤和监视到目标识别和战斗管理。 机器人车辆 将在战场上陪伴部队,运送物资并向敌方阵地开火; 成群的武装无人机将攻击敌方坦克、雷达和指挥中心; 无人水下航行器或 UUV 将追击敌方潜艇和水面舰艇。 在战斗开始时,所有这些战争工具无疑将由人类控制。 然而,随着战斗的加剧,总部和前线之间的通信很可能会丢失,而这样的系统将会丢失,根据 军事场景 已经写好了,可以独立进行,有权采取致命的行动,而无需进一步的人为干预。

大部分 辩论 关于人工智能的应用及其未来的战场自主性,一直集中在赋予完全自主武器(有时称为“杀手机器人”)能力以自行做出生死决定的道德上,或者是否使用这种系统将违反战争法和国际人道主义法。 这样的 法规 要求战争制造者能够区分战场上的战斗人员和平民,并尽可能避免后者受到伤害。 新技术的拥护者声称,机器确实会变得足够聪明,可以自己区分这些区别,而反对者 坚持 他们永远不会证明有能力在激烈的战斗中做出这种批判性的区分,也无法在适当的时候表现出同情心。 一些人权和人道主义组织甚至发起了 阻止杀手机器人的运动 目标是通过一项国际禁令,禁止开发和部署完全自主的武器系统。

与此同时,军事领域正在出现一场关于将人工智能应用于指挥与控制 (C2) 系统(即高级军官将关键命令传达给他们的部队的方式)的更重要的辩论。 将军和海军上将总是寻求最大限度地提高 C2 系统的可靠性,以确保他们的战略意图尽可能彻底地实现。 在当前时代,此类系统严重依赖从总部延伸到前线的安全无线电和卫星通信系统。 然而,战略家 担心 也就是说,在未来的超级战争环境中,当战斗速度开始超过指挥官接收战场报告、处理数据和及时发送命令的能力时,此类系统可能会被卡住或退化。 考虑这是臭名昭著的战争迷雾乘以人工智能的功能定义——失败可能会导致结果。 对于许多军事官员来说,这样一个困境的答案是:让机器也接管这些系统。 作为国会研究服务的报告 把它,在未来,“人工智能算法可能会根据对战场空间的实时分析,为指挥官提供可行的行动方案,从而更快地适应正在发生的事件。”

当然,有朝一日,可以想象这种决策背后的思想将不再是人类的思想。 相反,来自战场信息系统的输入数据将被引导到专注于评估迫在眉睫的威胁的 AI 处理器,并考虑到所涉及的时间限制,执行什么 他们 被认为是没有人工指导的最佳选择。

五角大楼官员否认这一切都是他们与人工智能相关的研究的意图。 然而,他们承认,他们至少可以想象未来其他国家将决策权委托给机器,而美国别无选择,只能效仿,以免失去战略制高点。 “我们不会授予机器做出决定的致命权力,”当时的国防部副部长罗伯特·沃克 告诉 新美国安全中心的 Paul Scharre 在 2016 年的一次采访中。 但他补充了一个常见的警告:在未来,“我们可能会遇到一个比我们更愿意将权力委托给机器的竞争对手,随着竞争的展开,我们将不得不就如何竞争做出决定。 ”

末日决定

大多数情况下的假设是美国及其盟国将与中国和/或俄罗斯进行常规战争。 那么请记住,这种未来由人工智能驱动的超级战争的本质只会增加常规冲突可能跨越以前从未跨越的门槛的风险:两个核国家之间的实际核战争。 如果发生这种情况,那些人工智能驱动的 C2 系统迟早会发现自己能够发射原子武器。

这种危险源于多种技术进步的融合:不仅是人工智能和机器人技术,还有 常规打击能力 比如能够以五倍或更多音速飞行的高超音速导弹、电磁轨道炮和高能激光。 这种武器虽然是非核武器的,但当与人工智能监视和目标识别系统结合使用时,甚至可以攻击敌人的移动报复性武器等 威胁 消除其对任何核攻击作出反应的能力。 考虑到这种“使用它们或失去它们”的情况,任何大国都可能倾向于不等待,而是在可能的攻击的第一个迹象时发射其核武器,甚至担心在不确定的快节奏交战中失去控制, 将启动权限委托给其机器。 一旦发生这种情况,就几乎不可能阻止事态进一步升级。

那么问题来了:在这种情况下,机器会比人类做出更好的决定吗? 他们当然能够在短时间内处理大量信息,并以完全不带感情的方式权衡替代行动的利弊。 但机器也制造 军事失误 而且,最重要的是,他们缺乏反思情况并得出结论的能力:停止这种疯狂。 没有任何战斗优势值得全球人类歼灭。

正如保罗·沙尔所说 无人军团,一本关于人工智能和战争的新书,“人类并不完美,但他们可以同情对手,看到更大的图景。 与人类不同,自主武器无法理解其行为的后果,无法从战争边缘退后。”

因此,也许我们应该三思而后行,让未来的军事化版本的 Alexa 能够启动机器制造的世界末日。

Michael T. Klare,a TomDispatch 定期,是汉普郡学院(Hampshire College)和平与世界安全研究名誉学院的五位教授,也是军备控制协会的高级访问学者。 他最近的书是 什么是左翼的竞赛。 他的下一本书, 地狱般的松散:气候变化,全球混乱和美国国家安全 ,将于2019年出版。

(从重新发布 TomDispatch 经作者或代表的许可)
 
• 类别: 对外政策 •标签: AI, 美国军事 
隐藏3条评论发表评论
忽略评论者...跟随Endorsed Only
修剪评论?
    []
  1. 冷战 1.0 中我最喜欢的表达方式之一是“优雅降级”,例如“未来的 C2 应该有能力优雅降级(如果可能的话),并且能够快速重组以确保操作的连续性……” 下一步确实是将 C2 结构中最薄弱的节点——人类——排除在循环之外。

  2. Giuseppe 说:

    至少可以说,美国与中国或俄罗斯(或两者)之间的任何全面冲突都将异常激烈,可能有数百艘军舰和数千架飞机和装甲车都集中在密集的战场上。

    如果固定的防御工事是人类愚蠢的纪念碑,那么将人和物资集中在密集的战场上也是如此。 在我们的核未来,战争将从偏远地区和意想不到的方向袭击目标,平民人口中心将非常脆弱。

  3. Antiwar7 说:

    如果您想说服自己避免使用自主 AI 进行战争,请阅读 Philip K. Dick 的这个故事:

    https://en.wikipedia.org/wiki/Second_Variety

当前评论者
说:

发表评论-对超过两周的文章发表评论,将在质量和语气上进行更严格的判断


 记得 我的信息为什么?
 电子邮件回复我的评论
$
提交的评论已被许可给 Unz评论 并可以由后者自行决定在其他地方重新发布
在翻译模式下禁用评论
通过RSS订阅此评论主题 订阅所有Michael T. Klare通过RSS发表评论