乐鱼体育,LEYU乐鱼体育官方网站,乐鱼体育靠谱吗,乐鱼体育app,乐鱼体育官网
一是为军事情报侦察与分析提供智能支持。传统的情报侦察方式受到人力和时间等多重因素制约,难以有效应对大规模、高速度和高复杂度的情报处理需求。人工智能技术的引入,为情报侦察领域带来革新和突破。在军事基础设施中,应用人工智能技术,可构建智能监测系统,提供高精度实时的情报感知服务。在情报侦察领域,人工智能技术具备对多个“信息流”进行实时处理的能力,从而极大地提高分析效率。①通过使用深度学习等技术工具,还可以“透过现象看本质”,挖掘出各类碎片化情报信息中的深层脉络与因果联系,将海量碎片化数据快速转变为可以利用的情报,从而提升情报分析的质效。
二是为作战指挥与决策提供数据支持。人工智能在战场态势感知方面为作战指挥和军事决策提供有力支持。②其优势在于能够进行数据挖掘、数据融合以及预测分析等关键任务。在信息化智能化战争中,战场环境瞬息万变,情报信息量庞大,要求决策响应迅速且准确。因此,先进的计算机系统就成为协助指挥人员管理情报数据、进行敌情判断、提出作战方案建议以及拟制计划与命令的重要工具。以美军为例,美国雷神技术公司(Raytheon Technologies Corporation)研制的ISTAR(情报、监视、目标识别和跟踪)系统,涵盖了情报采集、监视、目标识别及跟踪功能,可汇聚来自卫星、舰船、飞机及地面站等多元信息源的数据,并对其进行深度分析与处理。这不仅显著提高了指挥官获取信息的速度,而且可借助智能分析系统提供数据支持,使决策更加快速、高效和精准。
三是为无人作战系统提供重要支撑。无人作战系统是一种无需人类直接操纵,便可独立完成军事任务的新型武器装备系统,主要包括智能化无人作战平台、智能化弹药和智能化作战指挥控制系统等组成部分,具备显著的自主性和智能化特征。无人作战系统,作为引领未来战争形态变革的技术装备,已成为国家间军事竞争的重要筹码。该系统通过运用自主导航、目标识别、路径规划等关键技术,实现了不同战场环境及作战空间的适应能力。借助深度学习、强化学习等先进算法,无人作战系统能够独立完成导航任务,并实现精准打击目标。这种系统的设计理念是“平台无人,系统有人”,其本质是对有人作战系统的智能化延伸。例如,美国国防部高级研究计划局(DARPA)研发的“MQM-57猎鹰者”无人机,就采用了先进的人工智能技术,具备高度自主的目标识别和追踪功能。
四是为军事后勤与装备保障提供技术支持。在信息化战争的背景下,战争进程加快、机动性提升、作战消耗显著增加。传统的“超量预储”保障模式已无法适应现代战场快速变化的需求,因此,对作战部队进行适时、适地、适需、适量的快速精确后装保障提出了更高的要求。人工智能作为一种具有溢出带动和交叉融合特性的技术,与物联网、大数据、云计算等前沿技术相互融合,使得人工智能知识群、技术群和产业群全面渗透到军事后装领域,显著提升了后勤装备保障能力。
一是制定战略规划。基于技术霸权追求军事霸权、政治霸权、经济霸权的战略偏执,美国正加快自身军事智能化进程。2023年11月,美国国防部发布《数据、分析与人工智能采用战略》,旨在扩展整个国防部体系的先进能力,以获得持久的军事决策优势。俄军颁布被称为“3.0版本”的《2024年至2033年俄罗斯武器装备发展纲要》,旨在为未来10年武器装备发展提供指导,纲要强调继续推进核武器和常规武器建设,并重点研究人工智能和机器人技术、高超音速武器和其他基于新物理原理的打击兵器。
二是研发先进装备系统。美军自2005年开始每隔几年都会发布一版“无人系统路线图”,以展望并设计空中、地面、水面/水下等各领域无人系统平台,贯通研发生产测试训练作战保障等无人化武器装备发展链路。目前,世界上已有70多个国家可以研发无人化系统平台,各种类型的无人机、无人车、无人船(艇)、无人潜航器如雨后春笋般不断出现。2024年7月15日,美军参联会前主席马克米利接受《美国防务新闻》采访时称,到2039年,三分之一的美军部队将由机器人组成。俄军研发的平台-M作战机器人、“柳叶刀”自杀式无人机和S70“猎人”重型无人机等,已投入实战检验。
三是创新未来作战概念。作战概念是对未来战争样式与作战方式进行的前瞻性研究,往往可牵引新的作战力量编组及武器装备跨越发展。美军近年来先后提出“分布式杀伤”“多域战”“马赛克战”等作战概念,试图引领军事变革的发展方向。以“马赛克战”为例,该作战概念将各种传感器、通信网络、指挥控制系统、武器平台等视为“马赛克碎片”,这些“碎片”单元在人工智能技术赋能支持下,通过网络信息系统可动态链接、自主规划、协同组合,从而形成一个按需集成、极具弹性、灵活机动的杀伤网。2022年3月,美国国防部发布《联合全域指挥控制(JADC2)战略实施计划》,该计划旨在将多域作战向全域作战概念拓展,将各军种传感器连接到一个统一“物联网”中,利用人工智能算法帮助改善作战指挥决策。③
在利比亚冲突中,交战双方采用多种型号无人机执行侦察和作战任务。据联合国利比亚问题专家小组发布的报告指出,土耳其制造的“卡古-2”(Kargu-2)无人机2020年在利比亚执行了“追捕并远程交战”行动,可自主攻击撤退中的敌方士兵。这一事件标志着致命性自主武器系统在实战中的首次运用。如美国学者扎卡里卡伦伯恩所述,若有人在此类自主攻击中不幸丧生,这极有可能是历史上首个已知的人工智能自主武器被用于杀戮的例子。在2020年纳卡冲突中,阿塞拜疆运用土耳其生产的“旗手”TB2无人机编队和以色列生产的“哈洛普”无人机成功突破了亚美尼亚防空系统,掌握了战场制空权和主动权。④ 阿塞拜疆军队无人机作战的显著成效,在很大程度上源于亚美尼亚军队的“轻敌”心态,对无人机在现代战争中的重要性和威胁性认识不足。其次,从进攻策略的角度来看,阿塞拜疆军队在无人机战法上进行了大胆的创新。他们灵活运用察打一体无人机和巡飞弹等先进装备,不仅提升了作战效率,也大大增强了战斗的突然性和致命性。⑤
在2022年爆发的乌克兰危机中,俄罗斯和乌克兰都广泛使用军用级和商用无人机执行侦察监视、火炮瞄准和打击任务。乌克兰军队通过使用“旗手”TB2无人机以及美国援助的“弹簧刀”系列自杀式无人机,实施精确打击和高效杀伤,成为令世界瞩目的“战场杀手”。在哈以冲突中,以色列军方被指控使用名为“薰衣草”(Lavender)的人工智能系统来识别并锁定加沙境内的轰炸目标,曾将多达3.7万名加沙巴勒斯坦人标记为“武装分子”嫌疑对象,并将其认定为可直接“暗杀”的目标,以军行动引发了国际社会广泛关注和谴责。⑥
一是各国纷纷抢抓“先行者优势”。当一个国家在智能武器系统开发领域取得技术领先地位时,意味着该国具备更高级的人工智能和相关应用能力,使其在武器系统开发、控制和应急响应等方面具有先发优势。这种优势包括更高的自主性、智能化程度和自适应能力,从而增加了该国的军事实力和战略竞争优势。与此同时,先行者的军事优势可能会成为竞争对手的安全威胁,导致各国在先进技术的军事应用上呈现出你争我赶的态势。⑦ 2023年8月,美国国防部副部长凯瑟琳希克斯宣布了“复制者计划”(Replicator initiative),该倡议力求在不到两年的时间内在印太地区部署数千个“自主武器系统”。⑧
二是各国人工智能军备建设的不透明性可能加剧军备竞赛。这主要有两个方面的原因:一是人工智能技术是一种可用于设计多种应用的“使能技术”,这意味着人工智能军事应用具体情况核查难度较高,难以像核武器可以通过对铀、离心机以及武器和运载系统的监测来判断一个国家是否在进行核武器的开发或部署。半自主、完全自主武器系统之间的差别主要是由于计算机软件算法不同导致的,很难通过物理核查手段来对各国的条约执行情况进行核查。二是各国为了保持己方的战略优势,往往对先进技术的军事应用相关细节采取保密措施,从而使对手无法探知其战略意图。在当前国际环境中,这种不透明性不仅仅加剧了军备竞赛,更为未来冲突升级埋下了伏笔。
三是各国战略意图的不确定性也会加剧军备竞赛。人工智能对于战略稳定、核威慑和战争升级的影响,很大程度上取决于他国对于其能力的感知,而非其实质能力。正如美国学者托马斯谢林指出,国际关系常常具有风险竞争的特征,更多的是对勇气而不是武力的考验,主要对手之间的关系是由哪一方最终愿意投入更大的力量,或者使之看起来即将投入更大的力量来决定的。⑨ 一个行为体对于他者能力的感知,无论真假,都会在很大程度上影响军备竞赛进程。如果一个国家大力发展智能武器系统,竞争对手在不确定对方意图的情况下,会对竞争对手的军备能力及发展军备的意图产生猜忌,往往采取对等措施,即通过发展军备来满足自身安全需求。正是这种意图的模糊性刺激了技术积累,加剧武器部署的不稳定性,最终导致恶性循环。
一是以“机器速度”爆发的战争将增加仓促行动的风险。人工智能武器系统在精确度和反应速度上表现出强大的能力,使得未来战争将以“机器速度”爆发。⑩ 但战争速度过快也将升高冲突风险。在导弹防御、自主武器系统和网络空间等重视自主性以及反应速度的领域,更快的反应速度将带来巨大的战略优势,同时也极大地压缩了防御方对军事行动作出反应的时间窗口,导致作战指挥员和决策者置身于巨大的“时间压力”之下,加剧了“仓促行动”的风险,并增加了危机意外升级的可能性。
二是依赖系统自主性可能增加压力下的误判几率。美国国防部认为,“高度自主化的人工智能系统,能够根据任务参数的动态变化,自主选择并执行相应操作,高效实现人类预设的目标。自主性的增加不仅大幅减少了对人力的依赖,提高了整体操作效率,更被国防规划者视为保持战术领先、确保战场优势的关键要素。”⑪ 然而,由于人类指挥官无法作出足够快的反应,可能逐渐将控制权下放给自主系统,增加误判几率。2003年3月,美国“爱国者”导弹系统曾错误地将友军的“龙卷风”战斗机标记为反辐射导弹,指挥人员在只有几秒钟反应时间的压力状态下,选择发射导弹,造成了两名飞行员的死亡。⑫
一是人工智能“黑箱”问题。尽管人工智能在处理和分析数据方面有着显著优势,但是其内部运行规律和因果逻辑却常常难以被人类理解和解释,这使得程序员难以对错误算法进行纠偏除误,这一问题常常被称为算法模型的“黑箱”。一旦人工智能武器系统产生安全危害,“算法黑箱”可能成为相关责任方推卸责任的合理化借口,追责者只能面临泛化的卸责与推诿,并将责任矛头指向人工智能武器系统。在实践中,如果无法理解并解释人工智能的决策过程,可能会引发一系列的问题,如决策失误、信任危机、信息滥用等。
二是军事行动中人机责任划分问题。当人工智能系统出现故障或者决策失误时,是否应将其视为一种独立的实体来承担责任?或者,是否应该将其视为一种工具,由人类操作者承担全部或部分责任?这种责任划分的复杂性不仅在于技术层面,更在于伦理和法律层面。一方面,人工智能系统虽然能够自主决策,但其决策过程仍然受到人类预设的程序和算法限制,因此其责任不能完全独立于人类。另一方面,人工智能系统在某些情况下可能会超越人类的预设范围,作出独立的决策,此时其责任又该如何界定,也成为军控领域的难题。
三是人与人工智能武器系统的决策权分配问题。按照机器自主权限的不同,人工智能系统能够以半自主、有监督式自主以及完全自主三种决策与控制方式执行任务。在半自主系统中,行动的决策权由人类掌控;在有监督式自主行动中,人类实施监督并在必要时干预;在完全自主行动中,人类不参与行动过程。随着人工智能军事应用程度的逐渐加深,人在作战系统中的角色正经历由传统的“人在回路内”模式逐步向“人在回路上”转变,人类从系统内部的直接操控者演化为系统外部的监督者。然而,这一转变也引发了新的问题。如何确保人工智能武器系统在独立运作时仍能遵循人类伦理和价值观,这是当前人工智能武器研发领域面临的重大挑战。
传统的战略竞争通常涉及大规模的武器系统研发和采购,需要大量资金和技术支持。人工智能技术成熟扩散后,具有易获取且价格低廉等优势,即便是中小国家也可能具备开发先进智能武器系统的能力。当前,军用人工智能领域的战略竞争主要集中在美俄等军事大国之间。但长远来看,人工智能技术的扩散将扩大战略竞争的范围,对现有的战略平衡构成破坏性威胁。一旦掌握人工智能技术的较小规模国家拥有相对较强的竞争力,这些国家在面临大国威胁时发起对抗的意愿可能就会增强。
一是人工智能有助于发展一些轻便灵巧的作战手段,从而鼓励一些中小国家或者非国家行为体利用其开展小型的、机会主义的军事冒险,以更低廉的成本和更丰富的途径来达到其战略目地。二是人工智能的快速发展使得网络战、电子战等新型战争形态日益凸显。在竞争激烈的战场环境中,恶意的第三方行为体可以通过操纵信息来影响军事规划和战略威慑,导致局势升级。在2022年爆发的乌克兰危机中,就有众多网络虚假信息传播混淆视听。三是人工智能技术的广泛应用还降低了战略透明度。传统的军事战略往往依赖于大量的情报收集、分析和预测,而在人工智能技术的辅助下,作战计划和决策过程变得更加复杂和难以预测。这种不透明性可能导致误解和误判,从而增加了冲突升级的风险。
另一方面,推动各国政府通过官方或半官方对话,达成相关协议,建立战略互信。相较于政府层面的“1轨对线轨对话”指的是政府官员与民间人士共同参与的对线轨对话”则是由学者、退休官员等进行的民间非官方形式的对话。这两种对话形式具有更高的灵活性,是政府间官方对话的重要补充和辅助手段。通过多样化的对话交流方式,官方和民间人士可以广泛磋商军备控制的可能实现路径,分享经验和专业知识,以避免军备竞赛的升级和紧张局势的恶化。这些对话机制将为各国提供持续的沟通与合作平台,有助于增进相互理解、加强战略互信,共同应对人工智能军事化应用带来的挑战。
一方面,要坚持伦理先行,从技术源头上融入“智能向善”的理念。在人工智能军事系统的设计过程中,将以人为本、智能向善等价值观内嵌于系统中。其目的是从源头上杜绝人工智能可能引发的滥杀滥伤行为,控制其过度杀伤力,防范意外毁伤的发生,从而将人工智能武器系统所带来的毁伤程度限制在尽可能小的范围内。目前,国内外已有近百家机构或政府部门发布各类人工智能伦理原则文件,学术界和产业界亦就人工智能基本伦理原则达成共识。2022年,中国向联合国递交的《关于加强人工智能伦理治理的立场文件》为全球人工智能伦理监管的发展提供了重要参考。文件明确强调,应通过制度建设、风险管控、协同共治等多方面的措施来推进人工智能伦理监管。
@HASHKFK