关于军事情报的哲学思考

时间:2019-01-07 10:15:45 来源:新凤凰彩票网 作者:匿名

[讲武堂] 作者:袁毅(军事科学院设计学院战争博士后博士后) 中国共产党第十九次全国代表大会的报告指出,加快军事情报的发展,提高基于网络信息系统的联合作战能力和全球作战能力,有效塑造形势,控制危机,遏制战争,赢得了战争。 2017年7月,国务院发布实施《新一代人工智能发展规划》,建议加强新一代人工智能技术,支持指挥决策,军事演习,防御装备等,用人工智能提升国防实力,维护和维护国家安全。可以预见,军事情报作为新一轮军事变革的核心推动力,将深刻改变未来战争的制胜机制,权力结构和运作方式。军事情报的迅速发展不仅对军事发展战略,装备体系,组织形式和作战理论产生广泛而全面的影响,而且对人民的战争观产生重大影响。 明亮的图片/视觉中国 个人资料图片 第20届北京科技博览会的各种智能机器人在展会上成为了一个美丽的场景。图为中型爆炸机器人。明亮的图片/视觉中国 1.在未来战争中发挥决定性作用的方式将发生巨大变化。 毛泽东认为:“武器是战争的重要因素,但它们不是决定因素。决定因素是人不是东西。”在未来的智能战争中,这样的断言会过时吗?当大量高智能自主武器直接参与战场时,人们的主观立场是否会在战争中发生变化?人的角色是否仍具有决定性作用?需要辩证地看待这些问题。 在未来的战争中,主观倡议不再是人类专利,智能武器也具有“有限的主观能动性”。人类主动性与无机物质,有机生物和高等动物的主动性不同,被称为主观主动性。它的特点是思想和实践的结合,有意识地,有目的地和系统地对客观世界作出反应。智能武器的出现和发展使得武器具有人类赋予的“有限的主观能动性”。这是武器发展史上的质的飞跃。在未来的战争中,武器也具有人们提前给予的“灵性”,它们不再是冷酷的机器。但这不会改变人们在未来战争中的决定性作用。战争中思想,计划,战略,战术等的形成和呈现正是人们主观能动机所擅长的。长期以来,智能武器的“有限主观能动性”无法与人类的主观能动性相提并论。在大多数情况下,后者不能取代前者。正如自动步枪从未自动发射一样,智能无人战争并非不受影响,但“没有平台,没有人,没有前线,没有人在后方,没有人可以行动,没有人可以指责。”在许多情况下,人们仍然是不可替代的,特别是停止和停止的“政治和军事瘫痪”。人们更需要仔细掌握停止的时间,战争的规模和强度。随着未来强大的人工智能技术的突破,智能武器的“有限主观能动性”必将得到进一步提升,但是依附于人民,服从人民的情况不会从根本上改变,更加不可能。从“人类指挥枪”改为“枪支指挥官”。 当然,我们应该看到人们在未来战争中发挥决定性作用的方式将发生巨大变化。随着战争形式继续演进到高级阶段,对人民的战争要求主要是从体力到技能,最后到智力。在未来的战争中,人们进一步在幕后撤退来控制战争,最大限度地减少人们的生理和技术要求,而人类的智慧已成为战争的关键。除了在战争的实施中表现出来之外,人类的决定性作用将更多地体现在设计战争中。人类在战争中的角色已从战争执行者变为战争设计者。人类战争思想更多地以软件和数据的形式实现为智能武器。在战争中,智能武器用于实现人的操作意图并实现预期的操作目标。随着大量智能武器的出现,手段和手段的结合,效率和效率将大大改变。人与武器的结合从直接操作转变为间接操作,其操纵模式将按人类直接操作模式,人工辅助模式,人工授权模式,混合主动模式,完全自主模式和机器的顺序逐步升级。自适应模式。除了手动控制,人们还使用各种方法,如触觉,语音识别和脑机接口来控制武器。特别是随着“脑控技术”的发展,脑波武器的直接控制将成为现实。人类对武器的控制将从传统的“脑神经手武器”简化为“脑力武器”。2.在未来的战争中,暴力并不表现在杀戮中,但暴力不会改变。 通过消灭敌军和敌人的作战系统,正在改变未来智能战的制胜机制和作战思想。从军事哲学来看,这会改变战争的暴力吗?未来的战争是否会走向“公民化”?需要对这些问题进行具体分析。 可以肯定地回答未来战争的暴力不会改变。无论战争形式发生多大变化,战争仍然是一场血腥的政治,政治团体之间暴力对抗的性质并没有改变。暴力对抗是战争的定性规范性质。战争与其他事物不同,这是基本特征。如果你失去了这一点,就不会被称为战争。有些人认为未来战争的暴力将会改变的原因是许多人将暴力等同于杀戮,并认为未来战争中的杀戮减少了,战争的暴力自然也消失了。克劳塞维茨认为:“由于战争是一种迫使对方服从我们意志的暴力行为,它所追求的必须始终只能击败敌人,也就是让敌人无法抗拒。”在传统的战争中,人们通常与武器紧密结合,人们在战斗。在不摧毁敌人的情况下,敌军不会失去战斗力。因此,只有当人们被淘汰时,敌人才会失去抵抗意志并能够服从他们的意志。从这个意义上说,暴力确实是杀戮的同义词。 但在未来的战争中,暴力不一定要通过杀戮来实现。暴力并不意味着杀戮。原因有两个:第一,人与武器的分离。一旦智能武器作为人类“替代品”被淘汰,如果下一方不放弃抵抗,它将被另一方的智能武器消灭。通过在不破坏敌人肉体的情况下摧毁敌人的武器,可以实现使敌人无法抗拒的目标。第二是非致命武器的增加。随着武器动力控制技术的发展和新机制和新概念武器的出现,越来越多的手段让敌人失去抵抗和抵抗意志,选择非致命手段来达到战争目的是很方便的。 “摧毁敌人,拯救自己”是战争的直接目的。在未来的战争中,消灭敌人与保护自己之间的矛盾关系将有新的变化。在以前的战争中,摧毁敌人和保护自己是相互前提的。如果你想拯救自己,你必须摧毁敌人,但要摧毁敌人,你必须主动攻击,而且很容易暴露自己,很难拯救自己。过分强调保持自己实施消极防御,被动和不活动,很难摧毁敌人,最终会被敌人摧毁。智能武器的出现解决了过去摧毁敌人,保护自己的战争中最令人困惑的矛盾。这个人可以远程指挥机器人在后方作战,并且可以在完全拯救自己的同时有效地摧毁敌人。而且,摧毁敌人的内涵也在发生变化。在传统的战争中,由于人和武器在物理空间紧密结合,很难避免通过解除敌人的武装来伤害敌人的身体。正如拿破仑所说:“我只看到一点,就是一大群敌人。我正试图摧毁他们,因为我相信只要军队被消灭,其他一切都会崩溃。”因此,解除敌人的武装不能伤害敌人的肉体,摧毁敌人可以更加强调消灭敌人的武器而不是敌人的肉体。3,机器人的出现,可能会产生一套新的战争规则 未来,强大的人工智能驱动的高智能武器的出现将导致人们重新思考“人性”的经典哲学问题。马克思曾经说过,人的本质是所有社会关系的总和。人类是从猿类进化而来的动物,它们可以制造和使用工具来使用语言进行交流。不难看出人们是社会性和自然的统一。截至目前,人是人,机器人是机器人,它们之间的界限非常明确。但自21世纪初以来,情况发生了变化。一位以色列学者在他的书《从动物到神:人类简史》中说,现代技术的惊人成就将“首次改变40亿年的进化过程。直到今天,生物进化依赖于自然选择的缓慢过程。但是从21 At本世纪初,进化将受到人类的影响,因为人类已经开始创造和操纵生命。“ 在未来的战争中,一方面,人类将使用遗传改良,外骨骼系统,脑机接口,药物增强和其他技术手段来创造具有远远超出普通人类能力的“超级士兵”;另一方面,人造机器人不断模仿人,智能与人类之间的差距在缩小,未来的人形仿生机器人不仅相似而且相似。在这两个因素的共同作用下,生物和非生物体,人和机器人之间的界限越来越模糊。 很难从人类的自然本性来判断人和机器人。类人机器人与普通人之间可能没有区别。从人体的内部结构来看,未来纳米技术制造的人工心脏,人工肺,人工肝和人工关节等各种人工器官可以取代人体的大部分器官。为了更好地模仿人,人形机器人也可以使用人造肌肉甚至人造器官来制造身体。人类可以自我复制的特征仍然可以作为区分人类和机器人的明确标准。然而,随着3D打印的兴起,未来的智能机器人可以使用这种技术“自我复制”并创建自己的复制品。或“进化”一个更先进的“后代”,以获得自然生物过去的进化能力。功能结构中人与机器人之间日益模糊和密切的关系使得人性不可能构成判断人和机器人的可靠标准。根据他们的社交性来判断人和机器人也是极其困难的。人们可以用语言交流。人们有思想,意志和情感。人们使用劳动力来生产和分割劳动力并在社会组织中工作。人们具有团队精神和合作意识。从哲学上讲,正是人类的这些社会特征构成了人类与动物和机器人之间的本质区别。然而,随着智能的发展,智能机器人可能逐渐具备这些特征。当人类完成其器官功能的扩展,如手,脚,眼睛和耳朵,并尝试扩展和扩展人类大脑的功能,以完成人类模仿自己的“最后一块拼图”,人类曾遇到过最先进的工具——计算机挑战,这可以说是人类面临的最大挑战。在20世纪50年代,英国科学家图灵预言:“机器也可以思考。” Go是人工智能的试金石。当阿尔法狗击败人类国际象棋选手时,围棋大师不得不佩服计算机更接近Go之神。人工智能发展的里程碑事件表明,计算机正在迅速赶上人类的智能,人类智能水平的自然演变远远落后于计算机进化的速度。从某种意义上说,人类的科学技术革命最终可能是人类的死亡。 到目前为止,人类与机器人之间存在着重要的差异,即人们无法永远活着。在医学不发达的时代,人类死亡是身体死亡与脑死亡的统一。随着现代医学的进步,人们现在可能脑死亡,但身体并没有死亡,即处于“植物人状态”。随着认知神经科学的发展,人们的实时思维状态和记忆信息可以像数据文件一样被读取和下载,并且可以随时传输到另一个人脑或超级计算机,从而使人体消散。但是,思维意识仍然存在。虽然人类作为自然人死亡,但他们将接受作为社会人的“永生”现象。人类也可以随时使用3D打印技术打印出自己的身体,或者使用克隆技术复制与原始人完全相同的人,然后将他们的“思想文件”下载到新的身体中,从而实现身体到精神的“重生”。可以预见,在不久的将来,如何确定人类个体的存在以及如何界定人类死亡将成为一个困难的哲学问题。总之,在未来的战争中,如果不可能从哲学层面对人形机器人,人类或机器人做出基本判断,那么在目标性质的问题上,对战俘的处理,对战争罪等的判断,了解被处理的对象是否是人类是纠缠在一起并且不知所措。如果人形机器人被认为是与自然人和机器人不同的第三种类型的机器人,那么人机复合体必须具有一套道德和道德规则和战争规则。 《光明日报》(2018年6月23日?07版) [主编:孙曼涛]
地址:湖北省武汉市青山区工业路3号 邮编:430623 总机电话:027-68623623
copyleft © 2018 - 2019 新凤凰彩票网( www.monthlyboxers.com) @版权所有 2018 鄂ICP备05006231-1 鄂公网安备62310623623623号