训练生成式人工智能在军事应用中的风险分析 (训练营如何生成假人)
数据安全和隐私风险
生成式人工智能需要大量数据进行训练和生成结果。利用该技术需要积极收集和处理国防领域相关的数据,以提供给生成式人工智能系统进行训练和应用。在收集和输入的过程中,存在数据泄露和数据真实性两大关键风险。数据泄露
生成式人工智能训练所需的大量数据可能包含敏感的军事信息,如作战计划、部队部署和武器系统设计。这些数据一旦泄露,可能会对国家安全构成重大威胁。攻击者可以利用这些信息发动网络攻击、进行军事欺骗或破坏军事行动。数据真实性
生成式人工智能可以创建逼真的虚假数据,包括文本、图像和视频。这些虚假数据可能会误导决策者和作战人员,导致错误的行动和不良后果。例如,生成式人工智能可以创建虚假的作战报告或伪造的敌军部署信息,从而扰乱军事行动。安全隐患和隐私泄露
在军事机密网络信息安全方面,生成式人工智能有能力生成模拟的攻击模型和攻击策略。 网络攻击代码生成 ChatGPT等大型语言模型可用于对特定的目标生成网络攻击代码,包括关键的国家基础设施、军事设施和政府机构。攻击者可以使用这些攻击代码来攻击军事系统、窃取敏感数据或破坏关键基础设施。 情报泄露 生成式人工智能还可以解密通信、情报数据、讲话和图像,增强攻击者的能力并危及通信安全,同时增加情报泄露的风险。这些能力对军事安全构成重大风险,因为它使恶意行为者能够获得攻击军事基地或关键基础设施的建议。 隐私侵犯 在军事人员隐私和安全方面,大型模型可以分析和解析个人数据和照片,以获取大量敏感信息,包括个人身份、位置和移动轨迹。这些信息可被用来跟踪、追踪和监视军事人员,从而导致隐私侵犯和人身安全威胁。先进的生成式人工智能技术可以通过生成真实的假人和虚假信息来欺骗和提取高级军官和高级官员的敏感数据,从而带来军事安全风险。应对措施
鉴于生成式人工智能的训练和应用可能涉及到敏感信息和技术,因此,国防部门可能要采取措施来确保相关的安全和隐私保护。他们可能需要制定相关政策和规定,以确保生成式人工智能系统的使用符合法律和道德标准。 五角大楼已敦促部队不要将政府信息输入公共访问模型。2023年9月,美国太空部队暂停了在政府电脑上使用基于网络的生成人工智能工具,包括大型语言模型。拜登政府也发布了行政令,命令制定国家安全备忘录,以指导人工智能和安全方面的进一步行动。数据集的真实可靠性
生成式人工智能模型可能会无意中纳入来自其训练集的错误数据。虚假情报数据的产生和传播对军事安全构成重大威胁。包括创建一些关于军事战略目标、部队位置和行动计划方面的虚假信息,制作一些虚假的图像、视频和文本,用于冒充和军事欺骗。如果指挥官依赖这些基于虚假情报做出的评估和决策,就会导致错误的行动和不良后果。 美国国防部已明确表示不信任目前市场上的商业产品,因为这些产品已经暴露出问题,它们时而会产生机器幻觉并提供一些不准确的信息。美国国防部将基于国防部自己的数据,使用这些大型语言模型,进行定制,根据数据进行训练,以获得加密效果,从根本上分析它的反馈,尽可能地获取真实可掌控的数据训练的模型。结论
生成式人工智能在军事应用中具有巨大的潜力,但也存在现实的风险,包括数据安全、隐私泄露、安全隐患和虚假数据传播。国防部门需要采取措施来解决这些风险,以确保生成式人工智能的负责任和有效的应用。人工智能在军事领域发展如何?
直到今天人工智能才开始在军事应用领域受到高度关注,才有了更好的发展。纵观人类军事史,我们发现,在新的技术突破与军事应用之间往往存在一个时间差,这主要受制于科技创新的成熟度与应用对象的接受度,人工智能技术也是如此。
近年来,以军用无人机为代表的智能武器系统获得了长足的发展,日渐成为战场上一支不可忽视的重要力量。许多人还记得,2015年4月,美军一架X-47B验证机与一架K-707加油机会合,成功地完成了自主空中加油,开创了无人驾驶飞机自主实现空中加油的新纪元。
石海明指出:“目前,在军用无人机及大数据信息处理等方面,人工智能的应用有明显的进展,有可能替代人类的部分工作。就未来而言,伴随着仿脑芯片、人机交互技术、脑机接口技术等领域的突破,可能会带来真正的革命性进展。”
“但我们必须注意到,其实人工智能技术并不是一种单纯的传统技术,它事实上是一种‘群技术’,有泛在性、赋能性及抵消性三个主要特征。这些使其区别于其他技术的特征,使它在某些方面的应用呈现出较好的前景。比如,在小卫星快速发射组网技术、无人机蜂群技术及智能化系统监测技术等领域。”石海明表示。
X-47B验证机与K-707空中加油机进行自主空中加油试验
军事观察
石海明认为:“着眼未来,人工智能对未来军事的革命性影响主要体现在三个方面,即逆转‘攻易防难’态势,重构‘全域作战’空间及引发‘战争伦理’困境。作为一个桥梁,人工智能将在加快军事体系智能化的同时,在遥远的未来,也许会像一些科幻电影中描绘的那样,使后人类战争从科幻变成现实。目前,已经出现了一些趋势性端倪。”
实际上,在如《终结者》《黑客帝国》《我,机器人》等经典科幻电影中,人工智能往往作为反面角色出现,并在很大程度上给人类带来极大危害。已经有各界人士表达了类似担忧。特斯拉、SpaceX首席执行官埃隆·马斯克在最近一次发言中表示,防止人工智能毁灭人类的可能性只有5%—10%。而此前,著名天体物理学家霍金也指出,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器很难被阻止住。
“确实,对人工智能的军事应用,还有一些误解或核心问题需要深入认真研究。比如,人工智能是否会超越人类?人工智能何时取代人类?人工智能是否会威胁人类的生存?……”石海明表示,“这些所谓的‘困惑’经常被公众、媒体及哲学爱好者等拿来‘深思’,这有一定的益处,也是必须的。同时我们也要看到,目前担心人工智能超越人类还比较遥远。人工智能最早的开山鼻祖之一的明斯基就说过这样一句话,‘智能的诀窍就是没有诀窍’,用科学的手段揭开智能的秘密,还有很长的路要走。所以,人工智能脱离人类控制,目前主要讨论的还是从科技伦理角度而不是现实威胁角度而言的。”
人工智能在军事领域的最新应用
一、美、俄高度重视人工智能(AI)为军事装备赋能
美国将人工智能战略作为美国国防战略的一部分,并明确指出:未来人工智能“将改变社会,最终改变战争的性质”。俄罗斯也非常重视人工智能技术发展,俄罗斯发布的《2030年前国家人工智能发展战略》给出了如下定义:“人工智能是一套能够模仿人类认知功能(包括自我学习和没有预定算法的方案搜索)的技术解决方案,在执行特定任务时获得至少与人类智力相当的结果”。数字计算的优势是快速和准确地处理大量数据,这和人工智能技术应用有很好的契合度。正是由于需要在短时间内分析处理大量的结构化和非结构化数据(所谓的“大数据”),这是军事领域开发各种具有人工智能能力的军事系统的最重要原因之一。军事部门应用人工智能技术的另一个原因是作战部队需要提升军事上的目标搜索和探测、武器制导、情报侦察等自动化水平,因此,部队作战相关的功能系统均通过装备专门的计算模块,为人工智能的应用提供数据和计算资源。
二、人工智能在核武器系统中的应用
俄罗斯专家指出,核武器在维护全球地缘政治方面发挥着关键作用,智能计算处理系统能够快速而准确地处理传入的数据,决策者依靠人工智能来避免对作战形势分析的误判,并提高作战部队组织使用战略武器(包括核武器)的速度。
同时,许多研究结论表明,在使用核武器方面,人工智能系统并不完全值得信任。这些科学论文的结论表明,如果人工智能系统能够发现有机会获得优势,系统有可能决定使用精确制导武器和核武器对敌方目标发动先发制人的全球性或局部打击。兰德公司的一项研究强调了使用人工智能做出战略军事决策的危险性,因为由人工智能驱动的系统缺乏批判性思维,而且有明显的对抗性倾向。
但需要指出的是,美国部分专家有一种相反的观点。例如,有人提议创建一个基于人工智能对俄罗斯的核攻击自动反应系统,西方称之为“死亡之手”。这样的系统会以报复性后果警告潜在的对手不要先发制人使用核武器。西方的军事思想通常采取对敌方领土进行打击,以实现对自身的有效防御。在任何情况下,为了确保俄罗斯联邦的安全,需要使用人工智能成为分析动态变化的地缘政治和军事环境的工具,以辅助支撑决策者做出最终决定。
免责声明:本文转载或采集自网络,版权归原作者所有。本网站刊发此文旨在传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及版权、内容等问题,请联系本网,我们将在第一时间删除。同时,本网站不对所刊发内容的准确性、真实性、完整性、及时性、原创性等进行保证,请读者仅作参考,并请自行核实相关内容。对于因使用或依赖本文内容所产生的任何直接或间接损失,本网站不承担任何责任。