AI技术助力五角大楼提升‘杀伤链’效率
AI导读:
AI技术正被五角大楼用于提升‘杀伤链’效率,包括识别、跟踪和评估威胁等方面。尽管目前AI工具尚未被用作武器,但已展现出重大优势。然而,在‘杀伤链’中使用AI技术仍面临一些政策和伦理挑战。
自人工智能(AI)技术风靡全球以来,其影响力已深入到我们日常生活的每一个角落。OpenAI和Anthropic等AI领域的佼佼者,正积极向美国军方推销其软件,旨在提升五角大楼的运作效率,同时确保AI技术不会被用于‘直接杀人’的用途。
五角大楼首席数字和人工智能官Radha Plumb博士在最近的一次访谈中透露,尽管目前他们的AI工具尚未被用作武器,但AI在识别、跟踪和评估潜在威胁方面,已经为国防部带来了‘重大优势’。她强调,AI技术的应用显著增强了五角大楼在‘杀伤链’执行过程中的效率,使指挥官能够在关键时刻迅速做出反应,有效保护部队安全。
‘杀伤链’这一军事术语,如今在网络安全领域也得到了广泛应用。它详细描述了攻击从发起至结束的各个阶段,有助于更好地理解和防御网络攻击。整个过程包括发现、定位、跟踪、瞄准、交战与评估六个环节,构成了一个由传感器、平台和武器组成的复杂系统,展现出军队的冷酷与高效。然而,这一过程对信息系统的依赖程度极高,任何环节的失误都可能导致严重后果。
Plumb博士进一步指出,在‘杀伤链’的规划和战略制定阶段,生成式人工智能(Generative AI)展现出了巨大的潜力。这一技术的应用,不仅提高了规划效率,还为指挥官提供了更多创造性的应对策略。
近年来,五角大楼与AI开发者之间的关系日益紧密。2024年,OpenAI、Anthropic和Meta等AI巨头调整了使用政策,允许美国情报和国防机构使用其AI系统。然而,这些公司仍坚持AI不得伤害人类的原则。
当被问及五角大楼如何与AI模型提供商合作时,Plumb博士表示,他们已明确界定了在何种情况下会使用AI技术,以及在何种情况下不会使用。她强调,五角大楼对AI技术的使用始终遵循负责任的原则。
随着生成式AI在五角大楼的实用性得到验证,未来可能会推动硅谷放宽其AI使用政策,允许更多的军事应用。Plumb博士认为,AI技术可以使指挥官充分利用各种工具,创造性地思考不同应对方案,以及在应对潜在威胁时可能出现的取舍。
然而,目前尚不清楚五角大楼在‘杀伤链’中使用了哪家公司的AI技术。事实上,在‘杀伤链’中使用生成式AI(即使是在早期规划阶段)似乎违反了多家领先AI模型开发商的使用政策。例如,Anthropic的政策明确禁止使用其模型生产或修改旨在对人类生命造成伤害或损失的系统。
对此,Anthropic首席执行官Dario Amodei表示,他们坚决反对在国防和情报领域无限制地使用AI技术。他认为,寻求中间立场,以负责任的方式行事是至关重要的。同时,Plumb博士也指出,自动化系统独立做出生死决定的想法过于简单化和二元化。她认为,五角大楼对AI系统的使用实际上是人与机器之间的紧密合作,高级领导人在整个过程中都在积极参与决策。
(文章来源:财联社)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。