发布日期:2025-04-14 15:19 点击次数:102
从某种意义上说,OpenAI 和 Anthropic 等知名人工智能公司正在应对不同寻常的市场形势。它们为美国军方提供先进的软件解决方案,但随之而来的是技术挑战:如何提高五角大楼的作战效率,同时确保其人工智能系统不会直接导致致命行动?
目前,人工智能还未被部署为武器,但它正在显著增强美国国防部识别、监控和评估潜在威胁的能力。五角大楼首席数字和人工智能官拉达·普拉姆博士在接受TechCrunch采访时强调,这些由人工智能驱动的进步在威胁评估和响应方面提供了巨大的战略优势。
普拉姆布表示:“我们显然正在增加加快杀伤链执行的方法,以便我们的指挥官能够及时做出反应,保护我们的部队。”
决策周期通常被称为“杀伤链”,涉及一个由传感器、侦察工具和作战平台组成的多层系统,用于识别、跟踪和消除威胁。事实证明,生成式人工智能是这一过程初始阶段的变革者,可为规划和运营战略提供支持。
五角大楼与人工智能技术提供商之间的合作是一个相对较新的发展。2024 年,OpenAI、Anthropic 和 Meta 调整了政策,允许美国国防和情报机构将人工智能纳入其工作流程,尽管严格禁止将该技术用于直接致命应用。
普拉姆强调,五角大楼在定义如何使用这些人工智能模型方面非常透明,并指出,军方与人工智能公司的合作已迅速演变为国防合同的竞争舞台。这导致了高调的合作:Meta 与洛克希德马丁和博思艾伦联手,将其 Llama 人工智能模型整合到国防应用中,而 Anthropic 则与 Palantir 合作。同样,OpenAI 与 Anduril 结盟,Cohere 则低调地与 Palantir 开展项目。
随着人工智能在军事应用中证明其战略价值,科技行业可能会重新考虑其在国防相关部署方面的道德立场。普拉姆强调,生成式人工智能有助于复杂场景建模,使军事领导人能够分析各种响应选项并评估高风险环境中的权衡。
五角大楼采用的具体人工智能技术仍未披露,这引发了人们对其是否遵守使用政策的质疑。例如,Anthropic 的指导方针明确禁止部署人工智能来开发或修改旨在造成伤害的系统。作为回应,Anthropic 的首席执行官达里奥·阿莫迪 (Dario Amodei) 为该公司的国防合作辩护,他认为,虽然在军事环境中不受限制地部署人工智能是不明智的,但完全阻止人工智能用于国防应用也同样存在问题。他主张采取负责任的中间立场。
自主军事系统中的人工智能
关于人工智能在自主军事系统中的作用以及人工智能驱动的武器
是否应该具有做出生死决定的能力,一场更广泛的争论正在展开。一些专家认为,完全自主的武器已经在使用中。例如,Anduril 首席执行官帕尔默·卢基 (Palmer Luckey) 指出,美国军方长期以来一直在运行自主防御系统,例如近距武器系统 (CIWS),它可以在最少的人为干预下应对威胁。
尽管取得了这些进步,但普拉姆否认五角大楼部署了完全自主的武器系统,没有人类监督的说法。她重申,出于道德和可靠性的原因,人类决策者仍然是这一过程不可或缺的一部分。
“自主”一词仍然存在争议,引发了整个行业关于何时自动化过渡到完全独立的争论。普拉姆澄清说,五角大楼的人工智能系统在人机协作框架内运行,指挥官掌握着对关键决策的权力。
“出于可靠性和道德方面的考虑,我们总是会让人类参与使用武力的决策,包括我们的武器系统,”普拉姆布解释道,反驳了将人工智能驱动的战争视为纯粹科幻小说的看法。
人工智能在国防领域的伦理和市场影响
军方与人工智能公司的结盟经常招致员工和倡导团体的批评。尽管过去的抗议活动针对的是军事合作,例如谷歌和亚马逊与以色列的 Nimbus 项目合同,但人工智能行业对五角大楼的最新行动反应相对平淡。一些人工智能研究人员,包括 Anthropic 的 Evan Hubinger,认为军事人工智能的采用是不可避免的,直接参与对于确保负责任的部署至关重要。
人工智能与国防战略的融合也推动了军事市场的转型。国防承包商和人工智能公司日益融合,在人工智能驱动的军事应用中创造了新的收入来源。关键技术考虑因素包括实时数据处理能力、自主决策支持系统和人工智能增强型监视工具。这些技术可以实现快速威胁检测、预测分析和优化资源分配,使人工智能成为现代国防基础设施不可或缺的一部分。
人工智能驱动的网络安全、物流自动化和自主侦察系统的进步将继续重新定义现代战争。对人工智能的日益依赖也可能导致监管变化,各国政府将出台严格的军事人工智能道德和行动界限指导方针。此外,随着全球国防机构加速采用人工智能,人工智能国防市场的竞争预计将加剧,促使科技公司在创新与道德责任之间取得平衡。
