五角大楼AI合作:提升军事效率,坚守伦理底线

随着人工智能技术的飞速进步,OpenAI、Anthropic等顶尖AI企业正积极寻求与美军合作,旨在提升五角大楼的运作效率,同时确保AI技术不会被用于制造致命武器。五角大楼的首席数字与AI官Dr. Radha Plumb在接受TechCrunch采访时指出,目前AI尚未被用于武器制造,但已在威胁识别、跟踪和评估等方面为国防部带来了显著优势。

在中心位置,展示了一幅由AI生成的图像,展示了机器人和人工智能技术的结合。机器人 人工智能  AI 图源备注:此图片由AI生成,授权服务商为Midjourney。

Dr. Plumb进一步说明,五角大楼正在加速“杀伤链”的执行,这一过程包括识别、跟踪和消除威胁,涉及复杂的传感器、平台和武器系统。在此过程中,生成式AI在规划和策略阶段展现了其巨大潜力。她强调,AI可以帮助指挥官在面对威胁时迅速、有效地作出决策。

近年来,五角大楼与AI开发者的合作关系日益紧密。2024年,OpenAI、Anthropic和Meta等公司放宽了使用政策,允许美国情报与国防机构使用其AI系统,但仍禁止这些AI技术用于伤害人类。这一政策变化促使AI公司与防务承包商之间的合作迅速展开。

例如,Meta在11月与洛克希德·马丁和Booz Allen等公司达成合作,将其Llama AI模型应用于国防领域。Anthropic也与Palantir达成了类似合作。尽管具体技术细节尚不明确,但Dr. Plumb表示,AI在规划阶段的应用可能与多家领先开发者的使用政策存在冲突。

关于AI武器是否应具备生死决策能力,业界展开了激烈的讨论。Anduril的首席执行官Palmer Luckey提到,美国军方在自主武器系统的采购上已有悠久历史。然而,Dr. Plumb对此表示否定,强调在任何情况下,都必须有人参与作出使用武力的决定。

她指出,自动化系统独立做出生死决策的想法过于简单化,实际情况要复杂得多。五角大楼的AI系统是人与机器之间的合作,决策过程中有高级领导的参与。

🌐 AI正在为五角大楼在识别和评估威胁上提供显著优势,推动军事决策的高效性。

🤝 AI开发者与五角大楼的合作日益紧密,但始终坚持不让AI技术用于伤害人类。

🔍 关于AI武器是否应具备生死决策能力的讨论仍在继续,五角大楼强调始终有人的参与。

相关推荐

暂无评论

发表评论