近期,前OpenAI政策研究负责人迈尔斯・布伦达奇(Miles Brundage)对OpenAI在人工智能安全领域的策略调整提出了质疑,指出公司似乎在重新塑造其AI系统安全性的历史。布伦达奇担忧,在追求通用人工智能(AGI)的道路上,OpenAI可能会忽视长期的安全考量。

OpenAI,人工智能,AI

面对DeepSeek等竞争对手的挑战,OpenAI始终致力于推进其宏大的愿景。在追求AGI发展的过程中,OpenAI多次强调超级人工智能代理的潜力,但这种观点并未得到普遍认同。布伦达奇指出,OpenAI在现有AI模型的部署和安全性叙述上存在矛盾之处。

近期,OpenAI发布了一份关于AI模型逐步部署的文档,旨在展示其审慎的态度。文档以GPT-2为例,强调了在处理现有系统时应保持高度谨慎。OpenAI在文档中表示:“在一个不连续的世界里,安全教训来自于对当前系统的高度谨慎,这正是我们在GPT-2模型上所采取的方法。”

然而,布伦达奇对这一说法表示怀疑。他认为,GPT-2的发布也采取了渐进的方法,安全专家曾对OpenAI的谨慎做法表示赞赏。布伦达奇认为,过去的谨慎并非过度,而是必要且负责任的行为。

此外,布伦达奇还对OpenAI声称AGI将通过渐进步骤而非突然突破的观点表示担忧。他认为,OpenAI对GPT-2发布历史的误解,以及对安全历史的重新叙述,令人不安。他还指出,OpenAI发布的文档可能导致安全顾虑被误认为过度反应,这在AI系统不断发展的背景下,可能带来重大风险。

这不是OpenAI首次受到批评,专家们质疑公司在长期安全与短期利益之间是否做出了合理的权衡。布伦达奇的担忧再次引发了人们对AI安全的关注。

划重点:

🌐 OpenAI前政策负责人对公司的AI安全叙事变化提出质疑,认为这是对历史的误解。

🚀 OpenAI发布的文档强调谨慎发布AI模型的重要性,却遭到前员工的批评。

⚠️ 未来AI系统的发展必须重视安全措施,专家对此表示担忧。