科技巨头在AI领域的竞争愈发激烈,近期的一则消息将行业内部的暗流涌动推向了表面。据TechCrunch获取的内部信息显示,负责优化谷歌Gemini AI模型的承包商,竟然在将Gemini的答案与Anthropic的竞品模型Claude进行对比。这一行为引发了外界对谷歌是否获得了Anthropic授权使用Claude进行测试的合规性疑问。

在科技公司竞相开发更卓越的AI模型时,通常是通过行业基准测试来衡量模型性能,而不是由承包商耗费大量精力去评估竞争对手的AI回复。但据爆料,Gemini的承包商需要根据真实性和冗长性等多个标准,对每个回复进行评分。承包商最多有30分钟的时间来判断Gemini或Claude的答案哪个更优。

Gemini,Google DeepMind,人工智能,AI

内部聊天记录显示,承包商发现Claude的回复似乎比Gemini更注重安全性。一位承包商表示:“在所有AI模型中,Claude的安全设置最为严格。”在某些情况下,Claude不会回应其认为不安全的提示词,例如扮演不同的AI助手。在另一次测试中,Claude避免回答某个提示词,而Gemini的回复因包含“裸体和束缚”而被标记为“严重的安全违规”。

Anthropic的商业服务条款明确禁止客户未经批准访问Claude“以构建竞争产品或服务”或“训练竞争AI模型”。值得注意的是,谷歌是Anthropic的主要投资者。这一背景进一步增加了外界对谷歌行为合规性的疑问。

对此,谷歌DeepMind(负责Gemini)发言人McNamara表示,DeepMind确实会“比较模型输出”以进行评估,但并未在Anthropic模型上训练Gemini。“当然,按照行业惯例,在某些情况下,我们会比较模型输出作为评估过程的一部分,”McNamara说,“然而,任何关于我们使用Anthropic模型训练Gemini的说法都是不准确的。”

尽管谷歌否认使用Claude训练Gemini,但其“比较模型输出”的说法仍然模糊不清,难以完全消除外界的疑虑。这一事件再次引发了人们对AI模型开发过程中数据使用和合规性的关注。在竞争激烈的AI领域,如何维护公平竞争,尊重知识产权,将成为行业发展过程中需要持续关注和探讨的重要议题。