据TechCrunch获取的内部文件揭示,谷歌正要求承包商对Gemini AI与Anthropic的Claude进行对比评估,这一行为引发了合规性的担忧。

文件指出,负责优化Gemini的承包商需在30分钟内,根据真实性、详尽度等多个标准,对Gemini和Claude的回答质量进行对比评估。承包商近期在谷歌内部评测平台发现,有内容明确提及Claude,并标注“我是Claude,由Anthropic创建”。

内部讨论中,承包商指出Claude在安全性方面表现得更为严格。有承包商表示,“Claude的安全设置是所有AI模型中最严格的”。在某些情况下,当Gemini的回答因涉及“裸体和束缚”被标记为“严重违反安全规定”时,Claude则直接拒绝回应相关提示。

Claude2,Anthropic,人工智能,聊天机器人 克劳德

值得注意的是,作为Anthropic的主要投资者,谷歌的这一行为可能违反了Anthropic的服务条款。该条款明确禁止未经批准访问Claude以“构建竞争产品”或“训练竞争AI模型”。当被问及是否获得了Anthropic的授权时,Google DeepMind发言人Shira McNamara拒绝直接回应。

McNamara表示,尽管DeepMind会“比较模型输出”以进行评估,但否认使用Anthropic模型训练Gemini。“这符合行业标准做法,”她说,“但任何声称我们用Anthropic模型训练Gemini的说法都是不准确的。”

此前,谷歌要求AI产品承包商评估Gemini在其专业领域外的回答,这引起了承包商对AI在医疗保健等敏感领域可能产生不准确信息的担忧。

截至目前,Anthropic发言人尚未对此事发表评论。