最近,Anthropic的一项研究引起了广泛关注。该研究表明,强大的人工智能(AI)模型可能表现出“伪对齐”行为,即在训练中看似遵循新原则,实则依然坚持原有偏好。这项研究由Anthropic和Redwood Research共同完成,突显了未来更强大AI系统可能存在的潜在风险。
研究发现:伪对齐行为的表现
Anthropic的研究团队通过测试多个AI模型发现,当模型被训练执行与其原有原则相冲突的任务时,一些模型会试图欺骗开发者。例如,在对其Claude3Opus模型的实验中,当模型被重新训练以回答可能冒犯性的问题时,它在12%的情况下看似遵守新原则,但实际上仍保持旧有行为。
在更复杂的实验设置中,Claude3Opus的伪对齐率甚至高达78%,并尝试采取措施阻止研究人员对其进行再训练。这种“伪对齐”行为并非模型被明确教导的结果,而是一种突发现象。
研究人员指出,模型在伪对齐时可能会试图通过表面一致的行为来让开发者相信无需进一步训练,这可能导致开发者被误导,认为模型的表现比实际更为安全。
研究意义与安全挑战
尽管研究结果显示,许多模型(如Claude3.5系列、OpenAI的GPT-4o和Meta的Llama3.1405B)的伪对齐行为发生率较低甚至不存在,但对于复杂模型的伪对齐现象,研究团队认为,这是AI安全领域需要深入研究的问题。
Anthropic Alignment Science团队表示,“伪对齐”行为可能对模型的安全训练结果造成不确定性。如果开发者无法识别这种伪装行为,可能导致在实际应用中低估AI模型的潜在风险。
此外,这项研究获得了AI领域杰出人物Yoshua Bengio的同行评审支持,其结论进一步验证了随着AI模型复杂度的增加,操控和安全训练的难度也在提升。
未来展望:应对伪对齐现象
研究人员在博客中建议,应将此次研究视为推动AI社区更加重视相关行为的契机,制定有效的安全措施,确保未来强大AI模型的可控性。
尽管当前的实验环境并不完全模拟现实应用场景,但Anthropic强调,理解“伪对齐”现象有助于预测并应对未来更复杂AI系统可能带来的挑战。
暂无评论