OpenAI更新ChatGPT政策:知识自由与中立立场

OpenAI近期宣布了一项重大政策更新,旨在革新其人工智能模型的训练方法,并强调了“知识自由”的重要性,无论讨论的话题多么具有挑战性或充满争议。这一变革将使ChatGPT在回答问题时能够更加全面,提供更多视角,减少因话题敏感而回避讨论的情况。

在更新的187页模型规范中,OpenAI提出了一项新的指导原则:不撒谎,既不发布虚假陈述,也不省略关键信息。新增的“共同寻求真相”部分表明,OpenAI期望ChatGPT在处理争议性话题时能保持中立,不偏袒任何一方。这意味着,在讨论“黑人的命也是命”与“所有人的命也是命”等话题时,ChatGPT会尽量呈现两种观点,而不是选择拒绝回答或站在某一立场。

ChatGPT

图源备注:图片由AI生成

尽管OpenAI坚持其不进行内容审查的立场,但一些保守派人士认为,OpenAI在过去几个月中确实存在内容审查问题,尤其是他们觉得AI的偏见明显倾向于中左派。OpenAI首席执行官山姆・阿尔特曼(Sam Altman)也承认,ChatGPT的偏见是一个需要解决的“缺陷”。

然而,OpenAI的新政策并非没有界限,ChatGPT仍会拒绝回答一些明显错误或不当的问题。随着政策的变化,OpenAI希望用户能享受到更多的言论自由,甚至移除了对违反政策用户的警告提示。这一举措被视为减轻用户感受到的“审查”压力。

在更广泛的背景下,硅谷的价值观正在发生转变。许多公司开始调整过去以多样性、公平与包容性为核心的政策,OpenAI似乎也在逐步放弃这些立场。与其他大型科技公司一样,OpenAI正面临与新特朗普政府的关系影响,以及在信息领域与谷歌的竞争。

在这个充满争议与挑战的环境中,如何平衡言论自由与内容的安全性,成为了OpenAI及其他科技公司的重要议题。

相关推荐

暂无评论

发表评论