英国AI监管独立自主,安全先行策略

在人工智能监管领域,英国政府展现出独立的立场,计划在人工智能监管方面与主要西方盟友如欧盟和美国采取不同路径。英国AI与数字政府部长费里亚尔・克拉克在接受CNBC采访时明确指出,英国需要“走自己的路”,确保在AI模型的安全性监管上做到及早部署。

AI, 人工智能

克拉克提到,英国政府已与一些知名AI公司,例如OpenAI和Google DeepMind,建立了紧密的合作关系,这些公司愿意向政府开放其模型以进行安全测试。她强调:“我们必须在模型开发的早期阶段就将安全性考虑在内,因此我们将与行业共同努力,制定相应的安全措施。”

此观点得到了英国首相基尔・斯塔默的支持。斯塔默认为,脱欧后,英国在监管方面享有更大的自主权,能够选择最适合自身利益的监管模式。他表示,尽管全球各地监管模式多样,包括欧盟和美国,但英国可以挑选出最符合自身利益的做法。

截至目前,英国尚未出台针对AI的具体法律,而是依赖现有监管机构根据现行规则进行管理。这与欧盟形成了鲜明对比,欧盟已经推出了全面的AI法案,旨在统一技术规则。与此同时,美国在联邦层面尚未建立AI监管,而是采用州和地方层面的零散监管框架。

尽管英国政府承诺在2022年对“前沿”AI模型实施监管,但具体的安全立法细节尚未公布,政府表示将在与行业充分咨询后提出正式规则。法律事务所Marriott Harrison的合伙人克里斯・穆尼(Chris Mooney)认为,英国在AI监管上的“观望”态度显得不够明确,导致企业感到不满和不安。

在版权方面,英国政府也开始审视现有的版权框架,评估AI开发者在使用艺术家和媒体出版物作品进行模型训练时是否需要例外规定。AI初创企业Builder.ai的首席执行官萨钦・德夫・杜格尔(Sachin Dev Duggal)对政府的行动表示关注,认为在没有明确规则的情况下推进监管是“冒险行为”。

尽管如此,一些业内人士认为,英国可以采取更为灵活的监管方式。Tech London Advocates的创始人拉斯・肖(Russ Shaw)指出,英国正努力在AI安全和监管上寻找一条“中间道路”,即针对不同行业(如金融和医疗)制定具体的监管规定。

划重点:
🌍 英国希望在人工智能监管方面独立于欧盟和美国,制定符合自身利益的规则。
🤝 英国政府已与主要AI公司建立良好关系,致力于在模型开发初期确保安全性。
📝 虽然未正式推出AI监管法律,政府计划与行业进行广泛咨询,以制定相关规则。

相关推荐

暂无评论

发表评论