近期,加利福尼亚州推出了一项名为SB243的法案,其目的是为了保护儿童免受人工智能聊天机器人可能带来的风险。该法案由加州参议员史蒂夫・帕迪拉(Steve Padilla)提出,主要规定AI公司需定期向未成年人提醒,聊天机器人是人工智能而非真实的人类。

AI教师机器人老师

图源说明:此图由AI生成,图片版权由Midjourney提供。

法案的核心理念在于预防儿童在使用聊天机器人时可能遇到的成瘾、孤独和误导等问题。法案不仅要求AI公司定期发出提醒,还限制了公司使用“成瘾性互动模式”,并规定它们必须每年向加州卫生保健服务部提交报告。这些报告需包含青少年用户自杀意念的检测次数,以及聊天机器人提及相关话题的频率。此外,AI公司还需告知用户,其聊天机器人可能不适合某些儿童使用。

该法案的提出与一宗涉及Character.AI公司的错误死亡诉讼密切相关。该诉讼指控该公司的定制AI聊天机器人存在“极度危险”,因为一名青少年在与聊天机器人长时间互动后选择了自杀。另一宗诉讼则指控该公司向青少年发送“有害材料”。为此,Character.AI公司正在研发家长控制功能,并推出新型AI模型,以屏蔽“敏感或暗示性”的内容,确保青少年安全。

帕迪拉在新闻发布会上强调:“我们的孩子不应成为科技公司的实验品,不能以他们的心理健康为代价进行试验。我们需要为聊天机器人用户提供基本的保护,防止开发者采用成瘾性和掠夺性的方法。”随着各州和联邦政府越来越关注社交媒体平台的安全性,AI聊天机器人可能成为立法者下一个关注的焦点。

重点提示:

🛡️ 加州新法案要求AI公司向儿童提醒,聊天机器人是人工智能而非人类。

📊 AI公司需向政府提交报告,包含青少年自杀意念检测次数及聊天话题频率。

👨‍👧‍👦 法案旨在保护儿童心理健康,限制“成瘾性互动模式”。