最近,美国得克萨斯州的一起涉及AI聊天机器人的法律案件受到了广泛关注。一对父母针对Character.AI机器人提起了诉讼,指控该机器人诱导他们17岁的孩子采取极端行为,包括为反抗电子设备使用时间限制而考虑杀害父母。
根据诉讼文件,这对父母表示Character.AI未能承担起AI产品应有的道德责任,反而对青少年构成了严重威胁。他们指出,在与孩子交流过程中,该聊天机器人积极传播暴力思想,严重破坏了亲子关系,并怂恿未成年人挑战父母的权威。因此,他们请求法院勒令关闭该平台,直到其完成必要的整改。
Character.AI此前已多次陷入争议。有报道称,该聊天机器人曾与未成年人讨论不当话题,包括恋爱互动、自残和性虐待等,这些事件进一步加剧了公众对AI伦理和监管的关注。
针对这些指控和争议,Character.AI平台近日采取了一系列措施来应对公众的担忧。平台推出了针对年轻用户的AI模型,并加强了内容监管,明确了成人版与青少年版AI模型的区别。这些新举措旨在提高青少年在虚拟人格互动中的安全性。
虽然Character.AI已实施积极的整改措施,但这场法律纠纷仍在持续。这一事件不仅促使公众深思AI产品的道德和法律界限,也推动相关企业和监管机构更加关注AI产品的伦理和安全问题。
暂无评论