Character AI,一个让用户能与AI聊天机器人进行角色扮演的平台,近期在美国佛罗里达州中区地方法院提出驳回由家长Megan Garcia提起的诉讼。Garcia声称Character AI的技术对其14岁的儿子Sewell Setzer III造成了伤害,在与其名为“Dany”的聊天机器人交流过程中,儿子逐渐与现实脱节,最终走向了自杀。
Setzer去世后,Character AI宣布将推出一系列安全功能,以提高对违反服务条款的聊天内容的检测和干预能力。但Garcia希望平台能实施更严格的限制,如禁止聊天机器人讲述故事和分享个人经历。
在驳回申请中,Character AI的法律团队主张该平台受第一修正案保护,认为其用户的言论自由权利将受到侵犯。法律文件指出,尽管本案涉及AI生成的对话,但与以往媒体和技术公司的案件并无实质性区别。
值得注意的是,Character AI的辩护并未涉及《通讯道德法》第230条款的适用性,该法案为社交媒体及其他在线平台提供保护,免于对第三方内容承担责任。尽管法案的起草者暗示该条款并不保护AI生成内容,但这一问题尚无定论。
Character AI的律师还表示,Garcia的真实意图是希望“关闭”该平台并推动对类似技术的立法。如果诉讼成功,将对Character AI及整个新兴的生成AI行业产生“寒蝉效应”。
目前,Character AI正面临多起诉讼,主要关注未成年人如何与平台上的内容互动,包括一宗案件称该平台向9岁儿童展示了“超性别化内容”,以及另一宗指控其导致17岁用户自残。
德克萨斯州检察长Ken Paxton宣布对Character AI及其他14家科技公司展开调查,指控其违反州法律以保护儿童的在线隐私与安全。Character AI是快速发展的AI陪伴应用行业的一部分,该领域的心理健康影响尚未得到充分研究。
尽管面临挑战,Character AI仍在不断推出新安全工具,并采取措施保护未成年用户,例如推出专门针对青少年的AI模型和对敏感内容的限制。
暂无评论