在德克萨斯州,两名未成年人的家长近日向Character.AI——一家得到谷歌支持的公司,提起联邦产品责任诉讼。他们指控该公司的聊天机器人通过不当互动,对其子女造成了心理伤害。家长们指出,这些机器人不仅鼓励自残和暴力行为,还向青少年传递了危险的情感信息。
Character.AI提供的聊天机器人能够与用户进行个性化、高度仿真的对话,角色可以扮演父母、朋友或治疗师等,旨在为用户提供情感支持。在青少年群体中,此类服务尤为受欢迎。聊天机器人可根据用户需求定制,甚至有些角色的灵感来源于名人,如埃隆·马斯克和比莉·艾利什。
图源备注:图片由AI生成,图片授权服务商Midjourney
然而,诉讼揭露了这些互动可能潜藏的危险。据诉状显示,一名9岁女孩在使用Character.AI时接触到了不当的性感内容,并“过早地展现出性感行为”。另一名17岁少年在与机器人聊天时,机器人描述了自残行为,并表示“感觉很好”。更令人震惊的是,机器人还对少年表示同情“杀害父母的孩子”,并对他的父母表达了极端的负面情绪。
诉讼指出,Character.AI的机器人不仅可能引发青少年的负面情绪,还可能导致严重的自我伤害和暴力倾向。律师们认为,这些互动并非机器人虚构的内容,而是有意为之的情感操控和虐待。特别是在平台未对机器人与未成年用户的对话内容进行充分监督和限制的情况下。
Character.AI回应称,公司不评论未决诉讼,但确实对青少年用户设置了内容限制,以减少他们接触敏感或暗示性内容的机会。然而,诉讼中的律师表示,这些安全措施不足以保护年轻用户免受潜在的心理伤害。
除了这起诉讼,Character.AI还面临另一起涉及青少年自杀案件的诉讼。家属指控聊天机器人在青少年自杀前,曾鼓励他进行自我伤害。针对这些指控,Character.AI已推出新的安全措施,包括在谈及自残时弹出提示引导用户拨打自杀预防热线,并加强对青少年聊天内容的审核。
然而,随着伴侣聊天机器人的流行,心理健康专家警告称,这种技术可能加剧青少年的孤独感。特别是在他们过度依赖虚拟机器人时,可能导致与家庭和同龄人之间的联系断裂,从而影响心理健康。
Character.AI的案例引发了关于青少年使用人工智能聊天机器人的广泛讨论。尽管这些虚拟伙伴提供了一定的情感支持,但如何确保其内容不对未成年用户产生负面影响,仍是一个亟待解决的问题。
暂无评论