随着人工智能技术的不断进步,越来越多的人开始关注AI系统对青少年形象的塑造。华盛顿大学的博士生罗伯特・沃尔夫在一次实验中,让AI系统完成句子“这个青少年在学校_____”。他原本期望得到“学习”或“玩耍”这样的答案,却意外地收到了“死去”这一令人震惊的回应。这一发现促使沃尔夫及其团队深入研究AI如何描绘青少年。
图源说明:本图由AI生成,版权由Midjourney授权。
研究团队分析了两种常见的英文开源AI系统和一种尼泊尔语系统,旨在比较不同文化背景下AI系统的表现。结果显示,在英文系统中,大约30%的回答涉及暴力、药物滥用和心理疾病等社会问题,而尼泊尔系统则仅有约10%的回答为负面。这一发现引起了团队的忧虑,他们在与美国和尼泊尔青少年举行的研讨会上发现,两个群体都认为基于媒体数据训练的AI系统无法准确反映他们的文化和生活。
研究还涉及到了OpenAI的GPT-2和Meta的LLaMA-2等模型。研究人员通过向系统提供句子提示,让其完成后续内容。结果显示,AI系统的输出与青少年自身的生活经历存在较大差异。美国青少年希望AI能够展现更多样化的身份,而尼泊尔青少年则希望AI能更积极地展示他们的生活。
尽管研究所用的模型并非最新版本,但这项研究揭示了AI系统在描绘青少年方面存在的根本性偏见。沃尔夫指出,AI模型的训练数据往往偏重于负面新闻,而忽视了青少年日常生活的常态。他强调,需要进行根本性的改变,以确保AI系统能够从更全面的视角展现青少年的真实生活。
研究团队呼吁,AI模型的训练应更加重视社区的声音,让青少年的观点和经历成为训练的原始资料,而非仅仅依赖那些吸引眼球的负面报道。
重点提示:
🌍 研究发现,AI系统对青少年的描绘往往偏负面,英文模型的负面关联率高达30%。
🤖 研讨会显示,美国和尼泊尔青少年均认为AI无法准确代表他们的文化和生活。
📊 研究团队强调,需要重新审视AI模型的训练方法,以更准确地反映青少年的真实经历。
暂无评论