近日,谷歌推出了全新一代人工智能模型PaliGemma2,该模型具备分析图像并生成标题的能力,还能针对照片中人物的情感和行动等问题给出答案。PaliGemma2基于谷歌的Gemma开放模型系列,提供了超越传统物体识别的深入图像描述,能够识别情绪并生成与上下文相符的详细描述。然而,这项看似具有突破性的创新技术,却因其潜在的伦理和社会影响遭到了专家的严重警告。

QQ20241206-092015.png

情绪识别并非PaliGemma2的默认功能,而是通过精细调整实现的。尽管谷歌宣称已进行了广泛的测试,并在减少人口统计学偏见方面优于行业基准,但专家们对该技术的可靠性仍持有疑虑。牛津大学的桑德拉·沃赫特教授指出,利用人工智能“解读”人类情绪存在诸多问题,这一过程过于依赖假设,可能导致误判和偏见。

情绪识别技术一直是技术领域争议的焦点。虽然早期研究如保罗·艾克曼的情绪理论提出了六种基本情绪,但后续研究发现,不同文化和背景下情绪表达存在显著差异。英国玛丽女王大学的迈克·库克研究员表示,情绪体验的复杂性使得准确检测情绪几乎不可能。此外,现有研究表明,面部表情分析系统常常对某些情感存在偏见,例如对微笑或不同种族面部表情的理解。

随着情绪识别技术的商业化推进,其可能引发的滥用风险引起了广泛关注。有专家担心,这项技术可能在执法、招聘等领域被滥用,从而加剧社会不平等。欧盟的人工智能法案已对情绪识别技术提出了严格限制,特别是在高风险环境中的应用。

谷歌方面坚称,在测试阶段已充分考虑了PaliGemma2的伦理和安全问题,尤其是针对儿童和内容安全。但这些保证是否足够,仍需接受严格审查。AI Now Institute的Heidy Khlaaf博士强调,情绪识别不仅是视觉问题,还涉及深层次的社会和文化背景,“单凭面部特征无法准确推断情绪”。

随着PaliGemma2技术的公开发布,它不仅将推动人工智能在图像理解领域的应用,还将对社会伦理和数据隐私带来新的挑战,这亟需相关监管机构的关注和介入。