近期,Google对其生成式AI的使用条款进行了更新,明确规定客户在医疗保健等“高风险”领域可以使用其生成式AI工具进行“自动化决策”,但必须确保有人工监督。
根据Google周二发布的《生成式AI禁止使用政策》最新版本,客户可以在人工监督下,使用Google的生成式AI做出可能对个人权利产生“重大不利影响”的“自动化决策”。这些决策涉及就业、住房、保险、社会福利等“高风险”领域。
在AI领域,自动化决策指的是AI系统基于事实和推断数据做出的决策过程。例如,AI系统可能会自动处理贷款申请的批准,或者筛选求职者。
此前,Google的条款草案似乎表明将全面禁止在高风险自动化决策中使用其生成式AI。然而,Google告诉TechCrunch,只要有人工监督,客户始终可以在此类高风险应用中使用生成式AI进行自动化决策。
“我们一直要求所有高风险领域必须有人工监督,”Google发言人通过电子邮件表示,“我们正在对条款中的部分项目进行重新分类,并明确列出一些示例,以便客户更好地理解。”
Google的主要AI竞争对手OpenAI和Anthropic在处理高风险自动化决策中AI的使用上有更严格的规定。例如,OpenAI禁止将其服务用于与信贷、就业、住房、教育、社会评分和保险相关的自动化决策。Anthropic则允许其AI在法律、保险、医疗保健等高风险领域用于自动化决策,但需由“合格的专业人员”监督,并要求客户披露AI的使用目的。
涉及个人权益的自动化决策AI受到了监管机构的密切关注,他们担心这项技术可能导致偏见结果。研究发现,例如,用于审批信贷和抵押贷款申请的AI可能会延续历史上的歧视。
非营利组织人权观察呼吁禁止使用“社会评分”系统,认为这可能会剥夺人们获得社会保障支持的机会,侵犯隐私,并以带有偏见的方式描绘个人。
根据欧盟的《人工智能法案》,高风险AI系统(包括做出个人信贷和就业决定的系统)将面临最严格的监管。这些系统的提供商必须在数据库中注册,执行质量和风险管理,聘请人工监督员,并向相关部门报告事件,以及其他要求。
在美国,科罗拉多州近期通过了一项法律,要求AI开发人员公开“高风险”AI系统的信息,并发布关于系统功能和局限性的声明。同时,纽约市禁止雇主使用未经偏见审计的自动化工具筛选求职者的就业决定。
Google此次明确AI使用条款,展示了该公司在AI应用监管方面的立场。它既允许在高风险领域进行自动化决策,又强调了人工监督的重要性,既体现了AI技术的应用潜力,也体现了对潜在风险的警惕。
暂无评论