最近,澳大利亚参议院的一个特别委员会公布了一份关于国家人工智能(AI)应用的调研报告,指出包括OpenAI、Meta和谷歌在内的大型科技企业在大型语言模型(LLM)方面存在诸多问题。这份报告经过八个月的调查,揭露了全球科技公司在利用澳大利亚训练数据时缺乏公开性,并建议将这些产品纳入新的高风险AI法律监管体系。

机器人 AI 人工智能 222

图源备注:图片由AI生成,图片授权服务商Midjourney

该特别委员会的调查内容广泛,涵盖了AI带来的经济收益、潜在的偏见和环境影响等方面。报告指出,这些大型科技企业在通用AI模型的结构、发展及其影响方面,存在严重的透明度不足问题。委员会对这些企业的市场影响力、规避监管合规的记录,以及对澳大利亚版权持有者的明显侵权行为表示担忧。同时,报告还提到了一些其他问题,如非自愿抓取个人和私人信息等。

尽管委员会认可AI技术可以提高经济生产力,但也指出,自动化可能会导致大量职位消失,尤其是那些对教育和培训要求不高的岗位,以及对女性和低收入群体造成更大影响。报告特别提到,在工作场所使用AI系统可能会对员工的权益和工作条件产生不利影响,这些系统已在许多跨国公司中得到应用。

针对这些问题,委员会向澳大利亚政府提出了多项建议,包括将影响员工权益的高风险AI应用纳入法律体系,扩展现有的工作健康和安全法律,以应对AI应用带来的职场风险,并确保在AI使用决策过程中,雇主与员工之间能够充分沟通和协商。

虽然政府不必立即采取行动,但报告呼吁国内IT领导者在应用AI技术时,全面考虑各方面的影响,确保在追求生产效率提升的同时,尊重员工的权益和工作条件。

划重点:

🌐 大型科技企业在AI模型使用上透明度不足,委员会建议将其列为高风险产品。  

📉 自动化可能导致大量职位流失,特别是低技能岗位和弱势群体。  

🤝 提倡雇主与员工充分沟通,确保AI应用不会侵害工人权益。