Gartner的最新分析显示,预计到2027年,超过40%与人工智能相关的数据泄露事件将源于生成式人工智能(GenAI)的误用。随着GenAI技术的快速推广,企业在数据治理和安全措施制定上正面临重大挑战。特别是在数据本地化的大环境下,这一挑战更加显著,因为这些技术对集中计算能力的要求较高。

开发者 黑客开发者 漏洞 泄露 安全

Gartner副总裁分析师Joerg Fritsch强调,组织在引入GenAI工具时常缺乏足够的监管,这可能导致意外的跨境数据转移。他提到,“如果员工在使用GenAI工具时发送了敏感提示,而这些工具和API又托管在不明的位置,那么将带来安全隐患。”尽管这些工具可以用于经批准的商业应用,但它们潜在的安全风险不容忽视。

全球范围内,缺乏统一的数据治理最佳实践和标准也是Gartner提出的关键挑战。这种差异导致市场碎片化,迫使企业为特定地区制定策略,从而影响了它们在全球范围内有效利用AI产品和服务的能力。Fritsch还指出,“管理数据流的复杂性以及由于本地化AI政策带来的质量维护问题,可能导致运营效率低下。”

为了保护敏感数据并确保合规,企业需要在AI治理和安全方面进行投资,以应对这些风险。Gartner预测,到2027年,全球将普遍实施AI治理,尤其是在主权AI法律和法规的框架下。未能及时整合必要治理模型的组织,将面临竞争优势的丧失。

为降低与AI数据泄露相关的风险,Gartner建议企业采取以下策略:首先,强化数据治理,包括遵守国际法规、监控意外的跨境数据转移;其次,建立治理委员会,以提升对AI部署和数据处理的透明度和监管力度;最后,加强数据安全,运用先进技术,如加密和匿名化技术,保护敏感信息。

企业还被鼓励投资于与AI技术相关的信任、风险和安全管理(TRiSM)产品和能力,包括AI治理、数据安全治理、提示过滤和红action,以及合成生成非结构化数据。Gartner预测,到2026年,实施AI TRiSM控制的企业将减少至少50%的不准确信息,从而降低错误决策的风险。

划重点:

🔍 超过40%的AI数据泄露将源于生成式AI的误用。

🛡️ 企业需强化数据治理,确保合规与安全。

📈 投资 AI 相关的信任、风险和安全管理产品,能显著减少错误信息的产生。