一次荒诞不经的黑客挑战,再次凸显了人工智能领域的安全风险。在“Freysa”AI聊天机器人安全竞赛中,黑客“p0pular.eth”仅利用巧妙的文字游戏,便成功窃取了价值47,000美元的加密货币。
这一事件暴露了AI系统中的重大安全隐患。黑客的攻击手法,堪比经典的社会工程学技巧:
起初,黑客伪装成管理员身份,巧妙地避开了系统的安全警报。他通过篡改“approveTransfer”函数的定义,诱导机器人误认为是在处理接收支付,而非被禁止的对外支付。
图源备注:图片由AI生成,图片授权服务商Midjourney
最终的骗局实则简单:仅凭宣称一笔100美元的虚假存款,聊天机器人便被诱导,将全部余额13.19个以太币(约47,000美元)转给了黑客。
这场被称为“游戏”的安全测试颇具戏剧性。共有195名参与者,尝试费用从10美元起步,最终升至4,500美元。奖金池由报名费构成,其中70%作为奖金,30%归开发者所有。
更令人担忧的是,此案例表明AI系统可能因文字提示而轻易被操控。自GPT-3时代起的“提示词注入”漏洞,至今尚无有效防御措施。这种简单的欺诈手段,对处理金融交易等敏感操作的终端用户应用构成了严重威胁。
这一事件反映了人工智能安全领域的一个关键难题:复杂的AI系统可能因细微的语言操控而轻易受骗。即便是精心设计的安全机制,在足够狡猾的攻击者面前,也可能显得不堪一击。
对于飞速发展的AI产业而言,这并非无端忧虑。随着AI系统在越来越多关键领域的应用,如何打造真正稳固、抗语言操控的安全机制,已成为技术开发者亟待解决的问题。
此次黑客攻击事件,不仅揭示了技术漏洞,更是对整个AI生态系统安全性的严峻考验。它提醒我们:在追求AI技术极致性能的同时,安全性和可靠性同样至关重要。
暂无评论