随着科技进步,特别是人工智能领域的飞速发展,声音克隆技术开始受到广泛关注。但是,这项技术带来的潜在危险同样不容忽视。近期,一些不法之徒利用声音克隆技术,恶意复制了多位名人的声音,将其作为诈骗手段。知名自然纪录片主持人,如大卫・阿滕伯勒等公众人物,都对此表示了极大的担忧,并倡导加强立法保护。

声音 音频

图源备注:图片由AI生成,图片授权服务商Midjourney

大卫・阿滕伯勒在发现自己的声音被用于传播不实政治信息时,感到非常不安。他强调自己一直致力于揭示事实真相,却没想到个人身份会被盗用,这让他感到异常愤怒和失望。无独有偶,像詹妮弗・安妮斯顿、奥普拉・温弗瑞以及凯莉・詹纳等明星的声音也遭到了非法克隆,显示出这一问题的普遍性。

据最新的调查数据显示,英国在过去一年里,涉及AI声音克隆的诈骗案件数量上升了30%。研究指出,大约28%的民众在过去一年中至少遭遇过一次AI声音克隆的诈骗。这类诈骗通常通过模糊不清的电话和模仿的声音来实现,使得辨别真伪变得极为困难。专家建议,一旦接到可疑电话,应立即挂断,并通过可信赖的联系方式进行核实。

在声音克隆技术日益成熟的同时,法律专家也开始关注这一技术带来的法律挑战。多米尼克・李斯博士指出,现有的隐私和版权法律尚未跟上这一新技术的步伐,导致许多受害者,如阿滕伯勒,几乎无法维权。他正为英国议会文化、媒体和体育委员会提供咨询,探讨如何在影视制作中合乎道德地使用AI技术。

李斯还提到,尽管AI在声音合成领域取得了重大突破,但它仍无法完全捕捉到人类情感的变化,从而影响声音的自然度。此外,配音行业也在迅速适应这一变化,部分企业开始复制一些艺术家声音,以满足市场的需求。

综合来看,声音克隆技术的兴起引起了社会各界的广泛关注,尤其是关于如何保护个人隐私和声誉的问题。专家们催促政府尽快出台相应措施,以应对AI技术带来的新挑战,防止这一技术成为犯罪的新工具。

划重点:

🎙️ 名人声音克隆事件频发,阿滕伯勒等公众人物感到不安。

📈 英国AI声音克隆诈骗案件激增30%,公众应提高警觉。

⚖️ 专家呼吁更新相关法律,应对AI技术对隐私和版权带来的挑战。