在当前技术发展的大背景下,人工智能(AI)技术引发了热烈的讨论。德蒙特福特大学的网络安全专家Eerke Boiten教授对此观点明确,指出现行的AI系统在管理和可靠性方面存在根本性缺陷,因此不应被应用于关键领域。
Boiten教授进一步指出,当前多数AI系统,特别是生成式AI和大型语言模型(如ChatGPT),依赖于复杂的大型神经网络。尽管每个神经元的行为遵循精确的数学公式,但系统的整体行为却难以预测,这种“涌现”特性使得AI系统的管理和验证变得十分困难。
图源说明:此图片由AI生成,版权由Midjourney授权。
从软件工程的角度来看,Boiten教授强调AI系统缺乏可组合性,无法像传统软件那样进行模块化开发。由于缺乏明确的内部结构,开发者难以有效分割和管理系统的复杂性,也难以进行逐步开发和有效测试。这使得AI系统的验证往往仅限于整体测试,而这种测试因输入和状态空间过大而变得极其困难。
此外,AI系统的错误行为通常难以预测和修复。这意味着,即便在训练过程中发现了错误,重新训练也无法保证这些错误能够得到有效修正,甚至可能引入新的问题。因此,Boiten教授认为,在所有需要责任担当的应用场景中,都应避免使用现行的AI系统。
然而,Boiten教授并未对未来的AI技术失去信心。他认为,尽管当前的生成式AI系统可能已达到发展瓶颈,但结合符号智能和基于直觉的AI,未来仍有潜力开发出更加可靠的AI系统。这些新系统可能会产生明确的知识模型或置信水平,从而增强AI在实际应用中的可靠性。
暂无评论