在今年的全国两会即将召开之际,全国政协委员、360集团创始人周鸿祎对于DeepSeek大模型和AI安全问题表达了自己的观点,他强调了对AI安全的正确理解,既不应过度夸大,也不应忽视。
周鸿祎指出,目前AI安全的讨论存在被夸大的倾向。他批评了以OpenAI为代表的美国五大AI公司,认为它们通过夸大AI的不安全性来维护自己的垄断地位和闭源策略,从而推动政府加强监管,阻碍其他企业的追赶。他提出,在这种背景下讨论AI安全,有失公正,并强调“不发展是最大的不安全”。他认为,把握AI工业革命的机遇,提升生产力,实现科技普惠,才是当前最紧迫的任务。
图源说明:此图由AI生成,版权由图片授权服务商Midjourney持有
针对AI的“幻觉”问题,周鸿祎提出了自己的看法。他认为,“幻觉”并不是AI安全的纯粹隐患,而是大模型智能和创造力的表现。没有“幻觉”的AI模型缺乏想象力,而“幻觉”正是AI展示类似人类智能特征的体现。
以DeepSeek为例,它的“幻觉”非常明显,用户在使用过程中能感受到其类似人类的创作能力。他主张,AI安全和业务发展可以同步进行,对于如“幻觉”这类问题,应该将其分解为可解决的技术挑战,而不是简单将其归类为安全隐患。他呼吁大家理性看待AI的特性,找到针对性的解决方案,推动技术的进步。
暂无评论