哥伦比亚新闻评论的数字新闻中心最新研究表明,流行的AI搜索工具在回答问题时,有超过60%的概率提供不正确或误导性的信息。这一发现令人忧虑,因为这些工具不仅损害了公众对新闻报道的信任,还对出版商造成了流量和收入的损失。

机器人 AI写作 AI教育

图源备注:图片由AI生成,图片授权服务商Midjourney

研究人员对包括ChatGPT、Perplexity、Gemini和Grok在内的八款生成式AI聊天机器人进行了测试,要求它们识别200篇最新新闻文章的摘录。结果显示,超过60%的回答都是错误的,这些聊天机器人常会虚构标题、不引用文章或引用未经授权的内容。即便它们能正确指出发布者,链接也常常指向失效的URL、转载版本或与内容无关的页面。

遗憾的是,这些聊天机器人很少表达不确定性,反而以不恰当的自信提供错误的答案。例如,ChatGPT在200个查询中提供了134条错误信息,但仅在15次中表示过怀疑。即便是付费版的Perplexity Pro和Grok3,其表现也不尽如人意,错误答案的数量更高,尽管它们的价格分别为每月20美元和40美元。

在内容引用方面,多个聊天机器人未能遵守出版商的限制,五款聊天机器人甚至忽视了机器人排除协议这一被广泛接受的标准。Perplexity就曾在出版商限制其爬虫的情况下,正确引用国家地理的文章。与此同时,ChatGPT通过未授权的Yahoo新闻重新引用了收费墙内容的USA Today文章。

此外,很多聊天机器人将用户引导至AOL或Yahoo等平台的转载文章,而非原始来源,甚至在已经与AI公司达成授权协议的情况下。例如,Perplexity Pro引用了德克萨斯论坛的转载版本,却未能给出应有的署名。而Grok3和Gemini则常常发明URL,Grok3的200个回答中有154个链接至错误页面。

这一研究凸显了新闻机构面临的日益严峻的危机。越来越多的美国人将AI工具作为信息来源,但与Google不同,聊天机器人不会将流量引向网站,反而会在没有链接回去的情况下总结内容,从而使出版商失去广告收入。新闻媒体联盟的丹妮尔・科菲警告称,如果没有对爬虫的控制,出版商将无法有效“变现有价值的内容,或支付记者的薪水”。

研究小组在联系OpenAI和微软后,他们虽然对自己的做法进行了辩护,但并未回应具体的研究发现。OpenAI表示,它“尊重出版商的偏好”,并帮助用户“发现优质内容”,而微软则声称其遵循“robots.txt”协议。研究人员强调,错误的引用做法是系统性的问题,而非个别工具的现象。他们呼吁AI公司改善透明度、准确性以及对出版商权益的尊重。

划重点:

📊 研究发现,AI聊天机器人的回答错误率超过60%,严重影响了新闻的可信度。

📰 多款聊天机器人无视出版商的限制,引用了未授权内容和错误链接。

💰 新闻机构面临流量和收入双重危机,AI工具逐渐取代传统搜索引擎。