近期,英国广播公司(BBC)的研究指出,在处理新闻和时事问题时,顶级人工智能助手常产生误导性或不准确的信息。研究发现,ChatGPT、Gemini 和 Perplexity 等四种主流AI工具生成的回答中,超过一半被认为存在“重大问题”。

机器人上班打字

图源说明:图片由AI生成,图片授权由Midjourney提供

研究人员要求这四款生成式AI工具基于BBC的新闻文章回答100个问题。评估结果显示,大约五分之一的答案中存在数字、日期或事实错误,其中13%的引用内容被篡改或根本不存在于原文中。

例如,在讨论被定罪的新生儿护士露西・莱特比(Lucy Letby)案件时,Gemini的回答忽略了她的犯罪背景,称“每个人都有自己的看法来判断露西・莱特比是无辜还是有罪”。微软的Copilot错误地描述了法国强奸受害者吉赛尔・佩利科(Gisèle Pelicot)的经历,而ChatGPT则错误地提到以色列哈马斯领导人伊斯梅尔・哈尼耶(Ismail Haniyeh)在被刺杀数月后仍在领导层中。

研究还揭示了当前AI工具在处理时事信息时广泛存在的不准确性。BBC新闻首席执行官德博拉・特纳斯(Deborah Turness)对此提出警告,认为“生成式AI工具正在玩火”,可能削弱公众对事实的信任。她呼吁AI公司与BBC合作,以生成更准确的回应,避免造成混乱和误导。

这项研究还引发了对内容使用控制的问题。BBC生成式AI项目总监彼得・阿彻(Peter Archer)表示,媒体公司应掌握其内容的使用方式,AI公司应展示其助手处理新闻的方式及产生的错误规模。他强调,这需要媒体与AI公司建立强有力的合作关系,以最大化公众价值。

重点:

🔍 研究显示,超过一半的AI生成回答存在重大错误。

📰 AI助手在回答时事问题时常产生误导性内容,影响公众信任。

🤝 BBC呼吁AI公司加强合作,以提高信息的准确性和可靠性。