近期,微软研究院携手卡内基梅隆大学的研究团队共同发布了一项新成果,揭示了知识工作者在使用生成性人工智能(例如Copilot和ChatGPT)过程中可能遇到的问题。研究团队对319名每周使用生成性AI的知识工作者进行了调查,深入分析了他们在使用这些工具时批判性思维的应用情况。

机芯大脑 人工智能

图源说明:该图片由AI生成,图片授权服务商为Midjourney

研究指出,对任务充满信心的工作者更倾向于对生成性AI的输出进行批判性分析。相反,对于那些对任务缺乏信心的人,他们往往满足于生成性AI的回答,不再进行深入思考。这一现象引起了研究者的注意,他们认为过度依赖AI工具可能会导致批判性思维能力的下降。

研究还提到,“对AI的信任与减少批判性思考的努力相关,而自信心则与增强批判性思考相关。” 这表明在设计企业AI工具时,需要考虑如何平衡这两者。研究者建议,AI工具应包含支持长期技能发展的机制,鼓励用户在与AI生成的内容互动时进行反思性思考。

此外,研究者强调,仅解释AI如何得出结论是不够的,好的AI工具还应通过主动的设计策略来促进用户的批判性思维,提供必要的支持。他们建议知识工作者在日常工作中运用批判性思维来验证AI的输出,避免过度依赖AI。

研究结论指出,随着AI逐渐融入我们的工作世界,知识工作者需要在信息收集和问题解决的基础技能上保持一定的能力,以防止对AI的过度依赖。他们应当接受培训,提升信息验证、回答整合和任务管理等技能。

该研究的论文将在2025年的人机交互会议上发布,研究团队希望通过此举引起对生成性AI影响的广泛关注。

重点提示:

🌟 研究发现,对生成性AI的信任可能导致知识工作者的批判性思维能力下降。

💡 自信心与批判性思维呈正相关,企业AI工具的设计应关注这一平衡。

📊 知识工作者应接受培训,保持基础信息收集与问题解决能力,避免过度依赖AI。