人工智能(AI)的编程技能正不断进步,但尚未完美。近期,BuzzFeed资深数据科学家Max Woolf通过实验发现,通过持续给予大型语言模型(LLM)“写更好代码”的提示,AI确实能产出更高质量的代码。这一成果引起了广泛关注,众多业界知名AI科学家也表现出浓厚兴趣,并强调了迭代和提示词设计的重要性。

在Woolf的实验中,他使用Claude3.5Sonnet版本的AI模型完成了一系列编程任务。最初,他向模型提出一个简单的编程问题:如何在百万个随机整数中找出各位数之和为30的最小值与最大值之间的差。Claude接受任务后,生成了满足要求的代码,但Woolf认为代码仍有改进空间。

image.png

随后,Woolf决定在每次生成代码后,都通过“写更好代码”的提示,让Claude进行迭代优化。第一次迭代后,Claude将代码重构为面向对象的Python类,并实现了两项显著优化,运行速度提升了2.7倍。第二次迭代中,Claude加入了多线程处理和向量化计算,最终使代码运行速度达到基础版本的5.1倍。

然而,随着迭代次数的增加,代码质量提升的速度逐渐放缓。经过多轮优化后,尽管模型尝试使用一些更复杂的技术,如JIT编译和异步编程,但某些迭代反而导致性能下降。最终,Woolf的实验揭示了迭代提示的潜力和局限性,引发了人们对AI编程未来的新思考。

这项研究不仅展示了AI在编程领域的应用潜力,也提醒我们,尽管AI能通过迭代提升代码质量,但在实际应用中,如何合理设计提示词、平衡性能与复杂性,仍是一个值得深入探讨的话题。