近期,Sakana AI的研究团队在人工智能领域取得了重大突破,他们首次成功运用视觉语言基础模型(vision-language foundation models,FMs)实现了人工生命(Artificial Life,ALife)模拟的自动搜索。这项名为ASAL(Automated Search for Artificial Life,人工生命自动搜索)的新技术,为人工生命研究带来了革命性的改变,并有望加速该领域的发展。

传统的人工生命研究多依赖于人工设计和试错,而ASAL的出现改变了这一模式。该技术的核心是通过基础模型对生成的模拟视频进行评估,实现自动搜索有趣的ALife模拟。ASAL主要通过以下三种机制来发现生命形式:

image.png

有监督的目标搜索:通过文本提示寻找产生特定现象的模拟。例如,设定“一个细胞”或“两个细胞”等目标,系统会自动找出符合条件的模拟。开放性搜索:寻找能产生持续新颖性的模拟,有助于发现对人类观察者来说持续有趣的模拟。启发式搜索:寻找一组有趣且多样的模拟,揭示“外星世界”。

ASAL的通用性使其能够应用于多种ALife基质,包括Boids、粒子生命(Particle Life)、生命游戏(Game of Life)、Lenia和神经元胞自动机(Neural Cellular Automata)。在这些基质中,研究人员发现了前所未有的生命形式,如Boids中出现的奇异群集模式,Lenia中出现的新的自组织细胞,以及类似康威生命游戏的开放式细胞自动机。

此外,ASAL还支持对以往只能进行定性分析的现象进行定量分析。基础模型具有与人类相似的表示能力,使得ASAL能够以一种更符合人类认知的方式来衡量复杂性。例如,研究人员可以通过测量CLIP向量在模拟过程中的变化速度来量化Lenia模拟中的平台期。

image.png

该研究的创新之处在于利用了预训练的基础模型,特别是CLIP(对比语言-图像预训练)模型,来评估模拟的视频。CLIP模型通过对比学习,将图像和文本的表示对齐,使其能够理解人类对复杂性的概念。ASAL的方法不局限于特定的基础模型或模拟基质,这意味着它可以与未来的模型和基质兼容。

研究人员通过实验验证了ASAL的有效性,使用不同的基础模型(如CLIP和DINOv2)以及不同的ALife基质进行测试。结果表明,CLIP在生成符合人类认知的多样性方面略优于DINOv2,但两者都明显优于低级别的像素表示。这突显了使用深度基础模型表示来衡量人类多样性概念的重要性。

这项研究为人工生命领域开辟了新的道路,使得研究人员能够将精力集中于更高层次的问题,如如何最好地描述我们希望出现的现象,然后让自动化的过程去寻找这些结果。ASAL的出现,不仅能够帮助科学家发现新的生命形式,而且能够定量分析生命模拟中的复杂性和开放性。最终,这项技术有望帮助人们理解生命的本质,以及生命在宇宙中可能存在的所有形式。

项目代码:https://github.com/SakanaAI/asal/

论文地址:https://arxiv.org/pdf/2412.17799