在开源AI领域,不同于大型科技公司的技术力量,AI2(前身为Allen人工智能研究所)正在通过一系列创新举措努力缩小这一差距。其中,其最新推出的Tülu3后训练方案,将“原始”大语言模型转化为实用AI系统的难度降低了不少。

与普遍认知相反,基础语言模型在经过预训练后并不能直接应用。实际上,后训练过程是决定模型最终价值的关键环节。在这一阶段,模型从一个“无所不知”却缺乏判断力的模型,转变为具备特定功能的实用工具。

image.png

长期以来,各大企业对于后训练方案一直保持神秘。尽管任何人都能使用最新技术构建模型,但要使模型在特定领域(如心理咨询或研究分析)发挥实际作用,则需要专业的后训练技术。就连Meta的Llama这样的“开源”项目,其原始模型和训练方法也仍然处于保密状态。

Tülu3的推出改变了这种局面。该后训练方案涵盖了从主题选择到数据治理,强化学习到微调等各个重要流程。用户可以根据具体需求调整模型的能力,比如增强数学和编程技能,或降低多语言处理的优先级。

AI2的测试结果表明,经过Tülu3训练的模型性能已达到顶级开源模型的标准。这一突破具有里程碑意义:它为企业提供了完全自主可控的解决方案。特别是对医疗研究等需要处理敏感数据的机构而言,不再需要依赖第三方API或定制服务,能够在本地完成全流程训练,既节省成本,又保障隐私。

AI2不仅发布了这一方案,还率先在自有产品中应用其内容。目前的测试结果基于Llama模型,但他们已经计划推出基于自身OLMo并经过Tülu3训练的新模型,这将是一个真正从头到尾完全开源的解决方案。

这一技术的开源展示了AI2对推动AI民主化的坚定信念,并且为整个开源AI社区注入了强大的动力。这使我们更接近构建一个开放、透明的AI生态系统的目标。