当前标签

性能提升

小模型凭借更长思考时间超越大模型的研究进展

小模型在给定足够的思考时间后,其性能有时可超越更大模型。通过有效的测试时计算扩展策略,如动态推理、迭代自我改进及多样性验证器树搜索,较小模型在解决复杂问题上展现出巨大潜力。HuggingFace 通过研究证明,优化小型大语言模型的思考时间可实现以较低计算资源获得更优性能,为AI模型的应用开辟了新方向。

查看全文

Meta发布Llama3.3:700亿参数的高效大型语言模型揭秘

Meta推出的Llama 3.3是一个具有700亿参数的大型语言模型,输入成本比前代降低10倍,指令遵循能力强于GPT-4o和Claude 3.5 Sonnet。该模型支持8种语言,性能卓越,友好部署,适合中小开发团队。新增安全机制确保性能与责任并重,累计下载超过6.5亿次,标志着开源AI的广泛应用。Llama 3.3已在Ollam模型库中上线,方便直接下载与部署。

查看全文
加载更多