Ai专栏 121 次浏览 MiniMax-01:400万token长文本,挑战Transformer-1 MiniMax-01发布,挑战Transformer,实现400万token长文本,性能追平顶尖模型,线性注意力大幅降低成本。 查看全文
新闻热点 75 次浏览 MiniMax-01系列开源:突破性线性注意力机制 MiniMax开源全新系列模型MiniMax-01,实现线性注意力机制,性能媲美海外顶尖模型,支持长上下文,提供高效API服务。 查看全文