近期,数据动力公司(DDN)在发布会上推出了其全新的Infinia2.0对象存储系统,该系统专为人工智能(AI)训练与推理量身定制。据称,该系统能实现AI数据加速达100倍,以及云数据中心成本效率提升10倍,因此受到了业界的广泛关注。

DDN的首席执行官兼联合创始人亚历克斯・布扎里(Alex Bouzari)指出:“全球500强企业中有85家正在使用DDN的数据智能平台来支持他们的AI和高性能计算(HPC)应用。Infinia2.0将助力客户在数据分析和AI架构上实现更快模型训练与实时分析,并确保GPU效率和能耗的可持续性。”

机器人 AI 人工智能 222

图源备注:图片由AI生成,图片授权服务商Midjourney

DDN的联合创始人兼总裁保罗・布洛赫(Paul Bloch)补充道:“我们的平台已在全球多个最大的AI工厂和云环境中部署,并证实了其支持关键AI操作的能力。据悉,Elon Musk的xAI也是DDN的客户之一。”

Infinia2.0的设计以AI数据存储为核心。首席技术官斯文・厄梅(Sven Oehme)强调:“AI工作负载需要实时数据智能,以消除瓶颈,加速流程,并在复杂的模型列举、预训练和后训练、增强生成(RAG)、Agentic AI以及多模态环境中无缝扩展。”Infinia2.0旨在最大化AI价值,同时提供实时数据服务、高效的多租户管理、智能自动化和强大的AI原生架构。

该系统具有事件驱动的数据移动、多租户、硬件无关设计等特点,确保了高达99.999%的运行时间,并实现了最高10倍的持续在线数据压缩、容错网络擦除编码和自动化的服务质量(QoS)。Infinia2.0与Nvidia的Nemo、NIMS微服务、GPU、Bluefield3DPU和Spectrum-X网络结合,提高AI数据管道效率。

DDN声称,Infinia的带宽可达TBps,延迟低于毫秒,性能超越AWS S3Express。其他亮点包括,基于独立基准测试,Infinia在AI数据加速、AI工作负载处理速度、元数据处理和对象列表处理方面均实现100倍提升,AI模型训练和推理查询速度提升25倍。

Infinia系统支持从TB到EB的规模扩展,支持超过100,000个GPU和100万个并发客户端,为大规模AI创新奠定坚实基础。DDN强调,其系统在实际数据中心和云部署中表现出色,可在10到超过100,000个GPU的范围内实现无与伦比的效率和成本节约。

超级微型公司(Supermicro)的首席执行官查尔斯・梁(Charles Liang)表示:“通过与Supermicro的高端服务器解决方案相结合,DDN的数据智能平台Infinia2.0共同打造了全球最大的AI数据中心之一。”这一合作可能与xAI的Colossus数据中心扩展有关。