日本跨国投资控股公司软银推出专为人工智能数据中心定制的软件堆栈——Infrinia AI云操作系统。该系统由软银旗下Infrinia团队设计,使数据中心运营商能够在多租户环境中提供Kubernetes即服务(KaaS),并推出推理即服务(Inf-aaS)。客户可通过简单API访问大型语言模型(LLMs),这些API可直接集成至运营商现有的GPU云服务中。


Infrinia云操作系统满足全球日益增长的需求


该软件堆栈有望降低总体拥有成本(TCO)并简化日常运维复杂性,尤其相较于内部开发方案及定制化堆栈更具优势。最终,Infrinia云操作系统承诺加速GPU云服务部署,同时支持AI生命周期的每个阶段——从模型训练到实时应用。

软银计划首先将该系统整合至现有GPU云服务,未来将逐步部署至全球海外数据中心及云平台。

从科学研究、机器人技术到生成式AI,众多行业对GPU驱动的AI需求正迅猛增长。随着用户需求日益复杂,GPU云服务提供商面临更大挑战。部分用户需要配备“抽象化GPU裸机服务器”的全托管系统,另一些用户则追求无需直接管理GPU的经济型AI推理方案,还有用户寻求更先进的架构——集中化AI模型训练与边缘化推理部署。

Infrinia AI云操作系统正是为应对这些挑战而设计,旨在最大化GPU性能,并简化GPU云服务的管理与部署。


Infrinia云操作系统能力


凭借其KaaS功能,软银最新软件堆栈能够自动化底层基础设施的每个层级——从低级服务器设置到存储、网络乃至Kubernetes本身。

该系统还能根据需求动态调整硬件连接与内存配置,支持GPU集群的快速创建、调整或撤销以适应不同AI工作负载。基于GPU物理邻接关系和NVIDIA NVLink域的自动化节点分配机制,可有效降低延迟并提升大规模分布式工作负载的GPU间带宽。Infrinia的Inf-aaS组件专为简化推理工作负载实施而设计,通过托管服务实现更快速、更具扩展性的AI模型推理访问。

通过简化运维复杂性并降低总体拥有成本,Infrinia AI云操作系统有望加速全球各行业基于GPU的AI基础设施普及进程。