AIPress.com.cn报道
3月24日消息,在本周举行的阿姆斯特丹举行的 KubeCon Europe 大会上,英伟达宣布将其 动态资源分配(DRA)GPU驱动 捐赠给 云原生计算基金会(CNCF),实现社区主导开发和管理。该驱动旨在提升Kubernetes环境中AI工作负载的效率与灵活性,使开发者能够动态分配GPU资源、优化计算能力并支持大规模模型训练。
英伟达此次捐赠意味着原本由厂商控制的软件,将转为完全开源社区管理,为全球开发者提供更多创新空间,同时确保技术与现代云原生生态保持一致。CNCF首席技术官 Chris Aniszczyk 表示,此举是开源Kubernetes和AI基础设施的重要里程碑,将让高性能GPU编排变得可访问且易于使用。
同时,英伟达联合CNCF的 Confidential Containers 社区推出了支持GPU的 Kata Containers,在提供硬件加速的同时增强隔离和安全性,使AI工作负载能够在保密计算环境下运行。
在功能上,DRA驱动支持GPU资源的智能共享,包括英伟达 Multi-Process Service 与 NVIDIA Multi-Instance GPU 技术,并能通过 Multi-Node NVlink 连接多台系统,实现大规模AI模型训练。开发者可按需精确分配计算资源、内存及互联设置,从而提高部署效率和灵活性。
此次开源还伴随了英伟达多个AI基础设施项目的更新,包括 KAI Scheduler 上线CNCF Sandbox项目,以及 NemoClaw 与 OpenShell Runtime 等开源工具,用于安全运行自主AI代理和管理复杂AI工作负载。英伟达表示,开发者和企业可立即使用并为DRA驱动及相关开源项目贡献力量,以进一步推动企业级AI基础设施的标准化与创新。(AI普瑞斯编译)