这已经很长一段时间了,但在他的GTC主题演讲中, Nvidia公司 CEO Jensen Huang今天宣布支持Google孵化 Kubernetes 容器 Nvidia GPU上的编排系统。
这里的想法是优化在超大规模数据中心中使用GPU–在这种环境中,您可以使用数百或数千个GPU加速机器学习过程 – 并允许开发人员将这些容器放到多个云中,而无需制作 任何变化。
“现在我们拥有了所有这些加速的框架和所有这些加速的代码,我们如何将它部署到数据中心的世界?”Jensen问道。 “好吧,事实证明这是所谓的 Kubernetes 。 […]这将带来如此多的喜悦。 非常喜悦。“
Nvidia正在为Kubernetes开源社区贡献其GPU增强功能。 机器学习的工作量往往很大,无论是在需要的计算和驱动它的数据方面。 Kubernetes帮助协调这些工作负载,并且借助此更新,协调器现在可以识别GPU。
“Kubernetes现在可以识别GPU。 Docker容器现在是GPU加速的。 您已经了解了我所谈论的所有GPU加速的框架。 现在你已经获得了GPU加速的所有这些推理工作负载。 所有这些云中都有Nvidia GPU。 而且你有这个美妙的系统编排层叫做Kubernetes。 生活是完整的,“黄说(听众笑)。
值得注意的是,在今天宣布之前,Kubernetes已经对GPU加速提供了一些支持。 例如,Google已经在其中支持GPU Kubernetes引擎 。