NVIDIA (辉达)与Red Hat於Red Hat Summit宣布,结合NVIDIA GPU加速运算平台及Red Hat最新发表的OpenShift 4,协助用户针对人工智慧 (AI) 与资料科学领域的 Kubernetes 在地部署。
Kubernetes 管理工作以往需耗费 IT 管理者大半天的时间,如今不到一小时就能完成。对许多企业来说,透过 GPU 加速的 AI 与资料科学计画将能更快上线且更加轻松。
这项合作是基於许多企业仰赖AI与资料科学将巨量资料转化为可供叁考使用的情资,然而有意义的AI与资料分析需借助GPU运算的力量,以加快企业 IT 软体堆叠的运作。从 NVIDIA 驱动程式、容器执行阶段到应用程式框架,每个层面的软体都必须最隹化。
不过,加速AI与资料科学的工作负载只是第一步。对於许多IT组织来说,要把完成最隹化的软体堆叠直接部署在超大规模的 GPU 加速资料中心,不仅费时且往往成效不彰,而这就是 NVIIDA 与 Red Hat 联手合作的原因。
Red Hat 的 OpenShift 是领先业界的企业级 Kubernetes 平台。OpenShift 4 的强化让用户比以往更容易在丛集环境中部署 Kubernetes。特别是 Red Hat 在 Kubernetes Operators 所??注的投资,让许多资料中心的日常管理与应用程式的生命周期管理都能自动化,进而降低管理工作的复杂度。
NVIDIA 持续开发自己的 GPU operator 工具,让 IT 管理者透过 shell 指令自动完成许多管理工作,如安装装置的驱动程式、确保资料中心所有节点的 GPU 容器执行时间都妥善设定以及监控各个 GPU。
透过 NVIDIA 与 Red Hat 的合作,用户设定好丛集之後,只须执行 GPU operator 工具,便能针对丛集中所有运行节点加入必要的关联性以简化整个程序。如同启用新的云端资源一样,企业可以轻松地使用 GPU 加速资料中心丛集以及透过 OpenShift 4 运作系统。