Help us learn about your current experience with the documentation. Take the survey.
GPU 托管运行器
- Tier: Premium, Ultimate
- Offering: GitLab.com
GitLab 提供 GPU 托管运行器,用于加速 ModelOps 或高性能计算 (HPC) 中的密集计算工作负载,例如作为 ModelOps 工作负载一部分的大语言模型 (LLMs) 的训练或部署。
GitLab 仅在 Linux 上提供 GPU 运行器。有关这些运行器工作原理的更多信息,请参阅 Linux 上的托管运行器
GPU 运行器可用的机器类型
以下机器类型适用于 Linux x86-64 上的 GPU 运行器。
| 运行器标签 | vCPU 数量 | 内存 | 存储 | GPU | GPU 内存 |
|---|---|---|---|---|---|
saas-linux-medium-amd64-gpu-standard |
4 | 15 GB | 50 GB | 1 个 Nvidia Tesla T4(或类似) | 16 GB |
带有 GPU 驱动程序的容器镜像
与 Linux 上的 GitLab 托管运行器一样,您的作业在具有自带镜像策略的隔离虚拟机 (VM) 中运行。GitLab 将主机 VM 中的 GPU 挂载到您的隔离环境中。要使用 GPU,您必须使用安装了 GPU 驱动程序的 Docker 镜像。对于 Nvidia GPU,您可以使用他们的 CUDA Toolkit。
.gitlab-ci.yml 文件示例
在以下 .gitlab-ci.yml 文件示例中,使用了 Nvidia CUDA 基础 Ubuntu 镜像。在 script: 部分,您安装 Python。
gpu-job:
stage: build
tags:
- saas-linux-medium-amd64-gpu-standard
image: nvcr.io/nvidia/cuda:12.1.1-base-ubuntu22.04
script:
- apt-get update
- apt-get install -y python3.10
- python3.10 --version如果您不想每次运行作业时都安装 Tensorflow 或 XGBoost 等大型库,您可以创建自己的镜像,预安装所有必需的组件。 观看此演示,了解如何利用 GPU 托管运行器训练 XGBoost 模型:
GitLab GPU 托管运行器视频演示:使用 GitLab 训练 XGBoost 模型。