由 NVIDIA L40S Tensor Core GPU 提供支持的 Amazon EC2 G6e 实例是用于部署生成式人工智能模型的最具成本效益的 GPU 实例,也是用于空间计算工作负载的性能最高的 GPU 实例。与 G6 实例相比,G6e 提供了高出 2 倍的 GPU 内存 (48 GB) 和 2.9 倍的 GPU 内存带宽。G6e 实例的性能与 G5 实例相比最多可提升 2.5 倍。
客户可以使用 G6e 实例部署具有高达 13B 参数的大型语言模型 (LLM),以及用于生成图像、视频和音频的扩散模型。此外,G6e 实例将使客户能够使用 NVIDIA Omniverse 为空间计算工作负载创建更大、更身临其境的 3D 模拟和数字孪生。
G6e 实例配备了多达 8 个 NVIDIA L40S Tensor Core GPU(GPU 总内存为 384 GB,每个 GPU 内存为 48GB)和第三代 AMD EPYC 处理器。还支持最多 192 个 vCPU、最高 400Gbps 的网络带宽和最多 1.536 TB 的系统内存,以及最多 7.6 TB 的本地 NVMe SSD 存储。
好处
高性能且具有成本效益,适用于人工智能推理
与 P4d 实例相比,G6e 实例提供了高达 1.2 倍的 GPU 内存,这使客户能够部署 LLM 和扩散模型,同时节省高达 20% 的成本。G6e 实例由采用第四代 Tensor 核心的 L40S GPU 提供支持,是高性能且具成本效益的解决方案,适用于想要使用诸如 TensorRT、CUDA 和 cuDNN 之类的 NVIDIA 库来运行其机器学习应用程序的客户。
经济有效地训练,适用于中等复杂的人工智能模型
与 P4d 实例相比,G6e 实例提供相同的网络带宽 (400 Gbps) 和高达 1.2 倍的 GPU 内存。这使其非常适合经济高效地单节点微调或训练小型模型。
适合空间计算工作负载的最高性能
G6e 实例拥有 384 GB 的 GPU 总内存,并搭配 NVIDIA 的第三代光线追踪核心,可为空间计算工作负载提供最高的性能。网络带宽达 400 Gbps,这提高了接收真实输入的空间计算应用程序的实时性能。这些实例为客户带来了新的机会,使他们能够为工厂规划、机器人仿真和网络优化等工作负载创建更广泛的三维数字孪生。
资源效率最大化
G6e 实例基于 AWS Nitro System 构建,该系统是专用硬件和轻量管理程序的组合,几乎将主机硬件的所有计算和内存资源都提供给您的实例,从而提供更好的整体性能和安全性。借助 G6e 实例,Nitro 系统可以在穿透模式下预置 GPU,从而提供与裸机相当的性能。
功能
NVIDIA L40S Tensor Core GPU
G6e 实例采用 NVIDIA L40S Tensor Core GPU,融合了强大的人工智能计算与一流的图形和媒体加速能力。每个实例最多可配备 8 个 L40S Tensor Core GPU(每个 GPU 拥有 48 GB 内存)、第三代 NVIDIA RT 核心、第四代 NVIDIA RT Tensor 核心和 DLSS 3.0 技术。
NVIDIA 驱动程序和库
G6e 实例可为客户提供 NVIDIA RTX Enterprise 和游戏驱动程序,无需额外付费。NVIDIA RTX Enterprise 驱动程序可用于为各种图形密集型工作负载提供高质量虚拟工作站。NVIDIA 游戏驱动程序可为游戏开发提供无可比拟的图形和计算支持。此外,G6e 实例还支持 CUDA、cuDNN、NVENC、TensorRT、cuBLAS、OpenCL、DirectX 11/12、Vulkan 1.3 和 OpenGL 4.6 库。
高性能联网和存储
G6e 实例提供高达 400 Gbps 的网络吞吐量,这使其能够满足机器学习推理和图形密集型应用程序的低延迟需求。每个 GPU 拥有 48 GB 内存,系统内存和本地 NVMe SSD 存储分别高达 1.536 TB 和 7.6 TB,这使本地存储高性能机器学习训练和推理中的大型模型和数据集成为可能。此外,G6e 实例还可以本地存储大型视频文件,从而提高图形性能,并且能够渲染更大、更复杂的视频文件。
基于 AWS Nitro System 构建
G6e 实例依托 AWS Nitro System 构建,该系统是丰富的构建数据块集合,可将许多传统虚拟化功能卸载到专用硬件和软件,实现高性能、高可用性和高安全性,同时还可降低虚拟化开销。
产品详细信息
实例大小 | GPU | GPU 内存 (GiB) | vCPU | 内存 (GiB) | 存储 (GB) | 网络带宽 (Gbps) | EBS 带宽 (Gbps) |
g6e.xlarge | 1 | 48 | 4 | 32 | 250 | 最高 20 | 最高 5 |
g6e.2xlarge | 1 | 48 | 8 | 64 | 450 | 最高 20 | 最高 5 |
g6e.4xlarge | 1 | 48 | 16 | 128 | 600 | 20 | 8 |
g6e.8xlarge | 1 | 48 | 32 | 256 | 900 | 25 | 16 |
g6e.16xlarge | 1 | 48 | 64 | 512 | 1900 | 35 | 20 |
g6e.12xlarge | 4 | 192 | 48 | 384 | 3800 | 100 | 20 |
g6e.24xlarge | 4 | 192 | 96 | 768 | 3800 | 200 | 30 |
g6e.48xlarge | 8 | 384 | 192 | 1536 | 7600 | 400 | 60 |
客户评价
Leonardo.AI 提供了一款利用生成式人工智能技术的内容制作套件。
“Leonardo.Ai 拥有 2000 多万用户,每天生成 450 多万张新图片。自发布以来,用户已经在我们的平台上生成了 20 多亿张图片,并训练了 40 多万个自定义的生成式人工智能模型。Amazon EC2 G6e 实例的价格比现有 P4d 实例便宜约 25%,但图片生成推理的性能相当。更高的性能使我们能够释放创造力并加快内容制作,这反过来又为我们不断增长的用户群提供了更高质量的体验。”
Peter Runham,Leonardo.Ai 首席技术官
开始使用 G6e 实例
使用 DLAMI 或 Deep Learning Containers
DLAMI 可以为机器学习从业人员和研究人员提供基础设施和各种工具,从而加快在云中进行任意规模的深度学习的速度。Deep Learning Containers 是预先安装了深度学习框架的 Docker 映像,可以让您跳过从头构建和优化环境的复杂流程,从而简化自定义 ML 环境的部署。
使用 Amazon EKS 或 Amazon ECS
如果您更愿意通过容器编排服务管理自己的容器化工作负载,则可以使用 Amazon EKS 或 Amazon ECS 部署 G6e 实例。
使用 AMI 处理图形工作负载
您可以使用 AWS 和 NVIDIA 提供的各种亚马逊机器映像 (AMI),其中安装有 NVIDIA 驱动程序。