Publicado en: Jul 15, 2022
Amazon SageMaker amplía el acceso a nuevas instancias de ML para que los clientes puedan desplegar modelos en la mejor instancia para sus cargas de trabajo. Ahora, los clientes pueden usar las instancias ml.g5, ml.p4d y ml.c6i para las opciones de despliegue de modelos asincrónicos y en tiempo real.
La visión de AWS es poner el ML en las manos de los desarrolladores cotidianos y democratizar el acceso a la infraestructura de vanguardia disponible en un modelo de uso de bajo costo de pago por uso. Para poder entregar esta visión, estamos innovando a paso acelerado para ofrecer continuamente la infraestructura de mejor desempeño y menor costo para las cargas de trabajo de ML.
- En comparación con las instancias G4dn, las instancias ml.g5 ofrecen hasta el triple de rendimiento y hasta un 40 % mejor rendimiento por costo unitario en la inferencia de machine learning. Son una solución rentable y de alto rendimiento para aquellos clientes que quieren usar bibliotecas de NVIDIA como TensorRT, CUDA y cuDNN para ejecutar sus aplicaciones de ML. Estas instancias son ideales para casos de uso como recomendaciones, chatbots, asistentes inteligentes y reconocimiento de imágenes. Las instancias ml.g5 están disponibles en el Este de EE. UU.(Norte de Virginia), Oeste de EE. UU. (Oregón) y Europa (Irlanda).
- Las instancias ml p4d ofrecen un rendimiento 2,5 veces mejor en promedio para los modelos de aprendizaje profundo, en comparación con las instancias P3 de las generaciones anteriores. La memoria de 40 GB por GPU junto a la compatibilidad para hasta 8 TB de almacenamiento local NVMe SSD permite el almacenamiento local de grandes modelos y conjuntos de datos para la inferencia de alto rendimiento de machine learning como grandes modelos de idioma y modelos de visión artificial. Las instancias ml.p4d están disponibles en el Este de EE. UU. (Norte de Virginia) y Oeste de EE. UU. (Oregón).
- Las instancias ml.c6i cuentan con procesadores Intel Xeon Scalable de tercera generación y ofrecen un rendimiento hasta un 15 % mejor por costo unitario en comparación con las instancias C5 para una amplia variedad de cargas de trabajo. Las instancias C6i también ofrecen nuevos tamaños más grandes con hasta 128 vCPUs y 256 GiB de memoria; esto permite a los clientes consolidar las cargas de trabajo en menos instancias. Las instancias C6i admiten las nuevas instrucciones de extensiones vectoriales avanzadas de Intel (AVX 512), Intel Turbo Boost e Intel Deep Learning Boost para mejorar más el desempeño específicamente para las cargas de trabajo de machine learning. Las instancias ml.c6i están disponibles en todas las regiones comerciales.
Para obtener información sobre estas instancias, consulte nuestra página de precios.