Publicado en: Apr 22, 2020

Los clientes de Amazon SageMaker ahora pueden seleccionar las instancias Inf1 cuando implementan sus modelos de aprendizaje automático para obtener inferencias en tiempo real. Amazon SageMaker es un servicio completamente administrado que permite a desarrolladores y científicos de datos crear, entrenar e implementar a cualquier escala modelos de aprendizaje automático de forma rápida y sencilla. Con las instancias Inf1 en Amazon SageMaker, los clientes pueden ejecutar aplicaciones de inferencias de aprendizaje profundo y aprendizaje automático a gran escala, como reconocimiento de imagen, reconocimiento de voz, procesamiento de lenguaje natural, personalización, previsión y detección de fraudes con alto rendimiento y costos considerablemente más bajos. 

Las instancias Inf1 se crean desde cero para admitir las aplicaciones de inferencia de aprendizaje automático y ofrecen hasta 16 chips AWS Inferentia para aprendizaje automático diseñados y creados por AWS a fin de optimizar costos en torno a las inferencias de aprendizaje profundo. Los chips Inferencia se proporcionan con los últimos procesadores personalizados escalables Intel® Xeon® de segunda generación y con redes de hasta 100 Gbps a fin de ofrecer alto rendimiento y el costo más bajo del sector en aplicaciones de inferencias de aprendizaje automático. Con 1 a 16 chips AWS Inferentia por instancia, las instancias Inf1 pueden aumentar en rendimiento hasta 2000 teraoperaciones por segundo (TOPS), entregar un rendimiento hasta tres veces mayor y un costo hasta un 45 % más bajo por inferencia en comparación con las instancias de GPU de AWS. La memoria de gran tamaño en los chips AWS Inferentia que se utilizan en las instancias Inf1 permite almacenar en caché modelos de aprendizaje automático directamente en el chip. Esto elimina la necesidad de acceder a recursos de memoria externos durante la inferencia, ofreciendo una baja latencia y el buen rendimiento de las inferencias. Para obtener información acerca de las instancias Inf1, visite las páginas de productos.  

Las instancias Inf1 en Amazon SageMaker ya se encuentran disponibles en las regiones de AWS en el Norte de Virginia y Oregón en EE.UU. y en cuatro tamaños: ml.inf1.xlarge, ml.inf1.2xlarge, ml.inf1.6xlarge y ml.inf1.24xlarge. Los modelos de aprendizaje automático desarrollados con los marcos TensorFlow y MxNet se pueden implementar en las instancias Inf1 en Amazon SageMaker para inferencias en tiempo real. A fin de utilizar las instancias Inf1 en Amazon SageMaker, puede usar Amazon SageMaker Neo para compilar los modelos entrenados y seleccionar las instancias Inf1 para implementar el modelo compilado en Amazon SageMaker.  

Para obtener más información, consulte la guía para desarrolladores de Amazon SageMaker. Si desea conocer más acerca de cómo implementar los modelos de aprendizaje automático en las Instancias Inf1 de Amazon SageMaker, consulte los ejemplos de Amazon SageMaker en Github.  

Modificado el 27/8/2021: Con el fin de garantizar una buena experiencia, los enlaces caducados de esta publicación se han actualizado o eliminado de la publicación original.