Las instancias Inf2 de Amazon EC2 ya están disponibles en Corea

Publicado en: 7 de may de 2025

A partir de hoy, las instancias Inf2 de Amazon Elastic Compute Cloud (Amazon EC2), optimizadas para la IA generativa, estarán disponibles de forma general en la región de AWS Asia-Pacífico (Seúl). Las instancias Inf2 de Amazon EC2 ofrecen costos de inferencia hasta un 40 % más bajos que otras instancias de Amazon EC2 comparables.

Puede utilizar las instancias de Inf2 para ejecutar aplicaciones conocidas, como el resumen de texto, la generación de código, la generación de video e imágenes, el reconocimiento de voz, la personalización, etc. Las instancias Inf2 son las primeras instancias optimizadas para inferencias de Amazon EC2 que introducen una inferencia distribuida escalable compatible con NeuronLink, una interconexión de alta velocidad y sin bloqueo. Las instancias Inf2 ofrecen hasta 2,3 petaflops y hasta 384 GB de memoria total del acelerador con un ancho de banda de 9,8 TB/s.

El SDK de AWS Neuron se integra de forma nativa con los marcos de machine learning más conocidos, por lo que puede seguir utilizando los marcos existentes para implementarlos en Inf2. Los desarrolladores pueden empezar a utilizar las instancias Inf2 mediante las AMI de deep learning de AWS, los contenedores de deep learning de AWS o servicios administrados como Amazon Elastic Container Service (Amazon ECS), Amazon Elastic Kubernetes Service (Amazon EKS) y Amazon SageMaker.

Las instancias Inf2 ahora están disponibles en cuatro tamaños: inf2.xlarge, inf2.8xlarge, inf2.24xlarge e inf2.48xlarge en 14 regiones de AWS como instancias bajo demanda, instancias reservadas e instancias de spot, o como parte de un Savings Plan.

Para obtener más información sobre las instancias Inf2, consulte la página web de instancias Inf2 de Amazon EC2 y la documentación de AWS Neuron.