Los bloques de capacidad de Amazon EC2 ahora admiten extensiones y tiempos de inicio instantáneos

Publicado en: 25 de nov de 2024

Hoy, Amazon Web Services anuncia tres nuevas características para los bloques de capacidad de ML de Amazon Elastic Compute Cloud (Amazon EC2) que le permiten obtener acceso casi instantáneo a las instancias de chips de GPU y ML a través de bloques de capacidad, extender la duración de los bloques de capacidad y reservar bloques de capacidad para períodos más largos de hasta seis meses. Con estas nuevas características, tiene más opciones para aprovisionar la capacidad de chips de GPU y ML para satisfacer sus necesidades de carga de trabajo de machine learning (ML).

Con los bloques de capacidad, puede reservar la capacidad de los chips de GPU y ML en tamaños de clúster de una a 64 instancias (512 GPU o 1024 chips de Trainium), lo que le brinda la flexibilidad de ejecutar una amplia variedad de cargas de trabajo de ML. A partir de hoy, puede aprovisionar bloques de capacidad que comiencen en cuestión de minutos, lo que le permitirá acceder rápidamente a la capacidad de los chips de GPU y ML. También puede ampliar su bloque de capacidad cuando su trabajo de ML demore más de lo previsto, lo que garantiza un acceso ininterrumpido a la capacidad. Por último, para los proyectos que requieren capacidad de los chips de GPU o ML durante períodos más prolongados, ahora puede aprovisionar bloques de capacidad durante un máximo de seis meses, lo que le permite obtener capacidad solo durante el tiempo que necesita.

Los bloques de capacidad de EC2 están disponibles para las instancias P5e, P5, P4d y Trn1 en el Este de EE. UU. (Norte de Virginia y Ohio), Oeste de EE. UU. (Oregón) y Asia Pacífico (Tokio y Melbourne). Consulte la Guía del usuario para ver un desglose detallado de la disponibilidad de las instancias por región.

Para obtener más información, consulte la Guía del usuario de bloques de capacidad de Amazon EC2 para ML.