Preguntas frecuentes sobre Amazon SageMaker

Aspectos generales

SageMaker es un servicio completamente administrado para preparar datos y crear, entrenar e implementar modelos de machine learning (ML) para cualquier caso de uso con infraestructura, herramientas y flujos de trabajo completamente administrados.

Para ver una lista de las regiones admitidas por SageMaker, consulte la página de servicios regionales de AWS. Asimismo, para obtener más información, consulte Puntos de conexión regionales en la guía de referencia general de AWS.

SageMaker está diseñado para ofrecer alta disponibilidad. No hay periodos de mantenimiento ni tiempos de inactividad programados. La API de SageMaker se pone en marcha en los centros de datos probados y de alta disponibilidad de Amazon, con la replicación de la pila de servicios configurada en tres instalaciones de cada región, a fin de proporcionar tolerancia a errores si se produce un error en el servidor o una interrupción en la zona de disponibilidad.

SageMaker almacena el código en volúmenes de almacenamiento de ML, protegidos por grupos de seguridad y, opcionalmente, cifrados en reposo.

SageMaker garantiza que los artefactos de los modelos de ML y otros artefactos del sistema estén cifrados tanto en tránsito como en reposo. Las solicitudes a la consola y la API de SageMaker se efectúan a través de una conexión segura (SSL). Transfiera roles de AWS Identity and Access Management a SageMaker para proporcionar permisos de acceso a recursos en su nombre para el entrenamiento y el despliegue. Puede usar buckets de Amazon Simple Storage Service (Amazon S3) cifrados para datos y artefactos de los modelos, así como también transferir una clave de AWS Key Management Service (AWS KMS) a los cuadernos de SageMaker, los trabajos de entrenamiento y los puntos de conexión para cifrar el volumen de almacenamiento de ML asociado. SageMaker también es compatible con Amazon Virtual Private Cloud (Amazon VPC) y con AWS PrivateLink.

SageMaker no utiliza ni comparte modelos, datos de entrenamiento o algoritmos. Sabemos que a los clientes les preocupa seriamente la confidencialidad y la seguridad de los datos. Es por ello que AWS permite controlar el contenido mediante herramientas sencillas y sólidas con las que se puede determinar dónde se almacenará ese contenido, proteger el contenido en tránsito y en reposo y administrar el acceso a los servicios y recursos de AWS de los usuarios. También implementamos controles técnicos y físicos diseñados para evitar el acceso no autorizado al contenido o su divulgación. Como cliente, se conserva la propiedad del contenido y se puede seleccionar qué servicios de AWS pueden procesar, almacenar y alojar el contenido. No accedemos al contenido ni lo usamos para ningún otro fin sin el consentimiento del cliente.

Paga los recursos de procesamiento de datos, almacenamiento y cómputo de ML que use para alojar el cuaderno, entrenar el modelo, realizar predicciones y registrar los resultados. Con SageMaker, podrá seleccionar el número y el tipo de instancias utilizadas para el cuaderno alojado, el entrenamiento y el alojamiento del modelo. Solo pagará por lo que consuma y a medida que lo haga. No se requieren pagos mínimos ni compromisos iniciales. Para obtener más información, consulte la página de precios de Amazon SageMaker y la calculadora de precios de Amazon SageMaker.

Hay muchas prácticas recomendadas que puede adoptar para optimizar el uso de los recursos de SageMaker. Algunos enfoques implican optimizaciones de la configuración y otros, soluciones programáticas. En esta publicación de blog, se ofrece una guía completa sobre este concepto, con tutoriales visuales y muestras de código.

SageMaker ofrece un flujo de trabajo integral y completo, pero puede continuar usando las herramientas existentes con SageMaker. Puede transferir fácilmente los resultados de cada etapa hacia y desde SageMaker en función de las necesidades de su empresa.

Sí. Puede utilizar R en las instancias de cuaderno de SageMaker, que incluyen un kernel R preinstalado y la biblioteca reticular. La biblioteca reticular ofrece una interfaz R para Amazon SageMaker Python SDK, lo que permite a los profesionales de ML crear, entrenar, ajustar y desplegar modelos R. 

Amazon SageMaker Studio proporciona una única interfaz virtual basada en la web donde puede realizar todos los pasos de desarrollo de ML. SageMaker Studio le brinda acceso completo, control y visibilidad en todos los pasos requeridos para preparar datos y crear, entrenar e implementar modelos. Puede cargar datos, crear cuadernos nuevos, entrenar y ajustar modelos, retroceder y avanzar entre los pasos para ajustar experimentos, comparar resultados e implementar modelos para la producción, todo de forma rápida y en un solo lugar, lo que aumenta su productividad. Todas las actividades de desarrollo de ML, que incluyen cuadernos, administración de experimentos, creación automática de modelos, depuración y generación de perfiles y detección de desviación de modelos, se pueden realizar dentro de la interfaz visual unificada de SageMaker Studio.

Amazon SageMaker Clarify ayuda a mejorar la transparencia del modelo mediante la detección de tendencias estadísticas en la totalidad del flujo de trabajo de machine learning. SageMaker Clarify revisa si hay desequilibrios durante la preparación de los datos, después del entrenamiento y de forma continua con el paso del tiempo. Además, incluye herramientas para explicar los modelos de aprendizaje automático y sus predicciones. Los resultados se pueden compartir mediante informes de explicabilidad.

La medición de las tendencias en los modelos de aprendizaje automático es el primer paso para mitigar dichas tendencias. La tendencia se puede medir antes y después del entrenamiento, al igual que las inferencias de un modelo implementado. Cada medición de una tendencia corresponde a una noción distinta de imparcialidad. Incluso la consideración de nociones simples de imparcialidad da lugar a muchas medidas diferentes que se pueden aplicar en diversos contextos. Debe elegir las nociones de tendencia y las métricas que son válidas para la aplicación y la situación que se están analizando. En la actualidad, SageMaker admite el procesamiento informático de diferentes métricas de tendencias para el entrenamiento de los datos (como parte de la preparación de los datos de SageMaker), para el modelo entrenado (como parte de Experimentos de Amazon SageMaker) y para las inferencias del modelo implementado (como parte del Monitor de modelos de Amazon SageMaker). Por ejemplo, antes del entrenamiento, proporcionamos métricas para verificar si los datos de entrenamiento son representativos (es decir, si un grupo cuenta con poca representación) y si hay diferencias en la distribución de etiquetas en los grupos. Luego del entrenamiento o durante la implementación, las métricas pueden ser útiles para determinar si el rendimiento del modelo difiere entre los grupos y, si es así, por cuánto difiere. Por ejemplo, comience comparando los índices de error (cuán probable es que la predicción de un modelo difiera de la verdadera etiqueta) o haga un desglose aún mayor para lograr precisión (cuán probable es que una predicción positiva sea correcta) y una recuperación (cuán probable es que el modelo etiquete de forma correcta un ejemplo positivo).

SageMaker Clarify está integrado a SageMaker Experiments para proporcionar un gráfico de la importancia de las características, que detalla la importancia de cada entrada del proceso general de toma de decisiones del modelo luego de que este se entrenó. Estos detalles pueden ayudar a determinar si la entrada de un modelo en particular posee más influencia de la que debería tener en el comportamiento general del modelo. SageMaker Clarify también efectúa explicaciones de las predicciones individuales disponibles a través de una API. 

RStudio en SageMaker es el primer RStudio Workbench completamente administrado en la nube. Puede iniciar rápidamente el entorno de desarrollo integrado (integrated development environment, IDE) ya conocido de RStudio y aumentar o disminuir los recursos informáticos subyacentes sin interrumpir su trabajo, lo cual facilita la creación de soluciones de análisis y ML en R a escala. Puede cambiar sin problemas entre el IDE de RStudio y los cuadernos de SageMaker Studio para el desarrollo de R y Python. Todo su trabajo, incluido el código, los conjuntos de datos, los repositorios y otros artefactos se sincronizan de manera automática entre los dos entornos para reducir el cambio de contexto e impulsar la productividad.

No se aplican cargos adicionales por utilizar SageMaker Studio. Solo paga los cargos subyacentes por computación y almacenamiento de los servicios que utilice dentro de SageMaker Studio.

Puede encontrar las regiones en las que se admite SageMaker Studio en laGuía para desarrolladores de Amazon SageMaker.

Gobernanza de ML

SageMaker proporciona herramientas de gobernanza de ML personalizadas en todo el ciclo de vida de ML. Con el Administrador de roles de Amazon SageMaker, los administradores pueden definir permisos mínimos en minutos. Las tarjetas de modelos de Amazon SageMaker facilitan el trabajo de capturar, recuperar y compartir información esencial de los modelos, desde la concepción hasta el despliegue, y el panel de modelos de Amazon SageMaker lo mantiene informado sobre el comportamiento de los modelos de producción, todo en un solo lugar. Para
obtener más información, consulte Gobernanza del ML con Amazon SageMaker.

Puede definir permisos mínimos en minutos con el administrador de roles de SageMaker. Proporciona un conjunto de permisos de referencia para actividades de ML y personas con un catálogo de políticas prediseñadas de IAM. Puede mantener los permisos de referencia o personalizarlos aún más según sus necesidades específicas. Con un par de indicaciones autoguiadas, puede ingresar rápidamente componentes de gobernanza comunes, como límites de acceso a la red y claves de cifrado. El administrador de roles de SageMaker generará la política de IAM de manera automática. Puede detectar el rol generado y las políticas asociadas mediante la consola de AWS IAM. Para adaptar aún más los permisos a su caso de uso, asocie sus políticas de IAM administradas al rol de IAM que cree con el administrador de roles de SageMaker. También puede agregar etiquetas para identificar el rol y organizar todos los servicios de AWS.

Las tarjetas de modelos de SageMaker lo ayudan a centralizar y estandarizar la documentación de los modelos a lo largo del ciclo de vida de ML al crear una única fuente de confianza para la información de cada modelo. Las tarjetas de modelos de SageMaker completan automáticamente los detalles de entrenamiento para acelerar el proceso de documentación. También puede agregar detalles como el propósito del modelo y los objetivos de rendimiento. Puede asociar resultados de la evaluación de modelos a su tarjeta de modelo y proporcionar visualizaciones para obtener información clave sobre el rendimiento de los modelos. Las tarjetas de modelos de SageMaker pueden compartirse fácilmente con otras personas al exportarlas en formato PDF.

El panel de modelos de SageMaker le brinda una perspectiva general de los modelos y puntos de conexión implementados, lo cual le permite supervisar los recursos y las infracciones de comportamiento de los modelos en un solo panel. Le permite seguir el comportamiento de los modelos en cuatro dimensiones, incluida la calidad de modelos y datos, y la desviación de atribución de características y tendencias mediante su integración con el Monitor de modelos de SageMaker y SageMaker Clarify. El panel de modelos de SageMaker también proporciona una experiencia integrada para configurar y recibir alertas de trabajos de supervisión de modelos inactivos y faltantes y desviaciones en el comportamiento de los modelos en cuanto a la calidad del modelo, la calidad de los datos, la desviación de tendencias y la desviación de atribución de características. Puede inspeccionar aún más los modelos individuales y analizar factores que afectan el rendimiento de los modelos a lo largo del tiempo. Luego, puede hacer un seguimiento con profesionales de ML para tomar medidas correctivas.

Modelos básicos

SageMaker JumpStart lo ayuda a comenzar a utilizar ML de forma rápida y fácil. SageMaker JumpStart proporciona un conjunto de soluciones para los casos de uso más comunes que se pueden implementar fácilmente con solo unos pocos pasos. Las soluciones son totalmente personalizables y muestran el uso de las plantillas y las arquitecturas de referencia de AWS CloudFormation, de manera que pueda acelerar el proceso del ML. SageMaker JumpStart también brinda modelos básicos y admite el despliegue en un solo paso y el ajuste de más de 150 modelos populares de código abierto, como los modelos de transformador, de detección de objetos y de clasificación de imágenes. 

SageMaker JumpStart proporciona modelos patentados y públicos. Para obtener una lista de los modelos fundacionales disponibles, consulte Introducción a Amazon SageMaker JumpStart.

Puede acceder a los modelos básicos a través de SageMaker Studio, el SDK de SageMaker y la consola de administración de AWS. Para empezar a usar los modelos fundacionales patentados, debe aceptar las condiciones de venta de AWS Marketplace.

No. Sus datos de inferencia y entrenamiento no se utilizarán ni compartirán para actualizar o entrenar el modelo base que SageMaker JumpStart muestra a los clientes.

No. Los modelos patentados no permiten a los clientes ver los pesos y los scripts de los modelos.

Los modelos se pueden detectar en todas las regiones en las que está disponible SageMaker Studio, pero la capacidad de desplegar un modelo varía según la disponibilidad del modelo y de la instancia del tipo de instancia requerido. Consulte la disponibilidad en las regiones de AWS y la instancia requerida en la página de detalles del modelo en AWS Marketplace.

En el caso de los modelos patentados, se le cobrará el precio del software determinado por el proveedor del modelo y los cargos de infraestructura de SageMaker en función de la instancia utilizada. En el caso de los modelos disponibles públicamente, se le cobrarán cargos de infraestructura de SageMaker en función de la instancia utilizada. Para obtener más información, consulte los precios de Amazon SageMaker y AWS Marketplace.

La seguridad es la principal prioridad de AWS, y SageMaker JumpStart está diseñado para ser seguro. Es por ello que SageMaker permite controlar el contenido mediante herramientas sencillas y sólidas con las que se puede determinar dónde se almacenará ese contenido, proteger el contenido en tránsito y en reposo y administrar el acceso a los servicios y recursos de AWS de los usuarios.

  1. No compartimos la información de entrenamiento e inferencias de los clientes con los vendedores de modelos de AWS Marketplace. Del mismo modo, los artefactos del modelo del vendedor (por ejemplo, los pesos de los modelos) no se comparten con el comprador.
  2. SageMaker JumpStart no utiliza modelos de clientes, datos de entrenamiento ni algoritmos para mejorar su servicio y no comparte los datos de entrenamiento e inferencia de los clientes con terceros.
  3. En SageMaker JumpStart, los artefactos del modelo ML se cifran en tránsito y en reposo.
  4. De acuerdo con el Modelo de responsabilidad compartida de AWS, AWS es responsable de proteger la infraestructura global que ejecuta todos los AWS. Usted es responsable de mantener el control del contenido que está alojado en esta infraestructura.

Al utilizar un modelo de AWS Marketplace o SageMaker JumpStart, los usuarios asumen la responsabilidad de la calidad de los resultados del modelo y reconocen las capacidades y limitaciones descritas en la descripción individual del modelo.

SageMaker JumpStart incluye más de 150 modelos de código abierto con entrenamiento previo de PyTorch Hub y TensorFlow Hub. Para las tareas de visualización, como la clasificación de imágenes y la detección de objetos, puede usar los modelos como ResNet, MobileNet y Single-Shot Detector (SSD). Para las tareas de texto, como la clasificación de oraciones, la clasificación de textos o las respuestas a preguntas, puede usar los modelos como BERT, RoBERTa y DistilBERT.

Con SageMaker JumpStart, los científicos de datos y desarrolladores de ML pueden compartir artefactos de ML fácilmente, incluidos cuadernos y modelos, dentro de su organización. Los administradores pueden configurar un repositorio que sea accesible para un conjunto de usuarios definido. Todos los usuarios con permiso para acceder al repositorio pueden examinar, buscar y usar modelos y cuadernos, al igual que el contenido público dentro de SageMaker JumpStart. Los usuarios pueden seleccionar artefactos para entrenar modelos, implementar puntos de conexión y ejecutar cuadernos en SageMaker JumpStart.

Con SageMaker JumpStart, es posible acelerar el plazo de comercialización al crear aplicaciones de ML. Los modelos y cuadernos creados por un equipo dentro de su organización pueden compartirse fácilmente con otros equipos dentro de su organización con solo unos pasos. Compartir información interna y reutilizar activos puede aumentar de manera significativa la productividad de su organización.

Amazon SageMaker Clarify ahora admite la evaluación del modelo fundacional. Puede evaluar, comparar y seleccionar los mejores modelos fundacionales para su caso de uso específico. Solo tiene que elegir el modelo que desea evaluar para una tarea determinada, como la respuesta a preguntas o el resumen del contenido. Y luego, seleccionar los criterios de evaluación (por ejemplo, precisión, imparcialidad y solidez) y cargar su propio conjunto de datos de solicitudes o seleccione uno de los conjuntos de datos integrados disponibles públicamente. Para criterios subjetivos o contenido matizado que requiera un juicio humano sofisticado, puede optar por aprovechar su propio personal o utilizar personal proporcionado por AWS para revisar las respuestas. Una vez finalizado el proceso de configuración, SageMaker Clarify ejecuta sus evaluaciones y genera un informe para que pueda comprender fácilmente el rendimiento del modelo en función de los criterios clave. Puede evaluar los modelos fundacionales en SageMaker JumpStart mediante el asistente de evaluación o cualquier modelo fundacional que no esté alojado en AWS mediante la biblioteca de código abierto.

ML de poco código

El Piloto automático de SageMaker es la primera capacidad automatizada de machine learning del sector que le brinda control y visibilidad totales de sus modelos de ML. El Piloto automático de SageMaker inspecciona automáticamente datos sin procesar, aplica procesadores de características, selecciona el mejor conjunto de algoritmos, entrena y ajusta múltiples modelos, hace un seguimiento de sus rendimientos y, luego, clasifica los modelos en función de su rendimiento, todo con tan solo unos clics. El resultado es el modelo con mejor desempeño que se puede implementar en tan solo una fracción del tiempo requerido habitualmente para el entrenamiento del modelo. Puede obtener visibilidad completa de la creación y el contenido del modelo, y el Piloto automático de SageMaker lo integra a SageMaker Studio. Puede explorar hasta 50 modelos diferentes generados por el Piloto automático de SageMaker dentro de SageMaker Studio, así que es fácil elegir el mejor modelo para su caso de uso. Al Piloto automático de SageMaker pueden usarlo personas sin experiencia en ML para producir fácilmente un modelo o bien desarrolladores experimentados para crear con rapidez un modelo de referencia en el que los equipos pueden iterar más adelante.

Sí. Puede detener un trabajo en cualquier momento. Cuando se detiene un trabajo del Piloto automático de SageMaker, todas las pruebas en curso se detendrán y no se iniciará ninguna prueba nueva.

SageMaker Canvas es un servicio sin código con una interfaz intuitiva e interactiva que le permite crear predicciones de precisión alta basadas en ML a partir de sus datos. SageMaker Canvas le permite acceder y combinar datos de una variedad de fuentes mediante una interfaz de usuario de arrastrar y soltar, lo cual limpia y prepara automáticamente los datos para minimizar la limpieza manual. SageMaker Canvas aplica una variedad de algoritmos de ML de vanguardia para encontrar modelos predictivos de alta precisión y proporciona una interfaz intuitiva para crear predicciones. Puede utilizar SageMaker Canvas para hacer predicciones mucho más precisas de diversas aplicaciones empresariales y colaborar fácilmente con analistas y científicos de datos de su empresa al compartir modelos, datos e informes. Para obtener más información sobre SageMaker Canvas, consulte las preguntas frecuentes sobre Amazon SageMaker Canvas.

Con SageMaker Canvas, paga en función del uso. SageMaker Canvas le permite capturar, explorar y preparar datos a partir de varias fuentes, entrenar modelos de ML de alta precisión con sus datos y generar predicciones. Hay dos componentes que determinan su factura: los cargos por sesión basados en la cantidad de horas que se usa o se inicia sesión en SageMaker Canvas y cargos por entrenar el modelo basados en el tamaño del conjunto de datos usado para crear el modelo. Para obtener más información, consulte la página de precios de Amazon SageMaker Canvas.

Flujos de trabajo de ML

Canalizaciones de Amazon SageMaker lo ayuda a crear flujos de trabajo de ML completamente automatizados desde la preparación de los datos hasta el despliegue del modelo, de manera que pueda escalar a miles de modelos de ML en la etapa de producción. Canalizaciones de SageMaker viene con un SDK de Python que se conecta a SageMaker Studio para que pueda aprovechar una interfaz visual y crear cada paso del flujo de trabajo. Luego, con una sola API, puede conectar cada paso para crear un flujo de trabajo completo. Canalizaciones de SageMaker se encarga de administrar los datos entre los pasos, empaquetar las recetas de códigos y organizar su ejecución, lo que reduce el tiempo de codificación de meses a unas pocas horas. Cada vez que se ejecuta un flujo de trabajo, se lleva un registro completo de los datos procesados y de las acciones realizadas para que los científicos de datos y los desarrolladores de machine learning puedan depurar los problemas con rapidez.

Canalizaciones de SageMaker proporciona un repositorio central de modelos entrenados llamado “registro de modelos”. Puede descubrir modelos y acceder al registro de modelos de forma visual con SageMaker Studio o, de forma programática, con el SDK de Python, lo que facilita la elección del modelo deseado que se implementará en la fase de producción.

Los componentes disponibles a través de SageMaker Studio, incluidos SageMaker Clarify, Amazon SageMaker Data Wrangler, Almacén de características de Amazon SageMaker, Experimentos de Amazon SageMaker, Depurador de Amazon SageMaker y Monitor de modelos de Amazon SageMaker, se pueden agregar a Canalizaciones de SageMaker.

Canalizaciones de SageMaker hace un seguimiento automático de todos los componentes del modelo y lleva un registro de auditoría de todos los cambios, por lo que elimina el seguimiento manual y ayuda a cumplir los objetivos de cumplimiento. Con Canalizaciones de SageMaker, puede hacer un seguimiento de datos, código, modelos entrenados y más.

No se aplican cargos adicionales por utilizar Canalizaciones de SageMaker. Solo paga por los servicios subyacentes de computación o cualquier otro servicio de AWS independiente que utilice en Canalizaciones de SageMaker.

Sí. Los componentes de Amazon SageMaker para Canalizaciones de Kubeflow son complementos de código abierto que permiten usar Canalizaciones de Kubeflow para definir flujos de trabajo de ML y usar SageMaker para los pasos de etiquetado de datos, entrenamiento e inferencia. Canalizaciones de Kubeflow es un complemento para Kubeflow que permite crear e implementar canalizaciones de ML completas, portables y escalables. Sin embargo, cuando se usa Canalizaciones de Kubeflow, los equipos de operaciones de ML deben administrar el clúster de Kubernetes con instancias de CPU y GPU, y mantener un nivel de uso elevado en todo momento para reducir los costos operativos. Maximizar el uso de un clúster por parte de los equipos de ciencia de datos es un desafío y sobrecarga a los equipos de operaciones de ML. Como alternativa a un clúster de Kubernetes optimizado para el ML, con los componentes de SageMaker para Canalizaciones de Kubeflow, es posible aprovechar las poderosas características de SageMaker, como el etiquetado de datos, los trabajos de ajuste de hiperparámetros y de entrenamiento distribuido a gran escala completamente administrados, el despliegue de modelos seguro y escalable en un solo clic y el entrenamiento rentable mediante instancias de spot de Amazon Elastic Compute Cloud (Amazon EC2), sin la necesidad de configurar ni administrar los clústeres de Kubernetes específicamente para ejecutar los trabajos de ML.

No se aplican cargos adicionales por utilizar los componentes de SageMaker para Canalizaciones de Kubeflow. 

Preparación de datos

SageMaker Data Wrangler reduce el tiempo que lleva agregar y preparar los datos para el ML. Desde una única interfaz en SageMaker Studio, puede importar datos desde Amazon S3, Amazon Athena, Amazon Redshift, AWS Lake Formation, el Almacén de características de Amazon SageMaker y Snowflake con solo unos pasos. También puede consultar e importar datos que se transfieren de más de 40 orígenes de datos y se registran en el Catálogo de datos de AWS Glue mediante Amazon AppFlow. SageMaker Data Wrangler cargará, agregará y mostrará de manera automática los datos sin procesar. Después de importar sus datos en SageMaker Data Wrangler, puede ver resúmenes de columnas e histogramas generados automáticamente. Luego, puede investigar más a fondo para comprender sus datos e identificar errores potenciales con el informe de detalles y calidad de datos de SageMaker Data Wrangler, el cual proporciona estadísticas resumidas y advertencias sobre la calidad de los datos. También puede ejecutar análisis de tendencias de SageMaker Clarify directamente desde SageMaker Data Wrangler para detectar posibles tendencias durante la preparación de los datos. A partir de ahí, puede usar las transformaciones prediseñadas de SageMaker Data Wrangler para preparar sus datos. Una vez que los datos están preparados, puede crear flujos de trabajo de ML completamente automatizados con Canalizaciones de Amazon SageMaker o importar esos datos al Almacén de características de Amazon SageMaker.

SageMaker Data Wrangler admite datos tabulares, de series temporales y de imágenes, y ofrece más de 300 transformaciones de datos preconfiguradas para preparar estas distintas modalidades de datos. Para los clientes que desean preparar datos de texto en Data Wrangler para casos de uso de PNL, Data Wrangler admite la biblioteca NLTK para que los clientes puedan preparar datos de texto creando sus propias transformaciones personalizadas en Data Wrangler.

Sin tener que escribir ni una línea de código, SageMaker Data Wrangler puede transformar los datos en nuevas características de forma automática. SageMaker Data Wrangler ofrece una selección de transformaciones de datos preconfiguradas, atribución de datos faltantes, cifrado one-hot y reducción de dimensionalidad mediante el análisis de componentes principales (PCA), al igual que transformadores específicos temporales. Por ejemplo, puede convertir una columna de campo de texto en una columna numérica con un solo paso. También puede escribir un fragmento de código desde la biblioteca de fragmentos de SageMaker Data Wrangler.

SageMaker Data Wrangler le permite comprender sus datos e identificar potenciales errores y valores extremos con un conjunto de plantillas robustas de visualización preconfiguradas. Los histogramas, los diagramas de dispersión y las visualizaciones específicas de ML, como la detección de filtraciones en los destinos, están disponibles sin necesidad de escribir ni una sola línea de código. También puede crear y editar sus propias visualizaciones.

Debe pagar por todos los recursos informáticos, de almacenamiento y de procesamiento de datos que use para SageMaker Data Wrangler. Puede revisar todos los detalles referidos a los precios de SageMaker Data Wrangler aquí. Como parte del nivel gratuito de AWS, también puede comenzar a utilizar SageMaker Data Wrangler de forma gratuita.

SageMaker Data Wrangler brinda una experiencia unificada que le permite preparar datos y entrenar sin problemas un modelo de machine learning en el Piloto automático de SageMaker. El Piloto automático de SageMaker crea, entrena y ajusta automáticamente los mejores modelos de ML en función de sus datos. Con el Piloto automático de SageMaker, seguirá conservando el control total y la visibilidad de sus datos y modelos. También puede usar características preparadas en SageMaker Data Wrangler con sus modelos existentes. Puede configurar los trabajos de procesamiento de SageMaker Data Wrangler para que se ejecuten como parte de la canalización de entrenamiento de SageMaker, ya sea al configurar el trabajo en la interfaz de usuario (IU) o exportar un cuaderno con el código de orquestación.

Puede configurar y lanzar trabajos de procesamiento de SageMaker directamente desde la IU de SageMaker Data Wrangler e incluso puede programar el trabajo de procesamiento de datos y aplicar parámetros a los orígenes de datos para transformar fácilmente nuevos lotes de datos a escala.

Una vez que ha preparado sus datos, SageMaker Data Wrangler proporciona diferentes opciones para promover su flujo de SageMaker Data Wrangler a producción y se integra sin problemas con las capacidades de CI/CD y MLOps. Puede configurar y lanzar trabajos de procesamiento de SageMaker directamente desde la IU de SageMaker Data Wrangler e incluso puede programar el trabajo de procesamiento de datos y aplicar parámetros a los orígenes de datos para transformar fácilmente nuevos lotes de datos a escala. Como alternativa, SageMaker Data Wrangler se integra sin problemas con el procesamiento de SageMaker y el contenedor de SageMaker Spark, lo cual le permite usar los SDK de SageMaker para integrar SageMaker Data Wrangler a su flujo de trabajo de producción.

Con solo unos pasos, SageMaker Data Wrangler divide y entrena un modelo XGBoost con hiperparámetros predeterminados. Según el tipo de problema, SageMaker Data Wrangler proporciona un resumen del modelo y de las características, y una matriz de confusión a fin de brindarle rápidamente información para que pueda iterar en los flujos de preparación de datos. 

SageMaker Data Wrangler admite varias técnicas de muestra, tales como elementos K, muestra aleatoria y muestra estratificada para importar datos, de modo que pueda transformar sus datos rápidamente mediante la IU de SageMaker Data Wrangler. Si usa conjuntos de datos grandes o amplios, puede aumentar el tamaño de instancia de SageMaker Data Wrangler para mejorar el rendimiento. Una vez que ha creado el flujo, puede procesar su conjunto de datos completo mediante los trabajos de procesamiento de SageMaker Data Wrangler.

Puede configurar el Almacén de características de SageMaker como destino para sus características preparadas en SageMaker Data Wrangler. Esto puede hacerse directamente en la IU o puede exportar un cuaderno generado específicamente para procesar datos con el Almacén de características de SageMaker como destino.

El almacén de características de SageMaker proporciona un repositorio central para las características de datos con lecturas y escrituras de baja latencia (milisegundos). Las características se pueden almacenar, recuperar, descubrir y compartir a través del almacén de características de SageMaker para facilitar su reutilización entre diferentes modelos y equipos con acceso y control seguros. El almacén de características de SageMaker admite tanto las características en línea como aquellas sin conexión generadas a través de canalizaciones por lotes o streaming. Admite la reposición de las características y proporciona tanto almacenes online como sin conexión para mantener la paridad entre las características utilizadas en la formación de modelos y la inferencia.

El Almacén de características de SageMaker mantiene la consistencia entre las características en línea y sin conexión de forma automática, sin necesidad de administración o código adicionales. El Almacén de características de SageMaker es una capacidad completamente administrada y mantiene la consistencia entre los entornos de formación y de inferencia.

El Almacén de características de SageMaker mantiene las marcas temporales de todas las características en todo momento. Esto ayuda a recuperar las características en cualquier periodo, ya sea por requisitos empresariales o de cumplimiento. Puede explicar las características del modelo y sus valores con facilidad desde el momento en que se crearon por primera vez hasta la actualidad mediante la reproducción del modelo de un momento determinado.

Las características sin conexión se utilizan para el entrenamiento debido a que se necesita tener acceso a volúmenes muy grandes durante un largo periodo. Estas características funcionan desde un repositorio de alto rendimiento y con un alto nivel de ancho de banda.

Las características en línea se utilizan en las aplicaciones necesarias para hacer predicciones en tiempo real. Las características en línea funcionan desde un repositorio de alto rendimiento con latencia en milisegundos de un solo dígito para realizar predicciones rápidas.

Puede comenzar a utilizar el almacén de características de SageMaker de forma gratuita, como parte del nivel gratuito de AWS. Con el Almacén de características de SageMaker, paga por escribir en el almacén de características y por el almacenamiento que use en el almacén de características en línea y las lecturas que haga desde él. Para obtener más información sobre los precios, consulte los precios de Amazon SageMaker.

SageMaker presenta dos ofertas de etiquetado de datos: Amazon SageMaker Ground Truth Plus y Amazon SageMaker Ground Truth. Ambas opciones permiten identificar datos sin procesar, como imágenes, archivos de texto y videos, y agregar etiquetas informativas para crear conjuntos de datos de entrenamiento de alta calidad para modelos de ML. Para obtener más información, consulte Etiquetado de datos de Amazon SageMaker.

Los datos geoespaciales representan características u objetos en la superficie de la Tierra. El primer tipo de datos geoespaciales son los datos de vectores, los cuales emplean geometrías bidimensionales como puntos, líneas o polígonos para representar objetos como carreteras y fronteras terrestres. El segundo tipo de datos geoespaciales son los datos ráster, como las imágenes capturadas por satélite, plataformas aéreas o datos de teledetección. Este tipo de datos usa una matriz de píxeles para definir dónde se ubican las características. Puede usar formatos ráster para almacenar datos variables. Un tercer tipo de datos geoespaciales son los datos de ubicación con etiquetas geográficas. Incluye puntos de interés, como la Torre Eiffel, publicaciones en redes sociales con etiquetas de ubicación, coordenadas de latitud y longitud, o diferentes estilos y formatos de direcciones de calles.

Las capacidades geoespaciales de SageMaker facilitan que los científicos de datos y los ingenieros de ML creen, entrenen e implementen modelos de ML para hacer predicciones mediante datos geoespaciales. Puede usar sus propios datos, como los datos satelitales de Planet Labs de Amazon S3, o adquirir datos de Open Data en AWS, Amazon Location Service y otros orígenes de datos geoespaciales de SageMaker.

El uso de las capacidades geoespaciales de SageMaker le permiten realizar predicciones sobre datos geoespaciales más rápidamente que las soluciones creadas por usted mismo. Las capacidades geoespaciales de SageMaker facilitan el acceso a los datos geoespaciales de sus lagos de datos de clientes existentes, conjuntos de datos de código abierto y otros orígenes de datos geoespaciales de SageMaker. Las capacidades geoespaciales de SageMaker minimizan la necesidad de crear una infraestructura personalizada y funciones de preprocesamiento de datos al ofrecer algoritmos especialmente diseñados para una preparación de datos, entrenamiento de modelos e inferencia eficientes. También puede crear y compartir visualizaciones y datos personalizados con su organización desde SageMaker Studio. Las capacidades geoespaciales de SageMaker incluyen modelos previamente entrenados para usos comunes en agricultura, bienes raíces, seguros y servicios financieros.

Creación de modelos

Los cuadernos de SageMaker Studio son cuadernos de Jupyter administrados, colaborativos y de inicio rápido. Los cuadernos de SageMaker Studio se integran con herramientas de ML especialmente diseñadas en SageMaker y otros servicios de AWS para un desarrollo completo de ML en SageMaker Studio, el IDE completo para ML.

Los cuadernos de SageMaker Studio ofrecen algunas características importantes que los diferencian de los cuadernos basados en instancias. Con los blocs de notas de Studio, puede lanzar blocs de notas rápidamente sin la necesidad de aprovisionar una instancia de forma manual ni de esperar a que esté operativa. El tiempo de inicio del lanzamiento de la interfaz de usuario para leer y poner en marcha un bloc de notas es más rápido que el de un bloc de notas basado en instancias.

También ofrecen la flexibilidad necesaria para elegir entre una gran colección de tipos de instancias en la interfaz de usuario en cualquier momento. No es necesario regresar a la consola de administración de AWS para iniciar nuevas instancias ni para efectuar transferencias a través de los blocs de notas.

Cada usuario dispone de un directorio principal aislado, independiente de una instancia en particular. Este directorio se monta automáticamente en todos los servidores de cuadernos y kernels cuando estos se inician, de manera que pueda acceder a ellos y otros archivos, incluso cuando cambie de instancias para visualizar y poner en marcha los cuadernos.

Los cuadernos de SageMaker Studio se encuentran integrados con AWS IAM Identity Center (sucesor de AWS SSO), lo que facilita el uso de sus credenciales organizativas para acceder a ellos. El uso compartido de los cuadernos es una característica integrada de los cuadernos de SageMaker Studio. Puede compartir sus cuadernos con sus colegas en un solo paso e incluso editar en conjunto un único cuaderno al mismo tiempo.

Los cuadernos de SageMaker Studio son cuadernos de Jupyter de un solo paso que se pueden iniciar con rapidez. Los recursos informáticos subyacentes son completamente elásticos, de forma que puede aumentar o disminuir los recursos disponibles y los cambios se producen automáticamente en segundo plano sin interrumpir el trabajo. SageMaker también permite compartir cuadernos con un solo paso. Comparta de manera fácil los cuadernos con otros usuarios y ellos recibirán el mismo cuaderno, almacenado en el mismo lugar.

Con los cuadernos de SageMaker Studio, puede iniciar sesión con las credenciales corporativas a través de IAM Identity Center. Compartir los cuadernos dentro de un equipo y con otros equipos es sencillo, ya que las dependencias necesarias para ponerlos en marcha se siguen automáticamente en imágenes de trabajo que se encapsulan con el cuaderno cuando este se comparte.

Los profesionales de ML pueden crear un espacio de trabajo compartido, en donde los compañeros de equipo pueden leer y editar juntos los cuadernos de SageMaker Studio. Al usar los espacios compartidos, los compañeros de equipo pueden editar en conjunto el mismo archivo de cuaderno, ejecutar código del cuaderno simultáneamente y revisar los resultados juntos para eliminar las idas y vueltas y agilizar la colaboración. En los espacios compartidos, los equipos de ML tienen soporte integrado para servicios como BitBucket y AWS CodeCommit, de modo que pueden administrar fácilmente diferentes versiones de su cuaderno y comparar los cambios a lo largo del tiempo. Todos los recursos que se creen desde el cuaderno, como experimentos y modelos de ML, se guardan automáticamente y se asocian con el espacio de trabajo específico donde se crearon, para que los equipos puedan mantenerse organizados y acelerar el desarrollo de los modelos de ML.

Los cuadernos de SageMaker Studio le brindan acceso a todas las características de SageMaker, como entrenamiento distribuido, entrenamiento de lotes, alojamiento y administración de experimentos. Puede acceder a otros servicios, como conjuntos de datos, en Simple Storage Service (Amazon S3), Amazon Redshift, AWS Glue, Amazon EMR o AWS Lake Formation desde los cuadernos de SageMaker.

Cuando se utilizan los cuadernos de SageMaker Studio, se paga por el cómputo y por el almacenamiento. Consulte los precios de Amazon SageMaker para ver los cargos por tipo de instancia de cómputo. Sus cuadernos y los artefactos asociados, como scripts y archivos de datos, se almacenan de forma persistente en Amazon Elastic File System (Amazon EFS). Consulte los precios de Amazon EFS para ver los cargos de almacenamiento. Como parte del nivel gratuito de AWS, puede comenzar a utilizar los cuadernos de SageMaker Studio de forma gratuita.

No. Puede crear y ejecutar varios blocs de notas en la misma instancia de cómputo. Solo pagará por la capacidad de cómputo que utilice, no por los elementos individuales. Puede obtener más información acerca de este tema en nuestra guía de medición.

Además de los cuadernos, también puede iniciar y ejecutar terminales y shells interactivos en SageMaker Studio, todo en la misma instancia de cómputo. Cada aplicación se pone en marcha dentro de un contenedor o una imagen. SageMaker Studio proporciona varias imágenes integradas personalizadas y preconfiguradas para tareas de ciencia de datos y ML. Puede obtener más información sobre el entorno de desarrollo de SageMaker Studio en la guía sobre el uso de los cuadernos de SageMaker Studio.

Puede usar tanto la interfaz visual de SageMaker Studio como la Consola de administración de AWS para monitorizar y apagar los recursos que usan los cuadernos de SageMaker Studio. Para obtener más información, consulte la documentación.

Sí, se le seguirá cobrando por la computación. El funcionamiento es similar a iniciar instancias de Amazon EC2 en la consola de administración de AWS y, luego, cerrar el navegador. Las instancias de Amazon EC2 se siguen poniendo en marcha y se le siguen cobrando cargos, a menos que apague explícitamente la instancia.

No, no se cobra la creación ni la configuración de un dominio de SageMaker Studio, lo cual incluye agregar, actualizar y eliminar perfiles de usuarios.

Como administrador, puede ver la lista de cargos desglosados de SageMaker, incluido SageMaker Studio, en la consola de facturación de AWS. En la Consola de administración de AWS para SageMaker, elija Services (Servicios) en el menú superior, escriba “billing” (facturación) en el cuadro de búsqueda, luego seleccione Billing (Facturación) en el menú desplegable y seleccione Bills (Facturas) en el panel izquierdo. En la sección “Details” (Detalles), puede seleccionar SageMaker para ampliar la lista de regiones y analizar detenidamente los cargos desglosados.

SageMaker Studio Lab es un entorno de desarrollo de ML gratuito que provee computación, almacenamiento (hasta 15 GB) y seguridad (todo sin cargo) para cualquier persona que quiera aprender y experimentar con ML. Todo lo que necesita para empezar es un ID de correo electrónico válido; no es necesario configurar una infraestructura o administrar la identidad o el acceso ni registrarse en una cuenta de AWS. SageMaker Studio Lab acelera la creación de modelos a través de su integración con GitHub y viene preconfigurado con las herramientas, los marcos de trabajo y las bibliotecas de ML más populares para que pueda comenzar de inmediato. SageMaker Studio Lab automáticamente guarda su trabajo para que no tenga que volver a empezar entre sesiones. Es tan fácil como cerrar su ordenador portátil y volver más tarde.

 SageMaker Studio Lab es para aquellos estudiantes, investigadores y científicos de datos que necesitan un entorno de desarrollo de cuadernos gratuito que no requiera configuración para sus clases ni experimentos con ML. SageMaker Studio Lab es ideal para los usuarios que no necesitan un entorno de producción, pero sí desean un subconjunto de la funcionalidad de SageMaker para mejorar sus habilidades de ML. Las sesiones de SageMaker se guardan automáticamente de modo que los usuarios puedan retomar su proyecto donde lo dejaron para la sesión de cada usuario.

SageMaker Studio Lab es un servicio incorporado en AWS que usa muchos de los mismos servicios principales que utiliza Amazon SageMaker Studio, como Amazon S3 y Amazon EC2. A diferencia de otros servicios, los clientes no necesitan una cuenta de AWS. En lugar de eso, crean una cuenta específica para SageMaker Studio Lab con una dirección de correo electrónico. Esto le dará al usuario acceso a un entorno limitado (15 GB de almacenamiento y sesiones de 12 horas) para que pongan en marcha blocs de notas de ML.

SageMaker Canvas es un servicio visual de arrastrar y soltar que le permite a los analistas empresariales crear modelos de ML y generar predicciones precisas sin tener que escribir ningún código ni necesitar experiencia en ML. SageMaker Canvas facilita el acceso y la combinación de datos de diversos orígenes, limpia automáticamente los datos y aplica diversos ajustes de datos, y crea modelos de ML para generar predicciones precisas en un solo paso. También puede publicar resultados, explicar e interpretar modelos y compartir modelos con otras personas de su organización para que los revisen.

SageMaker Canvas le permite descubrir orígenes de datos de AWS a los que su cuenta tenga acceso sin problemas, incluidos Amazon S3 y Amazon Redshift. Puede buscar e importar datos con la interfaz visual de arrastrar y soltar de SageMaker Canvas. Además, puede arrastrar y soltar archivos del disco local y utilizar conectores prediseñados para importar los datos de orígenes de terceros como Snowflake.

Luego de que ha conectado los orígenes, seleccionado los conjuntos de datos y preparado sus datos, puede seleccionar la columna de destino que quiere predecir para iniciar un trabajo de creación de modelos. SageMaker Canvas identificará automáticamente el tipo de problema, generará características relevantes nuevas, probará un conjunto integral de modelos de predicción mediante técnicas de ML como regresión lineal, regresión logística, aprendizaje profundo, previsión de serie temporal y potenciación del gradiente y creará un modelo que realiza predicciones precisas en función de su conjunto de datos.

El tiempo que tarda en crear el modelo depende del tamaño de su conjunto de datos. Los conjuntos de datos pequeños tardan menos de 30 minutos y los conjuntos de datos grandes pueden tardar unas horas. A medida que avanza el trabajo de creación del modelo, SageMaker Canvas provee actualizaciones visuales detalladas, como el porcentaje de finalización del trabajo y la cantidad de tiempo restante para completar el trabajo.

Entrenamiento de modelos

SageMaker HyperPod está diseñado específicamente para acelerar el entrenamiento del modelo fundacional (FM). Proporciona una infraestructura más resiliente, optimizada para el entrenamiento distribuido a gran escala, lo que permite llevarlo a cabo en miles de aceleradores de forma más rápida. Detecta, diagnostica y se recupera automáticamente de los fallos, por lo que puede entrenar a los FM a la vez durante meses sin interrupciones. SageMaker HyperPod viene preconfigurado con bibliotecas de entrenamiento distribuidas de SageMaker para ayudarlo a mejorar el rendimiento de manera eficiente mediante la distribución de los datos de entrenamiento del modelo en fragmentos más pequeños, de modo que puedan procesarse en paralelo en todos los aceleradores.

Experimentos de SageMaker ayuda a organizar las iteraciones y hacer un seguimiento de ellas en modelos de ML. Experimentos de SageMaker ayuda a administrar iteraciones al capturar de forma automática los parámetros de entrada, conf|iguraciones y resultados y guardarlos como “experimentos”. Puede trabajar desde la interfaz visual de SageMaker Studio, donde puede navegar por experimentos activos, buscar experimentos previos por características, revisar experimentos anteriores y sus resultados, y comparar los resultados de los experimentos de forma visual.

Si necesita cargas de trabajo de entrenamiento más largas y de mayor tamaño que requieran una gran cantidad de instancias de computación, como GPU o aceleradores de AWS, puede usar SageMaker HyperPod para disfrutar de una experiencia más flexible y reducir el tiempo de entrenamiento.

 SageMaker Debugger registra automáticamente métricas en tiempo real durante el entrenamiento, como las matrices de confusión y los gradientes de aprendizaje, para ayudar a mejorar la precisión del modelo. Las métricas de SageMaker Debugger pueden visualizarse en SageMaker Studio para entenderlas con facilidad. SageMaker Debugger también genera advertencias y consejos de solución cuando se detectan problemas de entrenamiento comunes. SageMaker Debugger también supervisa y describe de forma automática y en tiempo real los recursos del sistema, como las CPU, las GPU, la red y la memoria, y brinda recomendaciones respecto de la reasignación de estos recursos. Esto le permite utilizar sus recursos de manera eficiente durante el entrenamiento y ayuda a reducir los costos y los recursos.

Sí. SageMaker puede distribuir automáticamente los modelos de aprendizaje profundo y los grandes conjuntos de entrenamiento entre las instancias de GPU de AWS en una fracción del tiempo que lleva crear y optimizar estas estrategias de distribución de forma manual. Las dos técnicas de entrenamiento distribuido que SageMaker aplica son el paralelismo de datos y el paralelismo de modelos. El paralelismo de datos se aplica para mejorar las velocidades de entrenamiento al dividir los datos de forma equitativa entre las múltiples instancias de GPU, lo que permite que todas las instancias se entrenen al mismo tiempo. El paralelismo de modelos es útil para los modelos que son demasiado grandes para estar almacenados en una única GPU y necesitan que el modelo esté dividido en partes más pequeñas antes de distribuirlas entre varias GPU. Con solo unas pocas líneas de código adicional en sus scripts de entrenamiento de PyTorch y TensorFlow, SageMaker aplicará el paralelismo de datos o el paralelismo de modelos por usted de forma automática, lo que le permitirá desarrollar e implementar modelos con mayor rapidez. SageMaker determinará el mejor enfoque para dividir el modelo mediante algoritmos de partición de gráficos para balancear el procesamiento informático de cada GPU y, a la vez, minimizar la comunicación entre instancias de GPU. SageMaker también optimiza los trabajos de entrenamiento distribuido mediante algoritmos que utilizan completamente la computación y las redes de AWS para lograr una eficiencia de escalado casi lineal, lo que le permite completar el entrenamiento con mayor rapidez que con implementaciones manuales de código abierto.

El Compilador de entrenamiento de SageMaker es un compilador de aprendizaje profundo (deep learning, DL) que acelera el entrenamiento de modelos de DL hasta un 50 % mediante optimizaciones a nivel de gráficos y núcleos para utilizar las GPU de manera más eficiente. El Compilador de entrenamiento de SageMaker tiene versiones integradas de TensorFlow y PyTorch en SageMaker, para que pueda acelerar el entrenamiento en estos marcos de trabajo populares con cambios mínimos de código.

SageMaker Training Compiler acelera el entrenamiento mediante la conversión de los modelos de DL de representaciones de lenguaje de alto nivel a instrucciones optimizadas para hardware que se entrenan más rápido que los trabajos con los marcos de trabajo nativos. Para ser más específicos, SageMaker Training Compiler utiliza optimizaciones a nivel de gráficos (fusión de operadores, planificación de memoria y simplificación algebraica), optimizaciones a nivel del flujo de datos (transformación del diseño, eliminación de subexpresiones comunes) y optimizaciones de backend (ocultamiento de la latencia de la memoria, optimizaciones orientadas a los bucles) para producir un trabajo de entrenamiento de modelos que utilice de forma más eficiente los recursos de hardware y, como resultado, entrene el modelo con más rapidez.

SageMaker Training Compiler está incorporado en el SDK para Python de SageMaker y en los contenedores para aprendizaje profundo de Hugging Face de SageMaker. No necesita cambiar sus flujos de datos para acceder a los beneficios de aceleración. Puede poner en marcha trabajos de entrenamiento de la misma manera que lo hacía antes, con cualquier interfaz de SageMaker: instancias de cuadernos de SageMaker, SageMaker Studio, AWS SDK para Python (Boto3) y la Interfaz de la línea de comandos de AWS (AWS CLI). Para habilitar SageMaker Training Compiler, puede agregar una clase de TrainingCompilerConfig como parámetro cuando cree un objeto estimador de marco. En la práctica, esto representa un par de líneas de código agregadas a su script de trabajo de entrenamiento existente para una sola instancia de GPU. La mayoría de la documentación detallada actualizada, cuadernos de muestra y ejemplos están disponibles en la documentación.

SageMaker Training Compiler es una característica de entrenamiento SageMaker y se provee sin costo adicional exclusivamente a los clientes de SageMaker. Los clientes pueden reducir sus costos con SageMaker Training Compiler conforme se reducen los tiempos de entrenamiento.

Managed Spot Training con SageMaker le permite entrenar sus modelos de ML con instancias de spot de Amazon EC2, y así reducir el costo de entrenamiento de los modelos en hasta un 90 %.

Usted habilita la opción de Managed Spot Training cuando envía sus trabajos de entrenamiento y especifica cuánto tiempo quiere esperar para la capacidad Spot. SageMaker usa las instancias de spot de Amazon EC2 para poner en marcha su trabajo y administra la capacidad Spot. Tiene completa visibilidad del estado del trabajo de entrenamiento, mientras se está poniendo en marcha y cuando está esperando por más capacidad.

Managed Spot Training es ideal cuando tiene flexibilidad en las ejecuciones de entrenamiento y quiere minimizar el costo de sus trabajos de entrenamiento. Con Managed Spot Training, puede reducir el costo de entrenamiento de sus modelos de ML hasta en un 90 %.

Managed Spot Training usa las instancias de spot de Amazon EC2 para el entrenamiento, que pueden ser reemplazadas cuando AWS necesite la capacidad. Por lo tanto, los trabajos de Managed Spot Training pueden ponerse en marcha en incrementos pequeños a medida que haya capacidad disponible. No es necesario que los trabajos de entrenamiento empiecen desde el principio cada vez que haya una interrupción, ya que SageMaker puede reanudar los trabajos de entrenamiento con el último punto de control del modelo. Los marcos y los algoritmos de visión artificial integrados en SageMaker permiten establecer puntos de control periódicos que se pueden establecer con modelos personalizados.

Por lo general, recomendamos establecer puntos de control periódicamente para trabajos de entrenamiento largos. Esto evita que los trabajos de Managed Spot Training se reinicien si la capacidad está agotada. Cuando habilita los puntos de control, SageMaker reanuda sus trabajos de Managed Spot Training desde el último punto de control.

Una vez que un trabajo de Managed Spot Training se completa, usted puede ver el ahorro en la consola de administración de AWS así como calcular el ahorro de costos como la diferencia porcentual entre la duración de la ejecución del trabajo de entrenamiento y la duración que se cobró.

Independientemente de cuántas veces hayan sido interrumpidos los trabajos de Managed Spot Training, solo se cobrará una vez por la duración que tomo descargar los datos.

Managed Spot Training puede usarse con todas las instancias admitidas en SageMaker.

Managed Spot Training se admite en todas las regiones en las que SageMaker está disponible actualmente.

No hay límites fijos en cuanto al tamaño del conjunto de datos que se puede utilizar para modelos de entrenamiento con SageMaker.

SageMaker incluye algoritmos integrados para regresión lineal, regresión logística, agrupación de clústeres de medios k, análisis de componentes principales, equipos de factorización, modelado de temas neuronal, asignación latente dirichlet, árboles con potenciación del gradiente, secuencia a secuencia, previsión de serie temporal, word2vec y clasificación de imágenes. SageMaker también proporciona versiones optimizadas de Apache MXNet, Tensorflow, Chainer, PyTorch, Gluon, Keras, Horovod, Scikit-learn y contenedores de Deep Graph Library. Además, SageMaker admite algoritmos de entrenamiento personalizados provistos mediante una imagen de Docker que se ajuste a la especificación documentada.

La mayoría de los algoritmos de ML presenta una variedad de parámetros que controlan la manera en la que funciona el algoritmo subyacente. Dichos parámetros generalmente se denominan hiperparámetros y sus valores afectan la calidad de los modelos entrenados. El ajuste de modelo automático es el proceso de encontrar un conjunto de hiperparámetros para un algoritmo que puede producir un modelo óptimo.

Puede ejecutar el ajuste de modelo automático en SageMaker sobre cualquier algoritmo siempre y cuando sea científicamente viable, incluidos los algoritmos de SageMaker integrados, las redes neuronales profundas o los algoritmos arbitrarios que incorpora a SageMaker como imágenes de Docker.

Por ahora no. La mejor experiencia y el mejor rendimiento del ajuste de modelo se obtienen dentro de SageMaker.

Actualmente, el algoritmo para el ajuste de hiperparámetros es una implementación personalizada de optimización bayesiana. Su objetivo es optimizar una métrica de objetivos específica del cliente en todo el proceso de ajuste. Específicamente, verifica la métrica de objetivos de trabajos de entrenamiento finalizados y utiliza el conocimiento para inferir la combinación de hiperparámetros para el próximo trabajo de entrenamiento.

No. La manera en la que determinados hiperparámetros afectan al rendimiento del modelo depende de varios factores y es difícil decir de manera definitiva que un hiperparámetro es más importante que otros y que, por lo tanto, debe ajustarse. Para algoritmos integrados en SageMaker, sí avisamos si un hiperparámetro se puede ajustar o no.

La duración de una tarea de ajuste de hiperparámetros depende de varios factores, incluido el tamaño de los datos, el algoritmo subyacente y los valores de los hiperparámetros. Además, los clientes pueden elegir el número de tareas de entrenamiento simultáneas y el número total de tareas de entrenamiento. Todas estas opciones afectan la duración de la tarea de entrenamiento de los hiperparámetros.

Por ahora no. Actualmente, debe especificar una única métrica de objetivo que quiera optimizar, o bien modificar el código del algoritmo para emitir una métrica nueva, que se promedia entre dos o más métricas útiles, y optimizar el proceso de ajuste en pos de dicha métrica de objetivo.

No se cobra la tarea de ajuste de hiperparámetros en sí. Se le cobrarán los trabajos de entrenamiento que inicie el trabajo de ajuste de hiperparámetros, en función de los precios de entrenamiento de modelos.

El Piloto automático de SageMaker automatiza todo en un flujo de trabajo típico de ML. Esto incluye el preprocesamiento de características, la selección de algoritmos y el ajuste de hiperparámetro, y al mismo tiempo se centra en los casos de uso de clasificación y regresión. Por otra parte, el ajuste de modelo automático está diseñado para adecuarse a cualquier modelo, independientemente de si está basado en algoritmos integrados, marcos de aprendizaje profundo o contenedores personalizados. A cambio de la flexibilidad, debe hacer una selección manual del algoritmo específico, los hiperparámetros que quiere ajustar y los rangos de búsqueda correspondientes.

Es una técnica de ML que permite que un agente aprenda en un entorno interactivo por el método de prueba y error, con la retroalimentación obtenida de sus propias acciones y experiencias.

Sí. Aparte de los modelos de aprendizaje supervisado y no supervisado, puede entrenar modelos de aprendizaje mediante refuerzo en SageMaker.

Ambos tipos de aprendizaje usan la asignación entre la entrada y la salida pero, a diferencia del aprendizaje supervisado en el que la retroalimentación proporcionada al agente es un conjunto de acciones correctas para hacer una tarea, el aprendizaje mediante refuerzo utiliza una retroalimentación retrasada donde las señales de compensación se optimizan para garantizar un objetivo a largo plazo a través de una secuencia de acciones.

Mientras que el objetivo de las técnicas de aprendizaje supervisado es encontrar la respuesta correcta en función de los patrones de los datos de formación, el objetivo de las técnicas de aprendizaje sin supervisar es encontrar similitudes y diferencias entre los puntos de datos. Por el contrario, el objetivo de las técnicas de refuerzo de aprendizaje (RL) es aprender cómo lograr un resultado deseado, incluso cuando no esté claro cómo lograrlo. Como consecuencia, el RL es más adecuado para habilitar aplicaciones inteligentes en las que un agente puede tomar decisiones autónomas, como robótica, vehículos autónomos, sistemas de acondicionamiento, control industrial, etc.

Amazon SageMaker RL admite distintos entornos para el entrenamiento de modelos RL. Puede usar servicios de AWS como AWS RoboMaker, entornos de código abierto o personalizados desarrollados mediante interfaces Open AI Gym, así como entornos de simulación comercial, como MATLAB y SimuLink.

No. SageMaker RL incluye conjuntos de herramientas de RL, como Coach y Ray RLLib, que ofrecen implementaciones de algoritmos de agente de RL, como DQN, PPO y A3C, entre otros.

Sí. Puede traer sus propias implementaciones de algoritmos y bibliotecas de RL en contenedores Docker, y ejecutarlas en SageMaker RL.

Sí. Puede incluso seleccionar un clúster heterogéneo, donde el entrenamiento puede ponerse en marcha en una instancia de GPU y las simulaciones en varias instancias de CPU.

Despliegue de modelos

Después de crear y entrenar los modelos, SageMaker ofrece tres opciones para desplegarlos y poder comenzar a hacer predicciones. La inferencia en tiempo real es adecuada para cargas de trabajo con requisitos de latencia de milisegundos, tamaños de carga útil de hasta 6 MB y tiempos de procesamiento de hasta 60 segundos. La transformación por lotes es ideal para predicciones sin conexión sobre grandes lotes de datos con disponibilidad anticipada. La inferencia asíncrona está diseñada para cargas de trabajo que no tienen requisitos de latencia inferiores a un segundo, tamaños de carga de hasta 1 GB y tiempos de procesamiento de hasta 15 minutos. 

La inferencia asíncrona de SageMaker pone en cola las solicitudes entrantes y las procesa de forma asíncrona. Esta opción es ideal para solicitudes con tamaños de carga grandes o tiempos de procesamiento largos que necesitan procesarse a medida que llegan las solicitudes. De manera opcional, puede configurar el escalado automático para reducir verticalmente a cero el recuento de instancias para ahorrar costos cuando no se procesen activamente las solicitudes. 

Puede reducir verticalmente a cero el recuento de instancias de punto de conexión de la inferencia asíncrona de SageMaker para ahorrar costos cuando no se procesen activamente las solicitudes. Es necesario definir una política de escalado que escale sobre la métrica personalizada “ApproximateBacklogPerInstance” y establecer el valor “MinCapacity” a cero. Para obtener instrucciones paso a paso, visite la sección de autoescalado de un punto de conexión asincrónico de la guía del desarrollador. 

La inferencia sin servidor de SageMaker es una opción personalizada de publicación de modelos sin servidor que facilita el despliegue y el escalamiento de modelos de ML. Los puntos de enlace de Amazon SageMaker Serverless Inference inician automáticamente los recursos informáticos y los escala de forma ascendente y descendente dependiendo del tráfico, lo que elimina la necesidad de elegir el tipo de instancia, ejecutar una capacidad aprovisionada o administrar el escalado. También tiene la opción de especificar los requisitos de memoria para los puntos de enlace de su inferencia sin servidor. Solo paga por la duración de la ejecución del código de inferencia y la cantidad de datos procesados, no por el tiempo de inactividad.

SageMaker Serverless Inference simplifica la experiencia del desarrollador, ya que elimina la necesidad de aprovisionar capacidad por adelantado y administrar las políticas de escalado. SageMaker Serverless Inference puede escalar de manera instantánea de decenas a miles de inferencias en segundos en función de los patrones de uso, lo que lo hace ideal para aplicaciones de ML con tráfico intermitente o impredecible. Por ejemplo, un servicio de chatbot utilizado por una empresa de procesamiento de nóminas experimenta un aumento de las consultas a final de mes, mientras que el resto del mes el tráfico es intermitente. El aprovisionamiento de instancias para todo el mes en estos casos no es rentable, ya que se termina pagando por los periodos de inactividad. SageMaker Serverless Inference ayuda a solucionar estos tipos de casos de uso, ya que provee un escalado automático y rápido listo para utilizar sin necesidad de pronosticar la demanda de tráfico por adelantado ni administrar las políticas de escalado. Además, solo se paga por el tiempo de computación en el que se pone en marcha el código de inferencia (facturado en milisegundos) y el procesamiento de datos, lo que lo convierte en una opción rentable para cargas de trabajo con tráfico intermitente.

La simultaneidad aprovisionada permite implementar modelos en puntos finales sin servidor con un rendimiento predecible y una alta escalabilidad, ya que mantiene los puntos de conexión activos para un número específico de solicitudes simultáneas.

Con los puntos de conexión sin servidor bajo demanda, si su punto de conexión no recibe tráfico durante un tiempo y, de repente, recibe nuevas solicitudes, puede tardar algún tiempo en activar los recursos de cómputo necesarios para procesar las solicitudes. Esto se denomina arranque en frío. También puede producirse un arranque en frío si las solicitudes simultáneas superan el uso actual de solicitudes simultáneas. El tiempo de arranque en frío depende del tamaño del modelo, del tiempo que se tarde en descargar el modelo y del tiempo de inicio del contenedor.

Para reducir la variabilidad en su perfil de latencia, puede habilitar opcionalmente la simultaneidad aprovisionada para sus puntos de conexión sin servidor. Con la simultaneidad aprovisionada, sus puntos de conexión sin servidor están siempre listos y pueden servir de forma instantánea ráfagas de tráfico, sin necesidad de arranques en frío.

Al igual que ocurre con la inferencia sin servidor bajo demanda, cuando la simultaneidad aprovisionada está habilitada, paga por la capacidad de cálculo utilizada para procesar las solicitudes de inferencia, facturada por milisegundos y por la cantidad de datos procesados. También paga por el uso de la simultaneidad aprovisionada, en función de la memoria configurada, la duración aprovisionada y la cantidad de simultaneidad habilitada. Para obtener más información, consulte la página de precios de Amazon SageMaker.

SageMaker le permite ejecutar pruebas de sombras para evaluar un nuevo modelo de ML antes del lanzamiento a producción. Para ello, prueba su rendimiento frente al modelo implementado actualmente. SageMaker implementa el nuevo modelo en modo sombra junto al modelo de producción actual y reproduce una porción especificada por el usuario del tráfico de producción en el nuevo modelo. De manera opcional, registra las inferencias del modelo para compararlas sin conexión. También proporciona un panel en vivo con una comparación de métricas clave de rendimiento, como la latencia y el índice de errores, entre los modelos de sombra y producción para ayudarlo a decidir si es momento de promover el nuevo modelo a producción.

SageMaker simplifica el proceso de configuración y supervisión de variantes de sombra para que pueda evaluar el rendimiento del nuevo modelo de ML en el tráfico de producción en vivo. SageMaker elimina la necesidad de orquestar la infraestructura para las pruebas de sombras. Le permite controlar parámetros de pruebas, como el porcentaje de tráfico reflejado en la variante de sombra y la duración de la prueba. Como resultado, puede comenzar con poco y aumentar las solicitudes de inferencia al nuevo modelo una vez que confíe más en el rendimiento del modelo. SageMaker crea un panel en vivo que muestra las diferencias de rendimiento en métricas clave para que pueda comparar fácilmente el rendimiento del modelo a fin de evaluar qué tanto difiere el nuevo modelo del modelo de producción.

El Recomendador de inferencias de SageMaker reduce el tiempo requerido para producir modelos de ML mediante la automatización de los análisis comparativos de rendimiento y el ajuste del rendimiento de los modelos en todas las instancias de ML de SageMaker. Ahora puede utilizar Amazon SageMaker Inference Recommender para implementar su modelo en un punto de conexión que entregue el mejor rendimiento y reduzca los costos. Puede comenzar con Amazon SageMaker Inference Recommender en minutos mientras selecciona un tipo de instancia y obtener recomendaciones para configuraciones óptimas de puntos de conexión en un par de horas, lo que ahorra semanas de tiempo de pruebas y ajustes manuales. Con el Recomendador de inferencias de Amazon SageMaker, solo paga por las instancias de ML de SageMaker utilizadas durante la prueba de carga y no hay costos adicionales.

Debe utilizar el Recomendador de inferencias de SageMaker si necesita recomendaciones de configuraciones de puntos de conexión adecuadas para mejorar el rendimiento y reducir los costos. Anteriormente, los científicos de datos que deseaban implementar sus modelos tenían que ejecutar análisis comparativos manuales para seleccionar la configuración de punto de conexión adecuada. Primero, tenían que seleccionar el tipo de instancia de ML adecuado a partir de los más de 70 tipos de instancias disponibles en función de los requisitos de recursos para sus modelos y las cargas de muestra, para luego optimizar el modelo para dar cuenta del hardware diferente. A continuación, tenían que realizar pruebas de carga extensas para comprobar que se cumplan los requisitos de latencia y rendimiento y que los costos sean bajos. El Recomendador de inferencias de SageMaker elimina esta complejidad, ya que facilita: 1) el comienzo en minutos con una recomendación de instancia; 2) la realización de pruebas de carga en todos los tipos de instancia para obtener recomendaciones según su punto de conexión en horas; y 3) el ajuste automático de los parámetros de servidor de modelos y contenedores y la realización de optimizaciones de modelos para un determinado tipo de instancia.

Los científicos de datos pueden acceder a SageMaker Inference Recommender desde SageMaker Studio, AWS SDK para Python (Boto3) o AWS CLI. Pueden obtener recomendaciones de implementación desde SageMaker Studio en el registro de modelos de SageMaker para versiones de modelos registrados. Los científicos de datos pueden buscar y filtrar las recomendaciones con SageMaker Studio, AWS SDK o AWS CLI.

No, actualmente solo se admite un único modelo por punto de conexión.

Actualmente, solo se admiten puntos de conexión en tiempo real.

Admitiremos todas las regiones que admite Amazon SageMaker, a excepción de las regiones de AWS de China.

Sí, admitimos todos los tipos de contenedores. Inf1 de Amazon EC2, basado en el chip de AWS Inferentia, requiere un artefacto de modelo compilado que utiliza el compilador Neuron o Amazon SageMaker Neo. Una vez que tenga un modelo compilado para un objetivo de Inferentia y el URI de la imagen del contenedor asociado, puede utilizar SageMaker Inference Recommender para hacer análisis comparativos de los distintos tipos de instancias de Inferentia.

El Monitor de modelos de SageMaker permite a los desarrolladores detectar y solucionar cambios de concepto. El Monitor de modelos de SageMaker detecta de forma automática cambios de concepto en los modelos implementados y brinda alertas detalladas que ayudan a identificar la fuente del problema. Todos los modelos entrenados en SageMaker emiten automáticamente métricas clave que pueden recopilarse y ser visualizadas en SageMaker Studio. Desde SageMaker Studio puede configurar la recopilación de datos, su visualización y cuándo recibir alertas.

No. SageMaker opera la infraestructura informática por usted, lo que le permite ejecutar comprobaciones de estado, aplicar parches de seguridad y realizar otras tareas de mantenimiento de rutina. También puede implementar elementos de modelos de entrenamiento con código de inferencia personalizado en su propio entorno de alojamiento.

El alojamiento de SageMaker se ajusta automáticamente al rendimiento necesario para la aplicación mediante Application Auto Scaling. Además, puede modificar manualmente el número y el tipo de instancia sin generar tiempos de inactividad mediante la modificación de la configuración del punto de conexión.

SageMaker emite métricas de rendimiento hacia Amazon CloudWatch Metrics para que pueda realizar un seguimiento de métricas, definir alarmas y reaccionar automáticamente ante cambios en el tráfico de producción. Además, SageMaker escribe registros en Amazon CloudWatch Logs para permitirle monitorear el entorno de producción y solucionar sus problemas.

SageMaker puede alojar cualquier modelo que se ajuste a la especificación documentada para imágenes de Docker de inferencia. Incluye modelos creados a partir de códigos de inferencia y artefactos de modelos de SageMaker.

SageMaker está diseñado para ajustar su escala a un número elevado de transacciones por segundo. El número preciso varía en función del modelo implementado y del número y el tipo de instancia en el cual esté implementado el modelo.

Como servicio totalmente administrado, Amazon SageMaker se encarga de configurar y administrar las instancias, las compatibilidades de las versiones de software y las versiones de parches. También proporciona métricas y registros integrados para los puntos de conexión que puede utilizar para supervisar y recibir alertas. Con las herramientas y los flujos de trabajo guiados de SageMaker, se simplifica todo el proceso de empaquetado y despliegue de modelos de ML, lo que facilita la optimización de los puntos de conexión para lograr el rendimiento deseado y ahorrar costos. Puede implementar fácilmente sus modelos de aprendizaje automático, incluidos los modelos fundacionales, con unos pocos clics en SageMaker Studio o con el nuevo PySDK.

La transformación en lotes le permite poner en marcha las predicciones en datos de lotes grandes y pequeños. No es necesario desglosar el conjunto de datos en varios fragmentos ni administrar los puntos de conexión en tiempo real. Con una API simple, puede solicitar predicciones para un gran número de registros de datos y transformar los datos de manera rápida y sencilla.

SageMaker Edge Manager facilita la optimización, la protección, la supervisión y el mantenimiento de modelos de ML en las flotas de dispositivos periféricos, como las cámaras inteligentes, los robots, las computadoras personales y los dispositivos móviles. El Administrador de periféricos de SageMaker ayuda a los desarrolladores de ML a operar modelos de ML en una variedad de dispositivos periféricos a escala.

SageMaker admite las siguientes opciones de puntos de conexión: puntos de conexión de modelo único, un modelo en un contenedor alojado en instancias dedicadas o sin servidor para lograr una latencia baja y un alto rendimiento. Puntos de conexión multimodelo: aloje puntos de conexión multimodelo mediante una infraestructura compartida para lograr una mayor rentabilidad y maximizar el uso. Puede controlar la cantidad de procesamiento y memoria que puede usar cada modelo para asegurarse de que cada uno tenga acceso a los recursos que necesita para funcionar de manera eficiente. Canalizaciones de inferencia en serie: varios contenedores que comparten instancias dedicadas y se ejecutan en una secuencia. Puede usar una canalización de inferencia para combinar tareas de ciencia de datos de preprocesamiento, predicciones y posprocesamiento.

Para comenzar a utilizar SageMaker Edge Manager, debe compilar y empaquetar sus modelos de aprendizaje automático entrenados en la nube, registrar sus dispositivos y prepararlos con el SDK de SageMaker Edge Manager. Para preparar su modelo para la implementación, SageMaker Edge Manager utiliza SageMaker Neo para compilar el modelo del hardware de borde de destino. Una vez que el modelo está compilado, SageMaker Edge Manager firma el modelo con una clave generada por AWS, luego empaqueta el modelo con su tiempo de ejecución y las credenciales necesarias para prepararse para la implementación. Del lado del dispositivo, debe registrarlo con SageMaker Edge Manager, descargar el SDK de SageMaker Edge Manager y, luego, seguir las instrucciones para instalar el agente de SageMaker Edge Manager en sus dispositivos. El cuaderno del tutorial proporciona un ejemplo paso a paso de cómo puede preparar los modelos y conectarlos a los dispositivos periféricos con el Administrador de periféricos de SageMaker.

Puede usar políticas de escalado para escalar automáticamente los recursos informáticos subyacentes a fin de adaptarse a las fluctuaciones en las solicitudes de inferencia. Puede controlar las políticas de escalado para cada modelo de ML por separado para gestionar con facilidad los cambios en el uso del modelo y, al mismo tiempo, optimizar los costos de infraestructura.

SageMaker Edge Manager es compatible con dispositivos comunes basados en CPU (ARM, x86) y GPU (ARM, Nvidia) con sistemas operativos Linux y Windows. Con el tiempo, SageMaker Edge Manager ampliará su compatibilidad con más procesadores integrados y plataformas móviles que también son compatibles con SageMaker Neo.

No, no es necesario. Puede formar sus modelos con cualquier otro servicio o utilizar modelos preformados de código abierto o de proveedores de modelos.

Sí, debe hacerlo. SageMaker Neo convierte y compila sus modelos en un archivo ejecutable que usted luego puede empaquetar e implementar en sus dispositivos periféricos. Una vez que el paquete del modelo se implemente, el agente de SageMaker Edge Manager desempacará el paquete del modelo y lo ejecutará en el dispositivo.

SageMaker Edge Manager almacena el paquete del modelo en el bucket de Amazon S3 especificado. Puede utilizar la característica de despliegue por vía inalámbrica (OTA), que ofrece AWS IoT Greengrass, o cualquier otro mecanismo de despliegue que elija para implementar el paquete del modelo en los dispositivos desde el bucket de S3.

El dlr de Neo es un tiempo de ejecución de código abierto que solo ejecuta modelos compilados por el servicio SageMaker Neo. En comparación con el dlr de código abierto, el SDK de SageMaker Edge Manager incluye un agente de nivel empresarial integrado en el dispositivo con características adicionales de seguridad, administración de modelos y publicación de modelos. El SDK de SageMaker Edge Manager es conveniente para el despliegue en producción a escala.

SageMaker Edge Manager está disponible en seis regiones: Este de EE. UU. (Virginia del Norte), Este de EE. UU. (Ohio), Oeste de EE. UU. (Oregón), Europa (Irlanda), Europa (Fráncfort) y Asia-Pacífico (Tokio). Consulte la lista de servicios regionales de AWS para obtener más detalles.

SageMaker Neo permite que los modelos de ML entrenen una sola vez y se ejecuten en cualquier lugar, tanto en la nube como en la periferia. SageMaker Neo optimiza automáticamente los modelos creados con marcos de aprendizaje profundo conocidos que se pueden utilizar para el despliegue en múltiples plataformas de hardware. Los modelos optimizados se ponen en marcha hasta 25 veces más rápido y consumen menos de una décima parte de los recursos de los modelos de ML típicos.

Para comenzar a utilizar SageMaker Neo, inicie sesión en la consola de SageMaker, elija un modelo entrenado, siga el ejemplo para compilar modelos e implemente el modelo resultante en la plataforma de hardware de destino.

SageMaker Neo tiene dos componentes principales: un compilador y un tiempo de ejecución. En primer lugar, el compilador de SageMaker Neo lee los modelos exportados por los distintos marcos de trabajo. A continuación, convierte las operaciones y funciones específicas del marco de trabajo en una representación intermedia con independencia de este. Después, realiza una serie de optimizaciones. Entonces, el compilador genera código binario para las operaciones optimizadas y las escribe en una biblioteca de objetos compartidos. El compilador también guarda los parámetros y la definición del modelo en archivos independientes. Durante la ejecución, el tiempo de ejecución de SageMaker Neo carga los artefactos generados por el compilador (definición del modelo, parámetros y la biblioteca de objetos compartidos) para ejecutar el modelo.

No. Puede entrenar los modelos en cualquier otro punto y utilizar SageMaker Neo para optimizarlos para dispositivos compatibles con AWS IoT Greengrass o instancias de ML de SageMaker.

En la actualidad, SageMaker Neo admite los modelos de aprendizaje profundo más populares, que impulsan las aplicaciones de visión informática y los modelos de árboles de decisiones más conocidos que se utilizan hoy en día en SageMaker. SageMaker Neo optimiza el rendimiento de los modelos AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet y DenseNet entrenados en MXNet y TensorFlow, así como de los modelos de clasificación y bosque de corte aleatorio entrenados en XGBoost.

Encuentre las listas de las instancias en la nube, los dispositivos periféricos y las versiones de marcos admitidos en la documentación de SageMaker Neo.

Si desea ver una lista de las regiones disponibles, consulte la lista de servicios regionales de AWS.

Savings Plans de Amazon SageMaker

Los Savings Plans de SageMaker ofrecen un modelo de precios flexible basado en uso para SageMaker, a cambio de comprometerse a una cantidad constante de uso (medida en USD/hora) durante el término de 1 o 3 años. Savings Plans de SageMaker proporciona la mayor flexibilidad posible y permite reducir los costos en hasta un 64 %. Estos planes se aplican de manera automática a los usos de instancias de ML de SageMaker elegibles, incluidos los blocs de notas de SageMaker Studio, los blocs de notas bajo demanda de SageMaker, el procesamiento de SageMaker, SageMaker Data Wrangler, el entrenamiento con SageMaker, la inferencia en tiempo real de SageMaker y la transformación en lotes de SageMaker, sin importar la familia, el tamaño ni la región de las instancias. Por ejemplo, puede cambiar el uso de una instancia de CPU ml.c5.xlarge que se ponga en marcha en el Este de EE. UU. (Ohio) a una instancia ml.Inf1 en EL Oeste de EE. UU. (Oregón) para cargas de trabajo de inferencia en cualquier momento y pagar de manera automática el precio de Savings Plans.

Si hace un uso constante de las instancias de SageMaker (medido en USD/hora), utiliza varios componentes de SageMaker o espera que su configuración tecnológica (como la región o la familia de instancias) cambie con el paso del tiempo, los planes de Savings Plans para SageMaker harán que sea más sencillo maximizar el ahorro y le brindarán flexibilidad para cambiar la configuración de la tecnología subyacente según las necesidades de las aplicaciones o la innovación. Las tarifas de Savings Plans se aplican de manera automática a cualquier uso de instancias de ML apto sin necesidad de modificaciones manuales.

Puede comenzar a utilizar Savings Plans desde el Explorador de costes de AWS en la consola de administración de AWS o mediante la API o CLI. Puede contratar fácilmente los planes de Savings Plans mediante las recomendaciones provistas en AWS Cost Explorer, a fin de obtener los mayores ahorros. El compromiso por hora recomendado es en función del uso bajo demanda histórico, así como de la elección que ha hecho del tipo de plan, el plazo y la opción de pago. Una vez que se suscriba a un plan de Savings Plan, el uso informático se cobrará automáticamente con los precios con descuento de Savings Plans y todo uso que exceda el compromiso se cobrará con las tarifas bajo demanda normales.

La diferencia entre Savings Plans de SageMaker y Savings Plans de Amazon EC2 reside en los servicios que incluyen. Savings Plans para SageMaker solo se aplica al uso de instancias de ML de SageMaker.

Savings Plans se pueden adquirir desde cualquier cuenta en una familia de AWS Organizations o facturación unificada. De manera predeterminada, se puede disfrutar de los beneficios que Savings Plans en todas las cuentas que estén en una familia de AWS Organizations o facturación unificada. Sin embargo, también puede optar por limitar el beneficio de los Savings Plans únicamente a la cuenta que los adquirió.