Aspectos generales

P: ¿Qué es Amazon SageMaker?

Amazon SageMaker es un servicio completamente administrado para crear, entrenar e implementar modelos de machine learning (ML) para cualquier caso de uso con infraestructura, herramientas y flujos de trabajo completamente administrados.

P: ¿En qué regiones se encuentra disponible Amazon SageMaker?

Para ver la lista de las regiones de AWS en las que se admite Amazon SageMaker, consulte la tabla de regiones de AWS, que contiene la información sobre toda la infraestructura global de AWS. Para obtener más información, consulte Regiones y puntos de conexión en la referencia general de AWS.

P: ¿Cuál es la disponibilidad de servicio de Amazon SageMaker?

Amazon SageMaker está diseñado para ofrecer alta disponibilidad. No hay periodos de mantenimiento ni tiempos de inactividad programados. La API de SageMaker se pone en marcha en los centros de datos probados y de alta disponibilidad de Amazon, con la replicación de la pila de servicios configurada en tres instalaciones de cada una de las regiones de AWS, a fin de proporcionar tolerancia a errores si se produce un error en el servidor o una interrupción en la zona de disponibilidad.

P: ¿De qué forma Amazon SageMaker protege el código?

Amazon SageMaker almacena el código en volúmenes de almacenamiento de aprendizaje automático, protegidos por grupos de seguridad y, opcionalmente, cifrados en reposo.

P: ¿De qué medidas de seguridad dispone Amazon SageMaker?

Amazon SageMaker garantiza que los artefactos de los modelos de aprendizaje automático y otros artefactos del sistema estén cifrados tanto en tránsito como en reposo. Las solicitudes a la consola y la API de SageMaker se efectúan a través de una conexión segura (SSL). Transfiera roles de AWS Identity and Access Management a SageMaker para proporcionar permisos de acceso a recursos en su nombre para la formación e implementación. Puede usar buckets de Simple Storage Service (Amazon S3) cifrados para los datos y los artefactos de los modelos, así como también transferir una clave de AWS Key Management Service (KMS) a los blocs de notas de SageMaker, los trabajos de entrenamiento y los puntos de conexión, para cifrar el volumen asociado de ML de almacenamiento. Amazon SageMaker también es compatible con Amazon Virtual Private Cloud (VPC) y con AWS PrivateLink.

P: ¿Amazon SageMaker utiliza o comparte modelos, datos de entrenamiento o algoritmos?

Amazon SageMaker no utiliza ni comparte modelos, datos de entrenamiento o algoritmos. Sabemos que a los clientes les preocupa seriamente la confidencialidad y la seguridad de los datos. Es por ello que AWS permite controlar el contenido mediante herramientas sencillas y sólidas con las que se puede determinar dónde se almacenará ese contenido, proteger el contenido en tránsito y en reposo y administrar el acceso a los servicios y recursos de AWS de los usuarios. También implementamos controles técnicos y físicos responsables y sofisticados diseñados para evitar el acceso no autorizado al contenido o su divulgación. Como cliente, se conserva la propiedad del contenido y se puede seleccionar qué servicios de AWS pueden procesar, almacenar y alojar el contenido. No accedemos al contenido ni lo usamos para ningún otro fin sin el consentimiento del cliente.

P: ¿Cómo se cobra por el uso de Amazon SageMaker?

Paga los recursos de procesamiento de datos, almacenamiento y cómputo de aprendizaje automático que use para alojar el bloc de notas, entrenar el modelo, realizar predicciones y registrar los resultados. Amazon SageMaker le permite seleccionar el número y el tipo de instancias utilizado para el bloc de notas alojado, el entrenamiento y el alojamiento del modelo. Solo pagará por lo que consuma y a medida que lo haga. No se requieren pagos mínimos ni compromisos iniciales. Para obtener más información, consulte la página de precios de Amazon SageMaker y la calculadora de precios de Amazon SageMaker.

P: ¿Cómo puedo optimizar los costos de Amazon SageMaker, tales como detectar y detener los recursos inactivos para evitar cargos innecesarios?

Hay muchas prácticas recomendadas que puede adoptar para optimizar el uso de los recursos de Amazon SageMaker. Algunos enfoques implican optimizaciones de la configuración y otros, soluciones programáticas. En esta publicación de blog se ofrece una guía completa sobre este concepto, con tutoriales visuales y muestras de código.

P: ¿Qué sucede si ya tengo mi propio bloc de notas, entrenamiento o entorno de alojamiento?

Amazon SageMaker ofrece un flujo de trabajo integral y completo, pero puede continuar usando las herramientas existentes con SageMaker. Puede transferir fácilmente los resultados de cada etapa hacia y desde SageMaker en función de las necesidades de su empresa.

P: ¿R es compatible con Amazon SageMaker?

Sí, R es compatible con Amazon SageMaker. Puede utilizar R en las instancias de cuaderno de SageMaker, que incluyen un kernel R preinstalado y la biblioteca reticular. La biblioteca reticular ofrece una interfaz R para el SDK para Python de Amazon SageMaker, lo que permite a los profesionales de ML crear, entrenar, ajustar e implementar modelos R. 

P: ¿Cómo puedo revisar mi modelo en busca de desequilibrios?

Amazon SageMaker Clarify ayuda a mejorar la transparencia del modelo mediante la detección de tendencias estadísticas en la totalidad del flujo de trabajo de machine learning. SageMaker Clarify revisa si hay desequilibrios durante la preparación de los datos, después del entrenamiento y de forma continua con el paso del tiempo. Además, incluye herramientas para explicar los modelos de aprendizaje automático y sus predicciones. Los resultados se pueden compartir mediante informes de explicabilidad.

P: ¿Qué tipo de tendencias detecta Amazon SageMaker Clarify?

La medición de las tendencias en los modelos de aprendizaje automático es el primer paso para mitigar dichas tendencias. La tendencia se puede medir antes y después del entrenamiento, al igual que las inferencias de un modelo implementado. Cada medición de una tendencia corresponde a una noción distinta de imparcialidad. Incluso, la consideración de nociones simples de imparcialidad da lugar a muchas medidas diferentes que se pueden aplicar en diversos contextos. Debe elegir las nociones de tendencia y las métricas que son válidas para la aplicación y la situación que se están analizando. En la actualidad, SageMaker admite el procesamiento informático de diferentes métricas de tendencias para el entrenamiento de los datos (como parte de la preparación de los datos de SageMaker), para el modelo entrenado (como parte de SageMaker Experiments) y para las inferencias del modelo implementado (como parte de SageMaker Model Monitor). Por ejemplo, antes del entrenamiento, proporcionamos métricas para verificar si los datos de entrenamiento son representativos (es decir, si un grupo cuenta con poca representación) y si hay diferencias en la distribución de etiquetas en los grupos. Luego del entrenamiento o durante la implementación, las métricas pueden ser útiles para determinar si el rendimiento del modelo difiere entre los grupos y, si es así, por cuánto difiere. Por ejemplo, comience comparando los índices de error (cuán probable es que la predicción de un modelo difiera de la verdadera etiqueta) o haga un desglose aún mayor para lograr precisión (cuán probable es que una predicción positiva sea correcta) y una recuperación (cuán probable es que el modelo etiquete de forma correcta un ejemplo positivo).

P: ¿De qué manera Amazon SageMaker Clarify mejora la explicabilidad del modelo?

Amazon SageMaker Clarify está integrado a SageMaker Experiments para proporcionar un gráfico de la importancia de las características, que detalla la importancia de cada entrada del proceso general de toma de decisiones del modelo luego de que este se entrenó. Estos detalles pueden ayudar a determinar si la entrada de un modelo en particular posee más influencia de la que debería tener en el comportamiento general del modelo. SageMaker Clarify también efectúa explicaciones de las predicciones individuales disponibles a través de una API.
 

P: ¿Qué es Amazon SageMaker Studio?

Amazon SageMaker Studio proporciona una única interfaz virtual basada en la Web donde puede realizar todos los pasos de desarrollo de ML. SageMaker Studio le brinde acceso completo, control y visibilidad en todos los pasos requeridos para crear, entrenar e implementar modelos. Puede cargar datos, crear blocs de notas nuevos, entrenar y ajustar modelos, retroceder y avanzar entre los pasos para ajustar experimentos, comparar resultados e implementar modelos para la producción, todo de forma rápida y en un solo lugar, lo que aumenta su productividad. Todas las actividades de desarrollo de machine learning, incluidos los blocs de notas, la administración de experimentos, la creación automática de modelos, la depuración y la generación de perfiles, así como la detección de desviaciones de los modelos, se pueden realizar dentro de la interfaz visual unificada de SageMaker Studio.

P: ¿Qué es RStudio en SageMaker?

Amazon SageMaker Studio proporciona una interfaz visual basada en la Web para crear sus modelos en el lenguaje Python con facilidad. Además, puede analizar y visualizar los datos para el ML en el lenguaje R con recursos informáticos elásticos en RStudio en SageMaker, el primer RStudio Workbench completamente administrado en la nube.

P: ¿Cuál es el esquema de precios de Amazon SageMaker Studio?

No se aplican cargos adicionales por utilizar Amazon SageMaker Studio. Solo paga los cargos subyacentes por computación y almacenamiento de los servicios que utilice dentro de Amazon SageMaker Studio.

P: ¿En qué regiones se admite Amazon SageMaker Studio?

Puede encontrar las regiones en las que se admite Amazon SageMaker Studio en esta documentación.

ML de poco código

P: ¿Qué es Amazon SageMaker Autopilot?

Amazon SageMaker Autopilot es la primera capacidad automatizada de machine learning del sector que le brinda control y visibilidad totales de sus modelos de ML. SageMaker Autopilot inspecciona automáticamente datos sin procesar, aplica procesadores de características, selecciona el mejor conjunto de algoritmos, entrena y ajusta múltiples modelos, hace un seguimiento de sus rendimientos y, luego, clasifica los modelos en función de su rendimiento, todo con tan solo unos clics. El resultado es el modelo con mejor desempeño que se puede implementar en tan solo una fracción del tiempo requerido habitualmente para el entrenamiento del modelo. Puede obtener visibilidad completa de la creación y el contenido del modelo, y SageMaker Autopilot lo integra a Amazon SageMaker Studio. Puede explorar hasta 50 modelos diferentes generados por SageMaker Autopilot dentro de SageMaker Studio, así que es fácil elegir el mejor modelo para su caso de uso. SageMaker Autopilot pueden usarlo personas sin experiencia en ML para producir fácilmente un modelo o bien desarrolladores experimentados para crear con rapidez un modelo de referencia en el que los equipos pueden iterar más adelante.

P: ¿Qué algoritmos integrados se admiten en Amazon SageMaker Autopilot?

Amazon SageMaker Autopilot admite 2 algoritmos integrados: XGBoost y aprendizaje lineal.

P: ¿Puedo detener manualmente un trabajo de Amazon SageMaker Autopilot?

Sí. Puede detener un trabajo en cualquier momento. Cuando se detiene un trabajo de Amazon SageMaker Autopilot, todas las pruebas en curso se detendrán y no se iniciará ninguna prueba nueva.

P: ¿Cómo puedo comenzar a utilizar Amazon SageMaker de forma rápida?

Amazon SageMaker JumpStart lo ayuda a comenzar a utilizar ML de forma rápida y fácil. SageMaker JumpStart proporciona un conjunto de soluciones para los casos de uso más comunes que se pueden implementar fácilmente con solo unos pocos clics. Las soluciones son totalmente personalizables y muestran el uso de las plantillas y las arquitecturas de referencia de AWS CloudFormation, de manera que pueda acelerar el proceso del ML. SageMaker JumpStart también admite la implementación en un solo clic y el ajuste de más de 150 modelos populares de código abierto, como los modelos de transformador, de detección de objetos y de clasificación de imágenes. 

P: ¿Qué modelos de código abierto son compatibles con Amazon SageMaker JumpStart?

Amazon SageMaker JumpStart incluye más de 150 modelos de código abierto con entrenamiento previo de PyTorch Hub y TensorFlow Hub. Para las tareas de visualización, como la clasificación de imágenes y la detección de objetos, puede usar los modelos como ResNet, MobileNet y Single-Shot Detector (SSD). Para las tareas de texto, como la clasificación de oraciones, la clasificación de textos o las respuestas a preguntas, puede usar los modelos como BERT, RoBERTa y DistilBERT.

P: ¿Qué soluciones vienen prediseñadas con Amazon SageMaker JumpStart?

SageMaker JumpStart incluye soluciones que están preconfiguradas con todos los servicios de AWS que se necesitan para lanzar una solución en etapa de producción. Las soluciones son completamente personalizables, por lo que puede modificarlas con facilidad para que se ajusten a su caso de uso y sus conjuntos de datos específicos. Puede utilizar soluciones para más de 15 casos de uso, incluidos el pronóstico de la demanda, la detección de fraudes y el mantenimiento predictivo, e implementar soluciones fácilmente con solo unos pocos clics. Para obtener más información acerca de todas las soluciones disponibles, visite la página de introducción de SageMaker. 

P: ¿Cómo funciona el sistema de precios de Amazon SageMaker JumpStart?

Se cobra por los servicios de AWS que se lanzan desde SageMaker JumpStart, como los trabajos de formación y los puntos de enlace, en función de los precios de SageMaker. No se aplican cargos adicionales por utilizar Amazon SageMaker JumpStart.

P: ¿Qué es Amazon SageMaker Canvas?

Amazon SageMaker Canvas es un servicio sin código con una interfaz visual, intuitiva e interactiva que le permite crear predicciones de precisión alta basadas en ML con los datos. SageMaker Canvas le permite acceder a datos y combinarlos desde diversos orígenes mediante una interfaz de usuario de arrastrar y soltar. También, limpia y prepara automáticamente los datos para reducir la limpieza manual. Además, aplica diversos algoritmos de ML de vanguardia para encontrar modelos de predicción de precisión alta y ofrece una interfaz intuitiva para hacer predicciones. Puede utilizar SageMaker Canvas para hacer predicciones mucho más precisas de diversas aplicaciones empresariales y colaborar fácilmente con analistas y científicos de datos de su empresa al compartir modelos, datos e informes. Para obtener más información acerca de SageMaker Canvas, visite la página de preguntas frecuentes sobre Canvas.

Flujos de trabajo de machine learning

P: ¿Cómo puedo crear una canalización de integración y entrega continuas (CI/CD) con Amazon SageMaker?

Amazon SageMaker Pipelines lo ayuda a crear flujos de trabajo de ML completamente automatizados desde la preparación de los datos hasta la implementación del modelo, de manera que pueda escalar a miles de modelos de ML en la etapa de producción. SageMaker Pipelines viene con un SDK de Python que se conecta a SageMaker Studio para que pueda aprovechar una interfaz visual y crear cada paso del flujo de trabajo. Luego, con una sola API, puede conectar cada paso para crear un flujo de trabajo completo. SageMaker Pipelines se encarga de administrar los datos entre los pasos, empaquetar las recetas de códigos y organizar su ejecución, lo que reduce el tiempo de codificación de meses a unas pocas horas. Cada vez que se ejecuta un flujo de trabajo, se lleva un registro completo de los datos procesados y de las acciones realizadas para que los científicos de datos y los desarrolladores de machine learning puedan depurar los problemas con rapidez.

P: ¿Cómo visualizo todos los modelos formados para elegir el mejor modelo para pasar a la etapa de producción?

Amazon SageMaker Pipelines proporciona un repositorio central de modelos entrenados llamado “registro de modelos”. Puede descubrir modelos y acceder al registro de modelos de forma visual con SageMaker Studio o, de forma programática, con el SDK de Python, lo que facilita la elección del modelo deseado que se implementará en la fase de producción.

P: ¿Qué componentes de Amazon SageMaker se pueden agregar a Amazon SageMaker Pipelines?

Los componentes disponibles a través de Amazon SageMaker Studio, incluidos SageMaker Clarify, SageMaker Data Wrangler, Almacén de características de SageMaker, SageMaker Experiments, SageMaker Debugger y SageMaker Model Monitor, se pueden agregar a SageMaker Pipelines.

P: ¿Cómo hago un seguimiento de los componentes del modelo a lo largo de todo el flujo de trabajo de ML?

Amazon SageMaker Pipelines hace un seguimiento automático de todos los componentes del modelo y lleva un registro de auditoría de todos los cambios, por lo que elimina el seguimiento manual y ayuda a cumplir los objetivos de cumplimiento. Con SageMaker Pipelines, puede hacer un seguimiento de datos, código, modelos entrenados y más.

P: ¿Cuál es el esquema de precios para Amazon SageMaker Pipelines?

No se aplican cargos adicionales por utilizar Amazon SageMaker Pipelines. Solo paga por los servicios subyacentes de computación o cualquier otro servicio de AWS independiente que utilice en SageMaker Pipelines.

P: ¿Puedo utilizar Kubeflow con Amazon SageMaker?

Sí. Los componentes de Amazon SageMaker para canalizaciones de Kubeflow son complementos de código abierto que permiten usar canalizaciones de Kubeflow para definir flujos de trabajo de ML y usar SageMaker para los pasos de etiquetado de datos, entrenamiento e inferencia. Kubeflow Pipelines es un complemento para Kubeflow que permite crear e implementar canalizaciones de ML integrales, portables y escalables. Sin embargo, cuando se usa Kubeflow Pipelines, los equipos de operaciones de ML deben administrar el clúster de Kubernetes con instancias de CPU y GPU, y mantener un nivel de uso elevado en todo momento para reducir los costos operativos. Maximizar el uso de un clúster por parte de los equipos de ciencia de datos es un desafío y sobrecarga a los equipos de operaciones de ML. Como alternativa a un clúster de Kubernetes optimizado para el ML, con los componentes de Amazon SageMaker para Kubeflow Pipelines, es posible aprovechar las poderosas características de SageMaker, como el etiquetado de datos, los trabajos de ajuste completamente administrado de hiperparámetros a gran escala y de entrenamiento distribuido, la implementación de modelos segura y escalable en un solo clic y el entrenamiento rentable mediante instancias de spot de Amazon EC2, sin la necesidad de configurar ni administrar los clústeres de Kubernetes específicamente para poner en marcha los trabajos de ML.

P: ¿Cómo funciona el sistema de precios de los componentes de Amazon SageMaker para Kubeflow Pipelines?

No se aplican cargos adicionales por utilizar los componentes de Amazon SageMaker para Kubeflow Pipelines. 

Preparación de datos

P: ¿Cómo puede Amazon SageMaker preparar los datos para ML?

Amazon SageMaker Data Wrangler reduce el tiempo que lleva agregar y preparar los datos para el ML. Desde una única interfaz en SageMaker Studio, puede importar datos desde Simple Storage Service (Amazon S3), Amazon Athena, Amazon Redshift, AWS Lake Formation y el almacén de características de Amazon SageMaker y, con solo unos pocos clics, SageMaker Data Wrangler cargará, agregará y mostrará los datos sin procesar de forma automática. Luego, hará recomendaciones de conversión en función de los datos de origen, transformará los datos en nuevas características, validará las características y proporcionará visualizaciones con recomendaciones acerca de cómo eliminar orígenes comunes de errores, como las etiquetas incorrectas. Una vez que los datos estén preparados, puede crear flujos de trabajo de ML completamente automatizados con Amazon SageMaker Pipelines o importar esos datos al almacén de características de Amazon SageMaker.

P: ¿Cómo puedo crear características de modelos con Amazon SageMaker Data Wrangler?

Sin tener que escribir ni una línea de código, Amazon SageMaker Data Wrangler puede transformar los datos en nuevas características de forma automática. SageMaker Data Wrangler ofrece una selección de transformaciones de datos preconfiguradas, como la conversión del tipo de columna, la codificación one-hot, la imputación de datos faltantes con media o mediana, el reescalado de columnas y las integraciones de datos o tiempo. Por ejemplo, puede convertir una columna de campo de texto en una columna numérica con un solo clic o crear transformaciones personalizadas en PySpark, SQL y Pandas.

P: ¿Cómo puedo visualizar los datos en Amazon SageMaker Data Wrangler?

Amazon SageMaker Data Wrangler lo ayuda a comprender sus datos y a identificar los errores y los valores extremos potenciales con un conjunto de plantillas sólidas de visualización preconfiguradas. Los histogramas, los diagramas de dispersión y las visualizaciones específicas del aprendizaje automático, como la detección de filtraciones en los destinos, están disponibles sin necesidad de escribir ni una sola línea de código. También puede crear y editar sus propias visualizaciones.

P: ¿Cómo funciona el sistema de precios de Amazon SageMaker Data Wrangler?

Debe pagar por todos los recursos informáticos, de almacenamiento y de procesamiento de datos que use para Amazon SageMaker Data Wrangler. Puede revisar todos los detalles referidos a los precios de Amazon SageMaker Data Wrangler aquí. Como parte del nivel gratuito de AWS, también puede comenzar a utilizar SageMaker Data Wrangler de forma gratuita.

P: ¿Cómo almaceno características para mis modelos de machine learning?

El almacén de características de Amazon SageMaker proporciona un repositorio central para las características de datos con lecturas y escrituras de baja latencia (millisegundos). Las características se pueden almacenar, recuperar, descubrir y compartir a través del almacén de características de SageMaker para facilitar su reutilización entre diferentes modelos y equipos con acceso y control seguros. El almacén de características de SageMaker admite tanto las características en línea como aquellas sin conexión generadas a través de canalizaciones por lotes o streaming. Admite la reposición de las características y proporciona tanto almacenes online como sin conexión para mantener la paridad entre las características utilizadas en la formación de modelos y la inferencia.

P: ¿Cómo mantengo la consistencia entre las características online y sin conexión?

Amazon SageMaker Feature Store mantiene la consistencia entre las características en línea y sin conexión de forma automática, sin necesidad de administración o código adicionales. El Almacén de características de SageMaker es una capacidad completamente administrada y mantiene la consistencia entre los entornos de formación y de inferencia.

P: ¿Cómo puedo reproducir una característica de un momento específico?

Amazon SageMaker Feature Store mantiene las marcas temporales de todas las características en todo momento. Esto ayuda a recuperar las características en cualquier periodo, ya sea por requisitos empresariales o de cumplimiento. Puede explicar las características del modelo y sus valores con facilidad desde el momento en que se crearon por primera vez hasta la actualidad mediante la reproducción del modelo de un momento determinado.

P: ¿Qué son las características sin conexión?

Las características sin conexión se utilizan para el entrenamiento debido a que se necesita tener acceso a volúmenes muy grandes durante un largo periodo. Estas características funcionan desde un repositorio de alto rendimiento y con un alto nivel de ancho de banda.

P: ¿Qué son las características online?

Las características en línea se utilizan en las aplicaciones necesarias para hacer predicciones en tiempo real. Las características en línea funcionan desde un repositorio de alto rendimiento con latencia en milisegundos de un solo dígito para efectuar predicciones rápidas.

P: ¿Cuál es el esquema de precios del almacén de características de Amazon SageMaker?

Puede comenzar a utilizar el Almacén de características de Amazon SageMaker de forma gratuita, como parte del nivel gratuito de AWS. Con el almacén de características SageMaker, paga por escribir en el almacén de características y por el almacenamiento que use en el almacén de características en línea y las lecturas que haga desde él. Para obtener más información sobre precios, consulte la página de precios de SageMaker.

P: ¿Qué ofrece Amazon SageMaker para el etiquetado de datos?

Amazon SageMaker presenta dos ofertas de etiquetado de datos: Amazon SageMaker Ground Truth Plus y Amazon SageMaker Ground Truth. Ambas opciones permiten identificar datos sin procesar, como imágenes, archivos de texto y videos, y agregar etiquetas informativas para crear conjuntos de datos de entrenamiento de alta calidad para modelos de ML. Para obtener más información, visite la página web Etiquetado de datos de SageMaker.

Creación de modelos

P: ¿Qué son los blocs de notas de Amazon SageMaker Studio?

Los blocs de notas de Amazon SageMaker Studio son blocs de notas colaborativos, flexibles y administrados por Jupyter que forman parte de Amazon SageMaker Studio, un entorno de desarrollo completamente integrado para el ML.

P: ¿En qué se diferencian los blocs de notas de SageMaker Studio de los blocs de notas basados en instancias?

Los blocs de notas de SageMaker Studio ofrecen algunas características importantes que los diferencian de los blocs de notas basados en instancias. Con los blocs de notas de Studio, puede lanzar blocs de notas rápidamente sin la necesidad de aprovisionar una instancia de forma manual ni de esperar a que esté operativa. El tiempo de inicio del lanzamiento de la interfaz de usuario para leer y poner en marcha un bloc de notas es más rápido que el de un bloc de notas basado en instancias.

También ofrecen la flexibilidad necesaria para elegir entre una gran colección de tipos de instancias en la interfaz de usuario en cualquier momento. No es necesario regresar a la consola de administración de AWS para iniciar nuevas instancias ni para efectuar transferencias a través de los blocs de notas.

Cada usuario dispone de un directorio principal aislado, independiente de una instancia en particular. Este directorio se monta automáticamente en todos los servidores de blocs de notas y kernels cuando estos se inician, de manera que pueda acceder a ellos y otros archivos, incluso cuando cambie de instancias para visualizar y poner en marcha los blocs de notas.

Los blocs de notas de SageMaker Studio están integrados con AWS Single Sign-On (SSO), lo que facilita el uso de las credenciales organizacionales para acceder a ellos. El uso compartido de los blocs de notas es una característica integrada de los blocs de notas de SageMaker. También puede compartirlos con sus colegas con un solo clic.

P: ¿Cómo funcionan los blocs de notas de Amazon SageMaker Studio?

Los blocs de notas de Amazon SageMaker Studio son blocs de notas de Jupyter de un solo clic que se pueden iniciar con rapidez. Los recursos informáticos subyacentes son completamente elásticos, de forma que puede aumentar o disminuir los recursos disponibles y los cambios se producen automáticamente en segundo plano sin interrumpir el trabajo. SageMaker también permite compartir blocs de notas con un clic. Comparta de manera fácil los blocs de notas con otros usuarios y ellos recibirán el mismo bloc de notas, almacenado en el mismo lugar.

Con los blocs de notas de SageMaker Studio, puede iniciar sesión con las credenciales corporativas a través de AWS SSO. Compartir los blocs de notas dentro de un equipo y con otros equipos es sencillo, ya que las dependencias necesarias para ponerlos en marcha se siguen automáticamente en imágenes de trabajo que se encapsulan con el bloc de notas cuando este se comparte.

P: ¿De qué manera los blocs de notas de Amazon SageMaker Studio funcionan con otros servicios de AWS?

Los blocs de notas de Amazon SageMaker Studio le brindan acceso a todas las características de SageMaker, como entrenamiento distribuido, entrenamiento de lotes, alojamiento y administración de experimentos. Puede acceder a otros servicios, como conjuntos de datos, en Simple Storage Service (Amazon S3), Amazon Redshift, AWS Glue, Amazon EMR o AWS Lake Formation desde los blocs de notas de SageMaker.

P: ¿Cuál es el esquema de precios de los blocs de notas de SageMaker Studio?

Cuando se utilizan los blocs de notas de SageMaker Studio, se paga por el cómputo y por el almacenamiento. Consulte los precios de Amazon SageMaker para ver los cargos por tipo de instancia informática. Sus blocs de notas y los artefactos asociados, como scripts y archivos de datos, se almacenan de forma persistente en Amazon EFS. Consulte los precios de Amazon EFS para ver los cargos de almacenamiento. Como parte del nivel Gratuito de AWS, puede comenzar a utilizar los blocs de notas de Amazon SageMaker Studio de forma gratuita.

P: ¿La creación y ejecución de cada bloc de notas en SageMaker Studio se cobra de manera individual?

No. Puede crear y ejecutar varios blocs de notas en la misma instancia de cómputo. Solo pagará por la capacidad de cómputo que utilice, no por los elementos individuales. Puede obtener más información acerca de este tema en nuestra guía de medición.

Además de los blocs de notas, también puede iniciar y poner en marcha terminales y shells interactivos en Studio, todo en la misma instancia informática. Cada aplicación se pone en marcha dentro de un contenedor o una imagen. SageMaker Studio proporciona varias imágenes integradas personalizadas y preconfiguradas para tareas de ciencia de datos y ML. Puede obtener más información acerca del entorno de desarrollo de Studio en la guía sobre el uso de los blocs de notas de SageMaker Studio.

P: ¿Cómo superviso y apago los recursos que utilizan los blocs de notas?

Puede usar tanto la interfaz visual de SageMaker Studio como la consola de administración de AWS para supervisar y apagar los recursos utilizados por los blocs de notas de SageMaker Studio. Consulte la documentación para obtener más información.

P: Si estoy poniendo en marcha un bloc de notas de SageMaker Studio. ¿se me seguirá cobrando si cierro el navegador, cierro la pestaña del bloc de notas o solamente dejo el navegador abierto?

Sí, se le seguirá cobrando por la computación. El funcionamiento es similar a iniciar instancias de Amazon EC2 en la consola de administración de AWS y, luego, cerrar el navegador. Las instancias de Amazon EC2 se siguen poniendo en marcha y se le siguen cobrando cargos, a menos que apague explícitamente la instancia.

P: ¿Se cobra la creación y la configuración de un dominio de Studio?

No, no se le cobra por crear ni configurar un dominio de Studio, lo que incluye agregar, actualizar y eliminar perfiles de usuarios.

P: ¿Cómo puedo ver los cargos desglosados de los blocs de notas de Studio o de otros servicios de SageMaker?

Como administrador, puede ver la lista de cargos desglosados de SageMaker, incluido Studio, en la consola de facturación de AWS. En la consola de administración de AWS para SageMaker, elija Services (Servicios) en el menú superior, escriba "billing" (facturación) en el cuadro de búsqueda y, luego, seleccione “Billing” (Facturación) en el menú desplegable y, a continuación, elija Bills (Facturas) en el panel izquierdo. En la sección “Details” (Detalles), puede hacer clic en SageMaker para ampliar la lista de regiones y analizar detenidamente los cargos desglosados.

P: ¿Qué es Amazon SageMaker Studio Lab?

Amazon SageMaker Studio Lab es un entorno de desarrollo de ML gratuito que provee computación, almacenamiento (hasta 15 GB) y seguridad (sin cargo) para cualquier persona que quiera aprender y experimentar con el ML. Todo lo que necesita para empezar es un ID de correo electrónico válido, no es necesario configurar una infraestructura o administrar la identidad o el acceso ni registrarse en una cuenta de AWS. SageMaker Studio Lab acelera la creación de modelos a través de su integración con GitHub y viene preconfigurado con las herramientas, los marcos de trabajo y las bibliotecas de ML más populares para que pueda comenzar de inmediato. SageMaker Studio Lab automáticamente guarda su trabajo para que no tenga que volver a empezar entre sesiones. Es tan fácil como cerrar su ordenador portátil y volver más tarde.

P: ¿Por qué debería utilizar Amazon SageMaker Studio Lab?

Amazon SageMaker Studio Lab es para aquellos estudiantes, investigadores y científicos de datos que necesitan un entorno de desarrollo de bloc de notas gratuito que no requiera configuración para sus clases ni experimentos con ML. Amazon SageMaker Studio Lab es ideal para los usuarios que no necesitan un entorno de producción, pero sí desean un subconjunto de la funcionalidad de SageMaker para mejorar sus habilidades de ML. Las sesiones de SageMaker se guardan automáticamente para permitir a los usuarios retomar su proyecto donde lo dejaron para la sesión de cada usuario.

P: ¿Cómo funciona Amazon SageMaker Studio Lab con los demás servicios de AWS?

Amazon SageMaker Studio Lab es un servicio incorporado en AWS que usa muchos de los mismos servicios principales que utiliza Amazon SageMaker Studio Lab, como Simple Storage Service (Amazon S3) y Amazon EC2. A diferencia de otros servicios, los clientes no necesitan una cuenta de AWS. En lugar de eso, crean una cuenta específica para Amazon SageMaker Studio Lab con una dirección de correo electrónico. Esto le dará al usuario acceso a un entorno limitado (15 GB de almacenamiento y sesiones de 12 horas) para que pongan en marcha blocs de notas de ML.

P: ¿Qué es Amazon SageMaker Canvas?

Amazon SageMaker Canvas es un servicio visual de arrastrar y soltar que le permite a los analistas empresariales crear modelos de ML y generar predicciones precisas sin tener que escribir ningún código ni necesitar experiencia en ML. SageMaker Canvas facilita el acceso y la combinación de datos de diversos orígenes, limpia automáticamente los datos y aplica diversos ajustes de datos, y crea modelos de ML para generar predicciones precisas con un solo clic. También puede publicar resultados, explicar e interpretar modelos y compartir modelos con otras personas de su organización para que los revisen.

P: ¿Con qué fuentes de datos es compatible Amazon SageMaker Canvas?

SageMaker Canvas le permite descubrir orígenes de datos de AWS a los que su cuenta tenga acceso sin problemas, incluidos Simple Storage Service (Amazon S3) y Amazon Redshift. Puede buscar e importar datos con la interfaz visual de arrastrar y soltar de SageMaker Canvas. Además, puede arrastrar y soltar archivos del disco local y utilizar conectores prediseñados para importar los datos de orígenes de terceros como Snowflake.

P: ¿Cómo creo un modelo de ML para generar predicciones precisas?

Luego de que ha conectado los orígenes, seleccionado los conjuntos de datos y preparado sus datos, puede seleccionar la columna de destino que quiere predecir para iniciar un trabajo de creación de modelos. Amazon SageMaker Canvas identifica automáticamente el tipo de problema, genera características relevantes nuevas, prueba un conjunto integral de modelos de predicción con técnicas de ML como regresión
lineal, regresión logística, aprendizaje profundo, previsión de serie temporal y potenciación del gradiente, y crea un modelo que hace predicciones precisas en función de su conjunto de datos.

P: ¿Cuánto se tarda en crear un modelo? ¿cómo puedo monitorear el progreso durante la creación del modelo?

El tiempo que tarda en crear el modelo depende del tamaño de su conjunto de datos. Los conjuntos de datos pequeños tardan menos de 30 minutos y los conjuntos de datos grandes pueden tardar unas horas. A medida que avanza el trabajo de creación del modelo, Amazon SageMaker Canvas provee actualizaciones visuales detalladas, incluyendo el porcentaje de finalización del trabajo y la cantidad de tiempo restante para completar el trabajo.

Entrenamiento de modelos

P: ¿Qué es Amazon SageMaker Experiments?

Amazon SageMaker Experiments ayuda a organizar las iteraciones y hacer un seguimiento de ellas en modelos de ML. SageMaker Experiments ayuda a administrar iteraciones al capturar de forma automática los parámetros de entrada, configuraciones y resultados y guardarlos como “experimentos”. Puede trabajar desde la interfaz visual de SageMaker Studio, donde puede navegar por experimentos activos, buscar experimentos previos por características, revisar experimentos anteriores y sus resultados, y comparar los resultados de los experimentos de forma visual.

P: ¿Qué es Amazon SageMaker Debugger?

Amazon SageMaker Debugger registra automáticamente métricas en tiempo real durante el entrenamiento, como las matrices de confusión y los gradientes de aprendizaje, para ayudar a mejorar la precisión del modelo. Las métricas de SageMaker Debugger pueden visualizarse en SageMaker Studio para entenderlas con facilidad. SageMaker Debugger también genera advertencias y consejos de solución cuando se detectan problemas de entrenamiento comunes. SageMaker Debugger también supervisa y describe de forma automática y en tiempo real los recursos del sistema, como las CPU, las GPU, la red y la memoria, y brinda recomendaciones respecto de la reasignación de estos recursos. Esto le permite utilizar sus recursos de manera eficiente durante el entrenamiento y ayuda a reducir los costos y los recursos.

P: ¿Amazon SageMaker admite la formación distribuida?

Sí. Amazon SageMaker puede distribuir automáticamente los modelos de aprendizaje profundo y los grandes conjuntos de entrenamiento entre las instancias de GPU de AWS en una fracción del tiempo que lleva crear y optimizar estas estrategias de distribución de forma manual. Las dos técnicas de entrenamiento distribuido que SageMaker aplica son el paralelismo de datos y el paralelismo de modelos. El paralelismo de datos se aplica para mejorar las velocidades de entrenamiento al dividir los datos de forma equitativa entre las múltiples instancias de GPU, lo que permite que todas las instancias se entrenen al mismo tiempo. El paralelismo de modelos es útil para los modelos que son demasiado grandes para estar almacenados en una única GPU y necesitan que el modelo esté dividido en partes más pequeñas antes de distribuirlas entre varias GPU. Con solo unas pocas líneas de código adicional en sus scripts de entrenamiento de PyTorch y TensorFlow, SageMaker aplicará el paralelismo de datos o el paralelismo de modelos por usted de forma automática, lo que le permitirá desarrollar e implementar modelos con mayor rapidez. SageMaker determinará el mejor enfoque para dividir el modelo mediante algoritmos de partición de gráficos para balancear el procesamiento informático de cada GPU y, a la vez, minimizar la comunicación entre instancias de GPU. SageMaker también optimiza los trabajos de entrenamiento distribuido mediante algoritmos que utilizan completamente la computación y las redes de AWS para lograr una eficiencia de escalado casi lineal, lo que le permite completar el entrenamiento con mayor rapidez que con implementaciones manuales de código abierto.

P: ¿Qué es SageMaker Training Compiler?

Amazon SageMaker Training Compiler es un compilador de aprendizaje profundo (DL) que acelera la formación de modelos de DL hasta un 50 % mediante optimizaciones a nivel de gráficos y kernel para utilizar las GPU de manera más eficiente. Training Compiler tiene versiones integradas de TensorFlow y PyTorch en SageMaker, para que pueda acelerar la formación en estos marcos de trabajo populares con cambios mínimos de código.

P: ¿Cómo funciona SageMaker Training Compiler?

SageMaker Training Compiler acelera el entrenamiento mediante la conversión de los modelos de DL de representaciones de lenguaje de alto nivel a instrucciones optimizadas para hardware que se entrenan más rápido que los trabajos con los marcos de trabajo nativos. Para ser más específicos, SageMaker Training Compiler utiliza optimizaciones a nivel de gráficos (fusión de operadores, planificación de memoria y simplificación algebraica), optimizaciones a nivel del flujo de datos (transformación del diseño, eliminación de subexpresiones comunes) y optimizaciones de backend (ocultamiento de la latencia de la memoria, optimizaciones orientadas a los bucles) para producir un trabajo de entrenamiento de modelos que utilice de forma más eficiente los recursos de hardware y, como resultado, entrene el modelo con más rapidez.

P: ¿Cómo puedo utilizar SageMaker Training Compiler?

Amazon SageMaker Training Compiler está incorporado en el SDK de SageMaker Python y en los contenedores para aprendizaje profundo de Hugging Face de SageMaker. No necesita cambiar sus flujos de datos para acceder a sus beneficios de aceleración. Puede poner en marcha trabajos de entrenamiento de la misma manera que lo hacía antes, con cualquier interfaz de SageMaker: instancias de comandos de Amazon SageMaker, SageMaker Studio, AWS SDK para Python (Boto3) y AWS Command Line Interface. Para habilitar SageMaker Training Compiler puede agregar una clase de TrainingCompilerConfig como parámetro cuando cree un objeto estimador de marco. En la práctica, esto representa un par de líneas de código agregadas a su script de trabajo de entrenamiento existente para una sola instancia de GPU. La mayoría de la documentación detallada actualizada, blocs de notas de muestra y ejemplos están disponibles en la documentación.

P: ¿Cuál es el esquema de precios de SageMaker Training Compiler?

Training Compiler es una característica de SageMaker y se provee sin costo adicional exclusivamente a los clientes de SageMaker. Los clientes pueden reducir sus costos con Training Compiler conforme se reducen los tiempos de entrenamiento.

P: ¿Qué es Managed Spot Training?

Managed Spot Training con Amazon SageMaker le permite entrenar sus modelos de ML con instancias de spot de Amazon EC2, y así reducir el costo de entrenamiento de los modelos en hasta un 90 %.

P: ¿Cómo uso Managed Spot Training?

Usted habilita la opción de Managed Spot Training cuando envía sus trabajos de entrenamiento y especifica cuánto tiempo quiere esperar para la capacidad Spot. Amazon SageMaker usa las instancias de spot de Amazon EC2 para poner en marcha su trabajo y administra la capacidad Spot. Tiene completa visibilidad del estado del trabajo de entrenamiento, mientras se está poniendo en marcha y cuando está esperando por más capacidad.

P: ¿Cuándo debo usar Managed Spot Training?

Managed Spot Training es ideal cuando tiene flexibilidad en las ejecuciones de entrenamiento y quiere minimizar el costo de sus trabajos de entrenamiento. Con Managed Spot Training, puede reducir el costo de entrenamiento de sus modelos de ML hasta en un 90 %.

P: ¿Cómo funciona Managed Spot Training?

Managed Spot Training usa las instancias de spot de Amazon EC2 para el entrenamiento, que pueden ser reemplazadas cuando AWS necesite la capacidad. Por lo tanto, los trabajos de Managed Spot Training pueden ponerse en marcha en incrementos pequeños a medida que haya capacidad disponible. No es necesario que los trabajos de entrenamiento empiecen desde el principio cada vez que haya una interrupción, ya que Amazon SageMaker puede reanudar los trabajos con el punto de control del último modelo. Los marcos y los algoritmos de visión artificial integrados en SageMaker permiten establecer puntos de control periódicos que se pueden establecer con modelos personalizados.

P: ¿Debo establecer puntos de control periódicamente con Managed Spot Training?

Por lo general, recomendamos establecer puntos de control periódicamente para trabajos de entrenamiento largos. Esto evita que los trabajos de Managed Spot Training se reinicien si la capacidad está agotada. Cuando habilita los puntos de control, Amazon SageMaker reanuda sus trabajos de Managed Spot Training desde el último punto de control.

P: ¿Cómo se calcula el ahorro en el costo con trabajos de Managed Spot Training?

Una vez que un trabajo de Managed Spot Training se completa, usted puede ver el ahorro en la consola de administración de AWS así como calcular el ahorro de costos como la diferencia porcentual entre la duración de la ejecución del trabajo de entrenamiento y la duración que se cobró.

Independientemente de cuántas veces hayan sido interrumpidos los trabajos de Managed Spot Training, solo se cobrará una vez por la duración que tomo descargar los datos.

P: ¿Qué instancias puedo usar con Managed Spot Training?

Managed Spot Training puede usarse con todas las instancias admitidas en Amazon SageMaker.

P: ¿En qué regiones de AWS se admite Managed Spot Training?

Managed Spot Training se admite en todas las regiones de AWS en las que Amazon SageMaker está disponible actualmente.

P: ¿Hay límites en cuanto al tamaño del conjunto de datos que se puede utilizar para el entrenamiento?

No hay límites fijos en cuanto al tamaño del conjunto de datos que se puede utilizar para formar modelos con Amazon SageMaker.

P: ¿Qué algoritmos utiliza Amazon SageMaker para generar modelos?

Amazon SageMaker incluye algoritmos integrados para regresión lineal, regresión logística, agrupación de clústeres k-means, análisis de componentes principales, equipos de factorización, modelado de temas neuronal, asignación latente dirichlet, árboles con potenciación del gradiente, secuencia a secuencia, previsión de serie temporal, word2vec y clasificación de imágenes. SageMaker también proporciona versiones optimizadas de Apache MXNet, Tensorflow, Chainer, PyTorch, Gluon, Keras, Horovod, Scikit-learn y contenedores de Deep Graph Library. Además, Amazon SageMaker admite algoritmos de entrenamiento personalizados provistos mediante una imagen de Docker que se ajuste a la especificación documentada.

P: ¿Qué es el ajuste de modelo automático?

La mayoría de los algoritmos de ML presenta una variedad de parámetros que controlan la manera en la que funciona el algoritmo subyacente. Dichos parámetros generalmente se denominan hiperparámetros y sus valores afectan la calidad de los modelos entrenados. El ajuste de modelo automático es el proceso por el cual se busca un conjunto de hiperparámetros para un algoritmo que puede producir un modelo óptimo.

P: ¿Qué modelos se pueden modificar con el ajuste de modelo automático?

Puede ejecutar el ajuste de modelo automático en Amazon SageMaker sobre cualquier algoritmo siempre y cuando sea científicamente viable, incluidos los algoritmos de SageMaker integrados, las redes neuronales profundas o los algoritmos arbitrarios que incorpora a SageMaker como imágenes de Docker.

P: ¿Puedo usar el ajuste de modelo automático fuera de Amazon SageMaker?

Por ahora no. La mejor experiencia y el mejor rendimiento del ajuste de modelo se obtienen dentro de Amazon SageMaker.

P: ¿Qué es el algoritmo de ajuste subyacente?

Actualmente, nuestro algoritmo para el ajuste de hiperparámetros es una implementación personalizada de optimización bayesiana. Su objetivo es optimizar una métrica de objetivos específica del cliente en todo el proceso de ajuste. Específicamente, verifica la métrica de objetivos de trabajos de entrenamiento finalizados y utiliza el conocimiento para inferir la combinación de hiperparámetros para el próximo trabajo de entrenamiento.

P: ¿Recomendarán hiperparámetros específicos para el ajuste?

No. La manera en la que determinados hiperparámetros afectan al rendimiento del modelo depende de varios factores y es difícil decir de manera definitiva que un hiperparámetro es más importante que otros y que, por lo tanto, debe ajustarse. Para algoritmos integrados en Amazon SageMaker, sí avisamos si un hiperparámetro se puede ajustar o no.

P: ¿Cuánto demora una tarea de ajuste de hiperparámetros?

La duración de una tarea de ajuste de hiperparámetros depende de varios factores, incluido el tamaño de los datos, el algoritmo subyacente y los valores de los hiperparámetros. Además, los clientes pueden elegir el número de tareas de entrenamiento simultáneas y el número total de tareas de entrenamiento. Todas estas opciones afectan la duración del trabajo de ajuste de los hiperparámetros.

P: ¿Puedo optimizar varios objetivos de manera simultánea, como la optimización de un modelo, para que sea ágil y preciso?

Por ahora no. Actualmente, debe especificar una única métrica de objetivo que quiera optimizar, o bien modificar el código del algoritmo para emitir una métrica nueva, que se promedia entre dos o más métricas útiles, y optimizar el proceso de ajuste en pos de dicha métrica de objetivo.

P: ¿Cuánto cuesta el ajuste de modelo automático?

No se cobra la tarea de ajuste de hiperparámetros en sí. Se le cobrarán los trabajos de formación que inicie el trabajo de ajuste de hiperparámetros, en función de los precios de la formación de modelos.

P: ¿Cómo sé si debo usar Amazon SageMaker Autopilot o el ajuste de modelo automático?

Amazon SageMaker Autopilot automatiza todo en un flujo de trabajo típico de ML. Esto incluye el preprocesamiento de características, la selección de algoritmos y el ajuste de hiperparámetro, y al mismo tiempo se centra en los casos de uso de clasificación y regresión. Por otra parte, el ajuste de modelo automático está diseñado para adecuarse a cualquier modelo, independientemente de si está basado en algoritmos integrados, marcos de aprendizaje profundo o contenedores personalizados. A cambio de la flexibilidad, debe hacer una selección manual del algoritmo específico, los hiperparámetros que quiere ajustar y los rangos de búsqueda correspondientes.

P: ¿Qué es el aprendizaje mediante refuerzo?

Es una técnica de ML que permite que un agente aprenda en un entorno interactivo por el método de prueba y error, con la retroalimentación obtenida de sus propias acciones y experiencias.

P: ¿Puedo entrenar modelos de aprendizaje mediante refuerzo en Amazon SageMaker?

Sí. Aparte de los modelos de aprendizaje supervisado y no supervisado, puede entrenar modelos de aprendizaje mediante refuerzo en Amazon SageMaker.

P: ¿En qué se diferencia el aprendizaje mediante refuerzo del aprendizaje supervisado?

Ambos tipos de aprendizaje usan la asignación entre la entrada y la salida pero, a diferencia del aprendizaje supervisado en el que la retroalimentación proporcionada al agente es un conjunto de acciones correctas para hacer una tarea, el aprendizaje mediante refuerzo utiliza una retroalimentación retrasada donde las señales de compensación se optimizan para garantizar un objetivo a largo plazo a través de una secuencia de acciones.

P: ¿Cuándo debo utilizar el aprendizaje mediante refuerzo?

Mientras que el objetivo de las técnicas de aprendizaje supervisado es encontrar la respuesta correcta en función de los patrones de los datos de formación, el objetivo de las técnicas de aprendizaje sin supervisar es encontrar similitudes y diferencias entre los puntos de datos. Por el contrario, el objetivo de las técnicas de refuerzo de aprendizaje (RL) es aprender cómo lograr un resultado deseado, incluso cuando no esté claro cómo lograrlo. Como consecuencia, el RL es más adecuado para habilitar aplicaciones inteligentes en las que un agente puede tomar decisiones autónomas, como robótica, vehículos autónomos, sistemas de acondicionamiento, control industrial, etc.

P: ¿Qué tipo de entornos puedo utilizar para el entrenamiento de modelos RL?

Amazon SageMaker RL admite distintos entornos para el entrenamiento de modelos RL. Puede usar servicios de AWS como AWS RoboMaker, entornos de código abierto o personalizados desarrollados mediante interfaces Open AI Gym, así como entornos de simulación comercial, como MATLAB y SimuLink.

P: ¿Tengo que escribir mis propios algoritmos de agente de RL para entrenar modelos RL?

No. Amazon SageMaker RL incluye conjuntos de herramientas de RL, como Coach y Ray RLLib, que ofrecen implementaciones de algoritmos de agente de RL, como DQN, PPO y A3C, entre otros.

P: ¿Puedo utilizar mis propias implementaciones de algoritmos y bibliotecas de RL, y ponerlas en marcha en Amazon SageMaker RL?

Sí. Puede traer sus propias implementaciones de algoritmos y bibliotecas de RL en contenedores Docker, y ponerlas en marcha en Amazon SageMaker RL.

P: ¿Puedo realizar ejecuciones distribuidas con Amazon SageMaker RL?

Sí. Puede incluso seleccionar un clúster heterogéneo, donde el entrenamiento puede ponerse en marcha en una instancia de GPU y las simulaciones en varias instancias de CPU.

Implementación de modelos

P: ¿Qué opciones de implementación ofrece Amazon SageMaker?

Después de crear y entrenar los modelos, Amazon SageMaker ofrece tres opciones para implementarlos y poder comenzar a hacer predicciones. La inferencia en tiempo real es adecuada para cargas de trabajo con requisitos de latencia de milisegundos, tamaños de carga útil de hasta 6 MB y tiempos de procesamiento de hasta 60 segundos. La transformación por lotes es ideal para predicciones sin conexión sobre grandes lotes de datos con disponibilidad anticipada. La inferencia asíncrona está diseñada para cargas de trabajo que no tienen requisitos de latencia inferiores a un segundo, tamaños de carga de hasta 1 GB y tiempos de procesamiento de hasta 15 minutos. 

P: ¿Qué es la inferencia asíncrona de Amazon SageMaker?

La inferencia asíncrona de Amazon SageMaker pone en cola las solicitudes entrantes y las procesa de forma asíncrona. Esta opción es ideal para solicitudes con tamaños de carga grandes o tiempos de procesamiento largos que necesitan procesarse a medida que llegan las solicitudes. De manera opcional, puede configurar el escalado automático para reducir verticalmente a cero el recuento de instancias para ahorrar costos cuando no se procesen activamente las solicitudes. 

P: ¿Cómo puedo configurar el escalado automático para reducir verticalmente a cero el recuento de instancias para ahorrar costos cuando no se procesen activamente las solicitudes?

Puede reducir verticalmente a cero el recuento de instancias de punto de conexión de la inferencia asincrónica de Amazon SageMaker para ahorrar costos cuando no se procesen activamente las solicitudes. Es necesario definir una política de escalado que escale sobre la métrica personalizada “ApproximateBacklogPerInstance” y establecer el valor “MinCapacity” a cero. Para obtener instrucciones paso a paso, visite la sección de Autoescalado de un punto de conexión asincrónico de la guía del desarrollador. 

P: ¿Qué es Amazon SageMaker Serverless Inference?

Amazon SageMaker Serverless Inference es una opción personalizada de publicación de modelos sin servidor que facilita la implementación y el escalado de modelos de ML. Los puntos de enlace de Amazon SageMaker Serverless Inference inician automáticamente los recursos de computación y los escala de forma ascendente y descendente dependiendo del tráfico, lo que elimina la necesidad de elegir el tipo de instancia, ejecutar una capacidad aprovisionada o administrar el escalado. También tiene la opción de especificar los requisitos de memoria para los puntos de enlace de su inferencia sin servidor. Solo paga por la duración de la ejecución del código de inferencia y la cantidad de datos procesados, no por el tiempo de inactividad.

P: ¿Por qué debería utilizar Amazon SageMaker Serverless Inference?

Amazon SageMaker Serverless Inference simplifica la experiencia del desarrollador, ya que elimina la necesidad de aprovisionar capacidad por adelantado y administrar las políticas de escalado. SageMaker Serverless Inference puede escalar de manera instantánea de decenas a miles de inferencias en segundos en función de los patrones de uso, lo que lo hace ideal para aplicaciones de ML con tráfico intermitente o impredecible. Por ejemplo, un servicio de chatbot utilizado por una empresa de procesamiento de nóminas experimenta un aumento de las consultas a final de mes, mientras que el resto del mes el tráfico es intermitente. El aprovisionamiento de instancias para todo el mes en estos casos no es rentable, ya que se termina pagando por los periodos de inactividad. SageMaker Serverless Inference ayuda a solucionar estos tipos de casos de uso, ya que provee un escalado automático y rápido listo para utilizar sin necesidad de pronosticar la demanda de tráfico por adelantado ni administrar las políticas de escalado. Además, solo se paga por el tiempo de computación en el que se pone en marcha el código de inferencia (facturado en milisegundos) y el procesamiento de datos, lo que lo convierte en una opción rentable para cargas de trabajo con tráfico intermitente.

P: ¿Qué es Amazon SageMaker Inference Recommender?

Amazon SageMaker Inference Recommender es una nueva capacidad de Amazon SageMaker que reduce el tiempo requerido para producir modelos de ML mediante la automatización de los análisis comparativos de rendimiento y el ajuste del rendimiento de los modelos en todas las instancias de ML de SageMaker. Ahora puede utilizar Amazon SageMaker Inference Recommender para implementar su modelo en un punto de conexión que entregue el mejor rendimiento y reduzca los costos. Puede comenzar con Amazon SageMaker Inference Recommender en minutos mientras selecciona un tipo de instancia y obtener recomendaciones para configuraciones óptimas de puntos de conexión en un par de horas, lo que ahorra semanas de tiempo de pruebas y ajustes manuales. Con Amazon SageMaker Inference Recommender, solo paga por las instancias de ML de SageMaker utilizadas durante la prueba de carga y no hay cargos adicionales.

P: ¿Por qué debería utilizar SageMaker Inference Recommender?

Debería utilizar SageMaker Inference Recommender si necesita recomendaciones de configuraciones de puntos de enlace adecuadas para mejorar el rendimiento y reducir los costos. Anteriormente, los científicos de datos que deseaban implementar sus modelos tenían que ejecutar análisis comparativos manuales para seleccionar la configuración de punto de conexión adecuada. Primero, tenían que seleccionar el tipo de instancia de ML adecuado a partir de los más de 70 tipos de instancias disponibles en función de los requisitos de recursos para sus modelos y las cargas de muestra, para luego optimizar el modelo para dar cuenta del hardware diferente. A continuación, tenían que realizar pruebas de carga extensas para comprobar que se cumplan los requisitos de latencia y rendimiento y que los costos sean bajos. SageMaker Inference Recommender elimina esta complejidad, ya que facilita: 1) el comienzo en minutos con una recomendación de instancia; 2) la realización de pruebas de carga en todos los tipos de instancia para obtener recomendaciones para su punto de conexión en horas; y 3) el ajuste automático de los parámetros de servidor de modelos y contenedores y la realización de optimizaciones de modelos para un determinado tipo de instancia.

P: ¿Cómo funciona SageMaker Inference Recommender con otros servicios de AWS?

Los científicos de datos pueden acceder a SageMaker Inference Recommender desde SageMaker Studio, AWS SDK para Python (Boto3) o AWS CLI. Pueden obtener recomendaciones de implementación desde SageMaker Studio en el registro de modelos de SageMaker para versiones de modelos registrados. Los científicos de datos pueden buscar y filtrar las recomendaciones con SageMaker Studio, AWS SDK o AWS CLI.

P: ¿SageMaker Inference Recommender admite puntos de conexión de varios modelos o puntos de enlace de varios contenedores?

No, actualmente solo se admite un único modelo por punto de conexión.

P: ¿Qué tipo de puntos de conexión admite SageMaker Inference Recommender?

Actualmente, solo se admiten puntos de conexión en tiempo real.

P: ¿Puedo utilizar SageMaker Inference Recommender en una región y hacer análisis comparativos en distintas regiones?

Al momento del lanzamiento, se admitirán todas las regiones que admite SageMaker, a excepción de las regiones de China de AWS.

P: ¿SageMaker Inference Recommender admite instancias Inf1 de Amazon EC2?

Sí, admitimos todos los tipos de contenedores. Inf1 de Amazon EC2, basado en el chip de AWS Inferentia, requiere un artefacto de modelo compilado utilizando el compilador Neuron o SageMaker Neo. Una vez que tenga un modelo compilado para un objetivo de Inferentia y el URI de la imagen del contenedor asociado, puede utilizar SageMaker Inference Recommender para hacer análisis comparativos de los distintos tipos de instancias de Inferentia.


P: ¿Qué es el supervisor de modelos de Amazon SageMaker?

El supervisor de modelos de Amazon SageMaker permite a los desarrolladores detectar y solucionar cambios de concepto. El monitor de modelos de SageMaker detecta de forma automática cambios de concepto en los modelos implementados y brinda alertas detalladas que ayudan a identificar la fuente del problema. Todos los modelos entrenados en SageMaker emiten automáticamente métricas clave que pueden recopilarse y ser visualizadas en SageMaker Studio. Desde SageMaker Studio puede configurar la recopilación de datos, su visualización y cuándo recibir alertas.

P: ¿Puedo obtener acceso a la infraestructura en la que se pone en marcha Amazon SageMaker?

No. Amazon SageMaker opera la infraestructura informática por usted, lo que le permite ejecutar comprobaciones de estado, aplicar parches de seguridad y realizar otras tareas de mantenimiento de rutina. También puede implementar artefactos de modelos de entrenamiento con un código de inferencia personalizado en su propio entorno de alojamiento.

P: ¿Cómo puedo escalar el tamaño y el desempeño del modelo de Amazon SageMaker una vez que ya se encuentre en producción?

El alojamiento de Amazon SageMaker se ajusta automáticamente al rendimiento necesario para la aplicación mediante la característica Application Auto Scaling. Además, puede modificar manualmente el número y el tipo de instancia sin generar tiempos de inactividad mediante la modificación de la configuración del punto de conexión.

P: ¿Cómo puedo supervisar el entorno de producción de Amazon SageMaker?

Amazon SageMaker emite métricas de rendimiento hacia Amazon CloudWatch Metrics para que pueda realizar un seguimiento de métricas, definir alarmas y reaccionar automáticamente ante cambios en el tráfico de producción. Además, Amazon SageMaker escribe registros en Amazon CloudWatch Logs para permitirle monitorear el entorno de producción y solucionar sus problemas.

P: ¿Qué tipos de modelos se pueden alojar con Amazon SageMaker?

Amazon SageMaker puede alojar cualquier modelo que se ajuste a la especificación documentada para imágenes de Docker de inferencia. Incluye modelos creados a partir de códigos de inferencia y artefactos de modelos de Amazon SageMaker.

P: ¿Cuántas solicitudes de API simultáneas en tiempo real admite Amazon SageMaker?

Amazon SageMaker está diseñado para ajustar su escala a un número elevado de transacciones por segundo. El número preciso varía en función del modelo implementado y del número y del tipo de instancia en el que esté implementado el modelo.

P: ¿Qué es la transformación en lotes?

La transformación en lotes le permite poner en marcha las predicciones en datos de lotes grandes y pequeños. No es necesario desglosar el conjunto de datos en varios fragmentos ni administrar los puntos de conexión en tiempo real. Con una API simple, puede solicitar predicciones para un gran número de registros de datos y transformar los datos de manera rápida y sencilla.

P: ¿Qué es Amazon SageMaker Edge Manager?

Amazon SageMaker Edge Manager es una capacidad de Amazon SageMaker que facilita la optimización, la protección, la supervisión, y el mantenimiento de los modelos de ML en las flotas de dispositivos de borde, como las cámaras inteligentes, los robots, las computadoras personales y los dispositivos móviles. SageMaker Edge Manager ayuda a los desarrolladores de ML a operar modelos de ML en una variedad de dispositivos de borde a escala.

P: ¿Cómo puedo comenzar a utilizar SageMaker Edge Manager?

Para comenzar a utilizar SageMaker Edge Manager, debe compilar y empaquetar sus modelos de aprendizaje automático entrenados en la nube, registrar sus dispositivos y prepararlos con el SDK de SageMaker Edge Manager. Para preparar su modelo para la implementación, SageMaker Edge Manager utiliza SageMaker Neo para compilar el modelo del hardware de borde de destino. Una vez que el modelo está compilado, SageMaker Edge Manager firma el modelo con una clave generada por AWS, luego empaqueta el modelo con su tiempo de ejecución y las credenciales necesarias para prepararse para la implementación. Del lado del dispositivo, debe registrarlo con SageMaker Edge Manager, descargar el SDK de SageMaker Edge Manager y, luego, seguir las instrucciones para instalar el agente de SageMaker Edge Manager en sus dispositivos. El bloc de notas del tutorial proporciona un ejemplo paso a paso de cómo puede preparar los modelos y conectarlos a los dispositivos de borde con SageMaker Edge Manager.

P: ¿Qué dispositivos son compatibles con SageMaker Edge Manager?

Amazon SageMaker Edge Manager es compatible con dispositivos comunes basados en CPU (ARM, x86) y GPU (ARM, Nvidia) con sistemas operativos Linux y Windows. Con el tiempo, SageMaker Edge Manager ampliará su compatibilidad con más procesadores integrados y plataformas móviles que también son compatibles con SageMaker Neo.

P: ¿Tengo que utilizar Amazon SageMaker si quiero entrenar mi modelo para utilizar Amazon SageMaker Edge Manager?

No, no es necesario. Puede formar sus modelos con cualquier otro servicio o utilizar modelos preformados de código abierto o de proveedores de modelos.

P: ¿Tengo que utilizar Amazon SageMaker Neo si deseo compilar mi modelo para utilizar Amazon SageMaker Edge Manager?

Sí, debe hacerlo. Amazon SageMaker Neo convierte y compila sus modelos en un archivo ejecutable que usted luego puede empaquetar e implementar en sus dispositivos de borde. Una vez que el paquete del modelo se implemente, el agente de Amazon SageMaker Edge Manager desempacará el paquete del modelo y lo ejecutará en el dispositivo.

P: ¿Cómo implemento modelos en los dispositivos de borde?

Amazon SageMaker Edge Manager almacena el paquete del modelo en el bucket de Simple Storage Service (Amazon S3) especificado. Puede utilizar la característica de implementación por vía inalámbrica (OTA), que ofrece AWS IoT Greengrass, o cualquier otro mecanismo de implementación que elija para implementar el paquete del modelo en los dispositivos desde el bucket de S3.

P: ¿En qué se diferencia el SDK de Amazon SageMaker Edge Manager del tiempo de ejecución de SageMaker Neo (dlr)?

El dlr de Neo es un tiempo de ejecución de código abierto que solo pone en marcha modelos compilados por el servicio Amazon SageMaker Neo. En comparación con el dlr de código abierto, el SDK de SageMaker Edge Manager incluye un agente de nivel empresarial integrado en el dispositivo con características adicionales de seguridad, administración de modelos y publicación de modelos. El SDK de SageMaker Edge Manager es conveniente para la implementación en producción a escala.

P: ¿Cómo se relaciona Amazon SageMaker Edge Manager con AWS IoT Greengrass?

Amazon SageMaker Edge Manager y AWS IoT Greengrass pueden trabajar juntos en su solución de IoT. Cuando su modelo de ML está empaquetado con SageMaker Edge Manager, puede utilizar la característica de actualización OTA de AWS IoT Greengrass para implementar el paquete del modelo en su dispositivo. AWS IoT Greengrass le permite monitorear sus dispositivos de IoT de forma remota al mismo tiempo que SageMaker Edge Manager lo ayuda a monitorear y mantener los modelos de ML en los dispositivos.

P: ¿Cómo se relaciona Amazon SageMaker Edge Manager con AWS Panorama? ¿Cuándo debería utilizar Amazon SageMaker Edge Manager o AWS Panorama?

AWS ofrece las capacidades más completas para la ejecución de modelos en dispositivos de borde. Tenemos servicios para respaldar una amplia variedad de casos de uso, incluidos la visión artificial, el reconocimiento de voz y el mantenimiento predictivo.

Para aquellas empresas que buscan poner en marcha la visión artificial en dispositivos de borde, como cámaras y electrodomésticos, se puede utilizar AWS Panorama. Panorama ofrece aplicaciones de visión artificial para los dispositivos de borde listas para implementar. Es fácil comenzar a utilizar AWS Panorama, ya que inicia sesión en la consola en la nube, especifica el modelo que le gustaría utilizar en Simple Storage Service (Amazon S3) o en SageMaker y, luego, escribe la lógica de negocios como un script de Python. AWS Panorama compila el modelo para el dispositivo de destino y crea un paquete de la aplicación para que se pueda implementar en los dispositivos con solo unos pocos clics. Además, los proveedores de software independientes que quieran crear sus propias aplicaciones personalizadas pueden usar el SDK de AWS Panorama, mientras que los fabricantes de dispositivos pueden utilizar el SDK para dispositivos con el fin de certificar los suyos para AWS Panorama.

Los clientes que quieran crear sus propios modelos y tener un control más detallado de sus características pueden utilizar Amazon SageMaker Edge Manager. SageMaker Edge Manager es un servicio administrado para preparar, poner en marcha, supervisar y actualizar los modelos de ML en las flotas de dispositivos de borde, como las cámaras inteligentes, los parlantes inteligentes y los robots, para cualquier caso de uso, como el procesamiento de lenguaje natural, la detección de fraudes y el mantenimiento predictivo. SageMaker Edge Manager está destinado a los desarrolladores de ML de borde que quieren tener el control de sus modelos, incluidos el diseño de diferentes características para los modelos y su supervisión en caso de desviaciones. Cualquier desarrollador de ML de borde puede utilizar SageMaker Edge Manager mediante la consola y las API de SageMaker. SageMaker Edge Manager proporciona las capacidades de SageMaker para crear, entrenar e implementar los modelos en la nube en dispositivos de borde.

P: ¿En qué regiones de AWS se encuentra disponible Amazon SageMaker Edge Manager?

Amazon SageMaker Edge Manager está disponible en seis regiones de AWS: Este de EE. UU. (Norte de Virginia), Este de EE. UU. (Ohio), Oeste de EE. UU. (Oregón), Europa (Irlanda), Europa (Fráncfort) y Asia-Pacífico (Tokio). Para obtener información detallada, consulte la tabla de regiones de AWS.

P: ¿Qué es Amazon SageMaker Neo?

Amazon SageMaker Neo permite que los modelos de ML entrenen una sola vez y se pongan en marcha en cualquier lugar, tanto en la nube como en el borde. SageMaker Neo optimiza automáticamente los modelos creados con marcos de aprendizaje profundo conocidos que se pueden utilizar para la implementación en múltiples plataformas de hardware. Los modelos optimizados se ponen en marcha hasta 25 veces más rápido y consumen menos de una décima parte de los recursos de los modelos de ML típicos.

P: ¿Cómo puedo comenzar a utilizar Amazon SageMaker Neo?

Para comenzar a utilizar Amazon SageMaker Neo, inicie sesión en la consola de Amazon SageMaker, elija un modelo entrenado, siga el ejemplo para compilar modelos e implemente el modelo resultante en la plataforma de hardware de destino.

P: ¿Cuáles son los principales componentes de Amazon SageMaker Neo?

Amazon SageMaker Neo tiene dos componentes principales: un compilador y un tiempo de ejecución. En primer lugar, el compilador de Neo lee los modelos exportados por los distintos marcos de trabajo. A continuación, convierte las operaciones y funciones específicas del marco de trabajo en una representación intermedia con independencia de este. Después, realiza una serie de optimizaciones. Entonces, el compilador genera código binario para las operaciones optimizadas y las escribe en una biblioteca de objetos compartidos. El compilador también guarda los parámetros y la definición del modelo en archivos independientes. Durante la ejecución, el tiempo de ejecución de Neo carga los artefactos generados por el compilador (definición del modelo, parámetros y la biblioteca de objetos compartidos) para poner en marcha el modelo.

P: ¿Tengo que utilizar Amazon SageMaker si quiero entrenar mi modelo para utilizar Amazon SageMaker Neo en la conversión del modelo?

No. Puede entrenar los modelos en cualquier otro punto y utilizar Neo para optimizarlos para dispositivos compatibles con AWS IoT Greengrass o instancias de aprendizaje automático de Amazon SageMaker.

P: ¿Qué modelos admite Amazon SageMaker Neo?

En la actualidad, Amazon SageMaker Neo admite los modelos de aprendizaje profundo más populares, que impulsan las aplicaciones de visión informática y los modelos de árboles de decisiones más conocidos que se utilizan hoy en día en Amazon SageMaker. Neo optimiza el rendimiento de los modelos AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet y DenseNet entrenados en MXNet y TensorFlow, así como de los modelos de clasificación y bosque de corte aleatorio entrenados en XGBoost.

P: ¿Qué plataformas de hardware admite Amazon SageMaker Neo?

Puede encontrar las listas de las instancias en la nube, los dispositivos de borde y las versiones de marcos admitidos en la documentación de Amazon SageMaker Neo.

P: ¿En qué regiones de AWS se encuentra disponible Amazon SageMaker Neo?

Si desea ver una lista completa de las regiones disponibles, consulte la tabla de regiones de AWS.

Savings Plans de Amazon SageMaker

P: ¿Qué es Savings Plans de Amazon SageMaker?

Savings Plans de Amazon SageMaker ofrece un modelo de precios flexible basado en el uso para Amazon SageMaker que requiere comprometerse a una cantidad constante de uso (medido en USD/hora) durante un periodo de 1 o 3 años. Los planes de Savings Plans de Amazon SageMaker proporcionan la mayor flexibilidad posible y permiten reducir los costos en hasta un 64 %. Estos planes se aplican de manera automática a los usos de instancias de ML de SageMaker elegibles, incluidos los blocs de notas de SageMaker Studio, los blocs de notas bajo demanda de SageMaker, el procesamiento de SageMaker, SageMaker Data Wrangler, el entrenamiento con SageMaker, la inferencia en tiempo real de SageMaker y la transformación en lotes de SageMaker, sin importar la familia, el tamaño ni la región de las instancias. Por ejemplo, puede cambiar el uso de una instancia de CPU ml.c5.xlarge que se ponga en marcha en Este de EE. UU. (Ohio) a una instancia ml.Inf1 en Oeste de EE. UU. (Oregón) para cargas de trabajo de inferencia en cualquier momento y pagar de manera automática el precio de Savings Plans.

P: ¿Por qué debería utilizar Savings Plans de Amazon SageMaker?

Si hace un uso constante de las instancias de Amazon SageMaker (medido en USD/hora), utiliza varios componentes de SageMaker o espera que su configuración tecnológica (como la región o la familia de instancias) cambie con el paso del tiempo, los planes de Savings Plans para SageMaker harán que sea más sencillo maximizar el ahorro y le brindarán flexibilidad para cambiar la configuración de la tecnología subyacente según las necesidades de las aplicaciones o la innovación. Las tarifas de Savings Plans se aplican de manera automática a cualquier uso de instancias de ML apto sin necesidad de modificaciones manuales.

P: ¿Cómo puedo comenzar a utilizar Savings Plans de Amazon SageMaker?

Puede comenzar a utilizar Savings Plans desde AWS Cost Explorer en la consola de administración de AWS o mediante la API o CLI. Puede contratar fácilmente los planes de Savings Plans mediante las recomendaciones provistas en AWS Cost Explorer, a fin de obtener los mayores ahorros. El compromiso por hora recomendado es en función del uso bajo demanda histórico, así como de la elección que ha hecho del tipo de plan, el plazo y la opción de pago. Una vez que se suscriba a un plan de Savings Plan, el uso informático se cobrará automáticamente con los precios con descuento de Savings Plans y todo uso que exceda el compromiso se cobrará con las tarifas bajo demanda normales.

P: ¿En qué se diferencian los planes de Savings Plans de Amazon SageMaker de los Compute Savings Plans de Amazon EC2?

La diferencia entre Savings Plans de Amazon SageMaker y Savings Plans de EC2 reside en los servicios que incluyen. Savings Plans para SageMaker solo se aplica al uso de instancias de ML de SageMaker.

P: ¿Cómo funciona Savings Plans con AWS Organizations o con la facturación unificada?

Savings Plans se pueden adquirir desde cualquier cuenta en una familia de AWS Organizations o facturación unificada. De manera predeterminada, se puede disfrutar de los beneficios que Savings Plans en todas las cuentas que estén en una familia de AWS Organizations o facturación unificada. Sin embargo, también puede optar por limitar los beneficios de Savings Plans y hacer que solo la cuenta que los adquirió pueda usarlos.

Más información sobre los precios de Amazon SageMaker

Visite la página de precios
¿Está listo para comenzar?
Regístrese
¿Tiene más preguntas?
Contáctenos