- Machine Learning›
- Amazon SageMaker›
- Preguntas frecuentes sobre Amazon SageMaker
Preguntas frecuentes sobre Amazon SageMaker
Aspectos generales
¿Qué es Amazon SageMaker?
¿En qué regiones de AWS se encuentra disponible SageMaker?
Para ver una lista de las regiones admitidas por SageMaker, consulte la página de servicios regionales de AWS. Asimismo, para obtener más información, consulte Puntos de conexión regionales en la guía de referencia general de AWS.
¿Cuál es la disponibilidad de servicio de SageMaker?
¿De qué forma SageMaker protege el código?
SageMaker almacena el código en volúmenes de almacenamiento de ML, protegidos por grupos de seguridad y, opcionalmente, cifrados en reposo.
¿De qué medidas de seguridad dispone SageMaker?
SageMaker garantiza que los artefactos de los modelos de ML y otros artefactos del sistema estén cifrados tanto en tránsito como en reposo. Las solicitudes a la consola y la API de SageMaker se efectúan a través de una conexión segura (SSL). Transfiera roles de AWS Identity and Access Management a SageMaker para proporcionar permisos de acceso a recursos en su nombre para el entrenamiento y el despliegue. Puede usar buckets de Amazon Simple Storage Service (Amazon S3) cifrados para datos y artefactos de los modelos, así como también transferir una clave de AWS Key Management Service (AWS KMS) a los cuadernos de SageMaker, los trabajos de entrenamiento y los puntos de conexión para cifrar el volumen de almacenamiento de ML asociado. SageMaker también es compatible con Amazon Virtual Private Cloud (Amazon VPC) y con AWS PrivateLink.
¿SageMaker utiliza o comparte modelos, datos de entrenamiento o algoritmos?
SageMaker no utiliza ni comparte modelos, datos de entrenamiento o algoritmos. Sabemos que a los clientes les preocupa seriamente la confidencialidad y la seguridad de los datos. Es por ello que AWS permite controlar el contenido mediante herramientas sencillas y sólidas con las que se puede determinar dónde se almacenará ese contenido, proteger el contenido en tránsito y en reposo y administrar el acceso a los servicios y recursos de AWS de los usuarios. También implementamos controles técnicos y físicos diseñados para evitar el acceso no autorizado al contenido o su divulgación. Como cliente, se conserva la propiedad del contenido y se puede seleccionar qué servicios de AWS pueden procesar, almacenar y alojar el contenido. No accedemos al contenido ni lo usamos para ningún otro fin sin el consentimiento del cliente.
¿Cómo se cobra el uso de SageMaker?
Paga los recursos de procesamiento de datos, almacenamiento y cómputo de ML que use para alojar el cuaderno, entrenar el modelo, realizar predicciones y registrar los resultados. Con SageMaker, podrá seleccionar el número y el tipo de instancias utilizadas para el cuaderno alojado, el entrenamiento y el alojamiento del modelo. Solo pagará por lo que consuma y a medida que lo haga. No se requieren pagos mínimos ni compromisos iniciales. Para obtener más información, consulte la página de precios de Amazon SageMaker y la calculadora de precios de Amazon SageMaker.
¿Cómo puedo optimizar los costos de SageMaker, tales como detectar y detener los recursos inactivos para evitar cargos innecesarios?
Hay muchas prácticas recomendadas que puede adoptar para optimizar el uso de los recursos de SageMaker. Algunos enfoques implican optimizaciones de la configuración y otros, soluciones programáticas. En esta publicación de blog, se ofrece una guía completa sobre este concepto, con tutoriales visuales y muestras de código.
¿Qué sucede si ya tengo mi propio cuaderno, entrenamiento o entorno de alojamiento?
SageMaker ofrece un flujo de trabajo integral y completo, pero puede continuar usando las herramientas existentes con SageMaker. Puede transferir fácilmente los resultados de cada etapa hacia y desde SageMaker en función de las necesidades de su empresa.
¿R es compatible con SageMaker?
Sí. Puede utilizar R en las instancias de cuaderno de SageMaker, que incluyen un kernel R preinstalado y la biblioteca reticular. La biblioteca reticular ofrece una interfaz R para Amazon SageMaker Python SDK, lo que permite a los profesionales de ML crear, entrenar, ajustar y desplegar modelos R. También puede lanzar RStudio, un entorno de desarrollo integrado (IDE) para R en Amazon SageMaker Studio.
¿Qué es Amazon SageMaker Studio?
Amazon SageMaker Studio proporciona una única interfaz virtual basada en la web donde puede realizar todos los pasos de desarrollo de ML. SageMaker Studio le brinda acceso completo, control y visibilidad en todos los pasos requeridos para preparar datos y crear, entrenar e implementar modelos. Puede cargar datos, crear cuadernos nuevos, entrenar y ajustar modelos, retroceder y avanzar entre los pasos para ajustar experimentos, comparar resultados e implementar modelos para la producción, todo de forma rápida y en un solo lugar, lo que aumenta su productividad. Todas las actividades de desarrollo de ML, que incluyen cuadernos, administración de experimentos, creación automática de modelos, depuración y generación de perfiles y detección de desviación de modelos, se pueden realizar dentro de la interfaz visual unificada de SageMaker Studio.
¿Cómo puedo revisar mi modelo en busca de desequilibrios?
Amazon SageMaker Clarify ayuda a mejorar la transparencia del modelo mediante la detección de tendencias estadísticas en la totalidad del flujo de trabajo de machine learning. SageMaker Clarify revisa si hay desequilibrios durante la preparación de los datos, después del entrenamiento y de forma continua con el paso del tiempo. Además, incluye herramientas para explicar los modelos de aprendizaje automático y sus predicciones. Los resultados se pueden compartir mediante informes de explicabilidad.
¿Cuál es el esquema de precios de SageMaker Studio?
No se aplican cargos adicionales por utilizar SageMaker Studio. Solo paga los cargos subyacentes por computación y almacenamiento de los servicios que utilice dentro de SageMaker Studio.
¿En qué regiones se admite SageMaker Studio?
Puede encontrar las regiones en las que se admite SageMaker Studio en laGuía para desarrolladores de Amazon SageMaker.
¿Qué tipo de tendencias detecta SageMaker Clarify?
¿De qué manera SageMaker Clarify mejora la explicabilidad del modelo?
SageMaker Clarify está integrado a SageMaker Experiments para proporcionar un gráfico de la importancia de las características, que detalla la importancia de cada entrada del proceso general de toma de decisiones del modelo luego de que este se entrenó. Estos detalles pueden ayudar a determinar si la entrada de un modelo en particular posee más influencia de la que debería tener en el comportamiento general del modelo. SageMaker Clarify también efectúa explicaciones de las predicciones individuales disponibles a través de una API.
Gobernanza de ML
¿Qué herramientas de gobernanza de ML proporciona SageMaker?
SageMaker proporciona herramientas de gobernanza de ML personalizadas en todo el ciclo de vida de ML. Con el Administrador de roles de Amazon SageMaker, los administradores pueden definir permisos mínimos en minutos. Las tarjetas de modelos de Amazon SageMaker facilitan el trabajo de capturar, recuperar y compartir información esencial de los modelos, desde la concepción hasta el despliegue, y el panel de modelos de Amazon SageMaker lo mantiene informado sobre el comportamiento de los modelos de producción, todo en un solo lugar. Para
obtener más información, consulte Gobernanza del ML con Amazon SageMaker.
¿Para qué sirve el Administrador de roles de SageMaker?
Puede definir permisos mínimos en minutos con el administrador de roles de SageMaker. Proporciona un conjunto de permisos de referencia para actividades de ML y personas con un catálogo de políticas prediseñadas de IAM. Puede mantener los permisos de referencia o personalizarlos aún más según sus necesidades específicas. Con un par de indicaciones autoguiadas, puede ingresar rápidamente componentes de gobernanza comunes, como límites de acceso a la red y claves de cifrado. El administrador de roles de SageMaker generará la política de IAM de manera automática. Puede detectar el rol generado y las políticas asociadas mediante la consola de AWS IAM. Para adaptar aún más los permisos a su caso de uso, asocie sus políticas de IAM administradas al rol de IAM que cree con el administrador de roles de SageMaker. También puede agregar etiquetas para identificar el rol y organizar todos los servicios de AWS.
¿Para qué sirven las Tarjetas de modelos de SageMaker?
Las tarjetas de modelos de SageMaker lo ayudan a centralizar y estandarizar la documentación de los modelos a lo largo del ciclo de vida de ML al crear una única fuente de confianza para la información de cada modelo. Las tarjetas de modelos de SageMaker completan automáticamente los detalles de entrenamiento para acelerar el proceso de documentación. También puede agregar detalles como el propósito del modelo y los objetivos de rendimiento. Puede asociar resultados de la evaluación de modelos a su tarjeta de modelo y proporcionar visualizaciones para obtener información clave sobre el rendimiento de los modelos. Las tarjetas de modelos de SageMaker pueden compartirse fácilmente con otras personas al exportarlas en formato PDF.
¿Para qué sirve el Panel de modelos de SageMaker?
El panel de modelos de SageMaker le brinda una perspectiva general de los modelos y puntos de conexión implementados, lo cual le permite supervisar los recursos y las infracciones de comportamiento de los modelos en un solo panel. Le permite seguir el comportamiento de los modelos en cuatro dimensiones, incluida la calidad de modelos y datos, y la desviación de atribución de características y tendencias mediante su integración con el Monitor de modelos de SageMaker y SageMaker Clarify. El panel de modelos de SageMaker también proporciona una experiencia integrada para configurar y recibir alertas de trabajos de supervisión de modelos inactivos y faltantes y desviaciones en el comportamiento de los modelos en cuanto a la calidad del modelo, la calidad de los datos, la desviación de tendencias y la desviación de atribución de características. Puede inspeccionar aún más los modelos individuales y analizar factores que afectan el rendimiento de los modelos a lo largo del tiempo. Luego, puede hacer un seguimiento con profesionales de ML para tomar medidas correctivas.
Modelos básicos
¿Cómo puedo comenzar a usar SageMaker de forma rápida?
SageMaker JumpStart lo ayuda a comenzar a utilizar ML de forma rápida y fácil. SageMaker JumpStart proporciona un conjunto de soluciones para los casos de uso más comunes que se pueden implementar fácilmente con solo unos pocos pasos. Las soluciones son totalmente personalizables y muestran el uso de las plantillas y las arquitecturas de referencia de AWS CloudFormation, de manera que pueda acelerar el proceso del ML. SageMaker JumpStart también brinda modelos básicos y admite el despliegue en un solo paso y el ajuste de más de 150 modelos populares de código abierto, como los modelos de transformador, de detección de objetos y de clasificación de imágenes.
¿Qué modelos fundacionales están disponibles en SageMaker JumpStart?
SageMaker JumpStart proporciona modelos patentados y públicos. Para obtener una lista de los modelos fundacionales disponibles, consulte Introducción a Amazon SageMaker JumpStart.
¿Cómo puedo empezar a usar modelos básicos con SageMaker JumpStart?
Puede acceder a los modelos básicos a través de SageMaker Studio, el SDK de SageMaker y la consola de administración de AWS. Para empezar a usar los modelos fundacionales patentados, debe aceptar las condiciones de venta de AWS Marketplace.
¿Se utilizarán o compartirán mis datos para actualizar el modelo base que se ofrece a los clientes que utilizan SageMaker JumpStart?
No. Sus datos de inferencia y entrenamiento no se utilizarán ni compartirán para actualizar o entrenar el modelo base que SageMaker JumpStart muestra a los clientes.
¿Puedo ver los pesos de los modelos y los scripts de los modelos patentados con SageMaker JumpStart?
No. Los modelos patentados no permiten a los clientes ver los pesos y los scripts de los modelos.
¿En qué regiones están disponibles los modelos básicos de SageMaker JumpStart?
Los modelos se pueden detectar en todas las regiones en las que está disponible SageMaker Studio, pero la capacidad de desplegar un modelo varía según la disponibilidad del modelo y de la instancia del tipo de instancia requerido. Consulte la disponibilidad en las regiones de AWS y la instancia requerida en la página de detalles del modelo en AWS Marketplace.
¿Cuál es el precio de los modelos básicos de SageMaker JumpStart?
En el caso de los modelos patentados, se le cobrará el precio del software determinado por el proveedor del modelo y los cargos de infraestructura de SageMaker en función de la instancia utilizada. En el caso de los modelos disponibles públicamente, se le cobrarán cargos de infraestructura de SageMaker en función de la instancia utilizada. Para obtener más información, consulte los precios de Amazon SageMaker y AWS Marketplace.
¿Cómo garantiza SageMaker JumpStart la seguridad y protección de mis datos?
La seguridad es la principal prioridad de AWS, y SageMaker JumpStart está diseñado para ser seguro. Es por ello que SageMaker permite controlar el contenido mediante herramientas sencillas y sólidas con las que se puede determinar dónde se almacenará ese contenido, proteger el contenido en tránsito y en reposo y administrar el acceso a los servicios y recursos de AWS de los usuarios.
- No compartimos la información de entrenamiento e inferencias de los clientes con los vendedores de modelos de AWS Marketplace. Del mismo modo, los artefactos del modelo del vendedor (por ejemplo, los pesos de los modelos) no se comparten con el comprador.
- SageMaker JumpStart no utiliza modelos de clientes, datos de entrenamiento ni algoritmos para mejorar su servicio y no comparte los datos de entrenamiento e inferencia de los clientes con terceros.
- En SageMaker JumpStart, los artefactos del modelo ML se cifran en tránsito y en reposo.
- De acuerdo con el Modelo de responsabilidad compartida de AWS, AWS es responsable de proteger la infraestructura global que ejecuta todos los AWS. Usted es responsable de mantener el control del contenido que está alojado en esta infraestructura.
Al utilizar un modelo de AWS Marketplace o SageMaker JumpStart, los usuarios asumen la responsabilidad de la calidad de los resultados del modelo y reconocen las capacidades y limitaciones descritas en la descripción individual del modelo.
¿Qué modelos disponibles de manera pública son compatibles con SageMaker JumpStart?
SageMaker JumpStart incluye más de 150 modelos disponibles de manera pública con entrenamiento previo de PyTorch Hub y TensorFlow Hub. Para las tareas de visualización, como la clasificación de imágenes y la detección de objetos, puede usar los modelos como ResNet, MobileNet y Single-Shot Detector (SSD). Para las tareas de texto, como la clasificación de oraciones, la clasificación de textos o las respuestas a preguntas, puede usar los modelos como BERT, RoBERTa y DistilBERT.
¿Cómo puedo compartir artefactos de ML con otras personas dentro de mi organización?
Con SageMaker JumpStart, los científicos de datos y desarrolladores de ML pueden compartir artefactos de ML fácilmente, incluidos cuadernos y modelos, dentro de su organización. Los administradores pueden configurar un repositorio que sea accesible para un conjunto de usuarios definido. Todos los usuarios con permiso para acceder al repositorio pueden examinar, buscar y usar modelos y cuadernos, al igual que el contenido público dentro de SageMaker JumpStart. Los usuarios pueden seleccionar artefactos para entrenar modelos, implementar puntos de conexión y ejecutar cuadernos en SageMaker JumpStart.
¿Por qué debería usar SageMaker JumpStart para compartir artefactos de ML con otras personas dentro de mi organización?
Con SageMaker JumpStart, es posible acelerar el plazo de comercialización al crear aplicaciones de ML. Los modelos y cuadernos creados por un equipo dentro de su organización pueden compartirse fácilmente con otros equipos dentro de su organización con solo unos pasos. Compartir información interna y reutilizar activos puede aumentar de manera significativa la productividad de su organización.
¿Cómo puedo evaluar y seleccionar los modelos fundacionales?
ML de poco código
¿Qué es Amazon SageMaker Canvas?
SageMaker Canvas es un servicio sin código con una interfaz intuitiva e interactiva que le permite crear predicciones de precisión alta basadas en ML a partir de sus datos. SageMaker Canvas le permite acceder y combinar datos de una variedad de fuentes mediante una interfaz de usuario de arrastrar y soltar, lo cual limpia y prepara automáticamente los datos para minimizar la limpieza manual. SageMaker Canvas aplica una variedad de algoritmos de ML de vanguardia para encontrar modelos predictivos de alta precisión y proporciona una interfaz intuitiva para crear predicciones. Puede utilizar SageMaker Canvas para hacer predicciones mucho más precisas de diversas aplicaciones empresariales y colaborar fácilmente con analistas y científicos de datos de su empresa al compartir modelos, datos e informes. Para obtener más información sobre SageMaker Canvas, consulte las preguntas frecuentes sobre Amazon SageMaker Canvas.
¿Cuál es el esquema de precios de SageMaker Canvas?
Con SageMaker Canvas, paga en función del uso. SageMaker Canvas le permite capturar, explorar y preparar datos a partir de varias fuentes, entrenar modelos de ML de alta precisión con sus datos y generar predicciones. Hay dos componentes que determinan su factura: los cargos por sesión basados en la cantidad de horas que se usa o se inicia sesión en SageMaker Canvas y cargos por entrenar el modelo basados en el tamaño del conjunto de datos usado para crear el modelo. Para obtener más información, consulte la página de precios de Amazon SageMaker Canvas.
Flujos de trabajo de ML
¿Cómo puedo crear una canalización de integración y entrega continuas (CI/CD) con SageMaker?
Canalizaciones de Amazon SageMaker lo ayuda a crear flujos de trabajo de ML completamente automatizados desde la preparación de los datos hasta el despliegue del modelo, de manera que pueda escalar a miles de modelos de ML en la etapa de producción. Canalizaciones de SageMaker viene con un SDK de Python que se conecta a SageMaker Studio para que pueda aprovechar una interfaz visual y crear cada paso del flujo de trabajo. Luego, con una sola API, puede conectar cada paso para crear un flujo de trabajo completo. Canalizaciones de SageMaker se encarga de administrar los datos entre los pasos, empaquetar las recetas de códigos y organizar su ejecución, lo que reduce el tiempo de codificación de meses a unas pocas horas. Cada vez que se ejecuta un flujo de trabajo, se lleva un registro completo de los datos procesados y de las acciones realizadas para que los científicos de datos y los desarrolladores de machine learning puedan depurar los problemas con rapidez.
¿Cómo veo todos los modelos entrenados para elegir el mejor modelo y pasar a la etapa de producción?
¿Qué componentes de SageMaker se pueden agregar a Canalizaciones de SageMaker?
¿Cómo hago un seguimiento de los componentes del modelo en todo el flujo de trabajo de ML?
¿Cuál es el esquema de precios para Canalizaciones de SageMaker?
No se aplican cargos adicionales por utilizar Canalizaciones de SageMaker. Solo paga por los servicios subyacentes de computación o cualquier otro servicio de AWS independiente que utilice en Canalizaciones de SageMaker.
¿Puedo usar Kubeflow con SageMaker?
¿Cómo funciona el sistema de precios de los componentes de SageMaker para canalizaciones de Kubeflow?
No se aplican cargos adicionales por utilizar los componentes de SageMaker para Canalizaciones de Kubeflow.
Interacción humana
¿Qué es human-in-the-loop y por qué es importante para crear aplicaciones basadas en la IA?
Human-in-the-loop es el proceso de aprovechar las aportaciones humanas a lo largo del ciclo de vida del ML para mejorar la precisión y la relevancia de los modelos. Los humanos pueden llevar a cabo una variedad de tareas, desde la generación y anotación de datos hasta la revisión y personalización de los modelos. La intervención humana es especialmente importante para las aplicaciones de IA generativa, en las que los humanos suelen ser tanto los solicitantes como los consumidores del contenido. Por lo tanto, es fundamental que las personas capaciten a los modelos fundacionales (FM) para que respondan las solicitudes de los usuarios de manera precisa, segura y relevante. Los comentarios humanos se pueden aplicar para ayudarlo a completar varias tareas. En primer lugar, crear conjuntos de datos de entrenamiento etiquetados de alta calidad para aplicaciones de IA generativa, mediante el aprendizaje supervisado (en el que un humano simula el estilo, la longitud y la precisión de la forma en que un modelo debe responder a las solicitudes del usuario) y el aprendizaje por refuerzo con comentarios humanos (en el que un humano categoriza y clasifica las respuestas del modelo). En segundo lugar, utilizar datos generados por personas para personalizar los FM para tareas específicas o con datos específicos de su empresa y dominio y hacer que la salida del modelo sea relevante para usted.
¿Cómo se pueden utilizar las capacidades de human-in-the-loop para aplicaciones de IA generativas basadas en los FM?
Las capacidades human-in-the-loop desempeñan un papel importante en la creación y mejora de aplicaciones de IA generativas basadas en el FM. Una fuerza laboral humana altamente calificada que esté capacitada sobre las pautas de las tareas puede proporcionar comentarios, orientación, aportes y evaluar actividades como generar datos de demostración para entrenar a los FM, corregir y mejorar las respuestas de las muestras, ajustar un modelo basado en datos de la empresa y el sector, actuar como protección contra la toxicidad y los sesgos, etc. Por lo tanto, las capacidades de human-in-the-loop pueden mejorar la precisión y el rendimiento del modelo.
¿Cuál es la diferencia entre las ofertas de autoservicio de Amazon SageMaker Ground Truth y las administradas por AWS?
Amazon SageMaker Ground Truth ofrece el conjunto más completo de capacidades de human-in-the-loop. Hay dos formas de utilizar Amazon SageMaker Ground Truth: una oferta de autoservicio y una oferta administrada por AWS. En la oferta de autoservicio, los anotadores de datos, los creadores de contenido y los ingenieros de solicitudes (internos, administrados por el proveedor o que aprovechan al público) pueden utilizar nuestra interfaz de usuario de código mínimo para acelerar las tareas de human-in-the-loop y, al mismo tiempo, tener la flexibilidad para crear y gestionar sus propios flujos de trabajo personalizados. En la oferta administrada por AWS (SageMaker Ground Truth Plus), nos encargamos de las tareas más pesadas por usted, que incluyen la selección y la administración del personal adecuado para su caso de uso. SageMaker Ground Truth Plus diseña y personaliza un flujo de trabajo integral (que incluye pasos detallados de entrenamiento de la fuerza laboral y de control de calidad) y proporciona un equipo calificado administrado por AWS que está capacitado en las tareas específicas y cumple con los requisitos de calidad, seguridad y conformidad de los datos.
Preparación de datos
¿Cómo puede SageMaker preparar los datos para ML?
SageMaker Data Wrangler reduce el tiempo que lleva agregar y preparar los datos para el ML. Desde una única interfaz en SageMaker Studio, puede importar datos desde Amazon S3, Amazon Athena, Amazon Redshift, AWS Lake Formation, el Almacén de características de Amazon SageMaker y Snowflake con solo unos pasos. También puede consultar e importar datos que se transfieren de más de 40 orígenes de datos y se registran en el Catálogo de datos de AWS Glue mediante Amazon AppFlow. SageMaker Data Wrangler cargará, agregará y mostrará de manera automática los datos sin procesar. Después de importar sus datos en SageMaker Data Wrangler, puede ver resúmenes de columnas e histogramas generados automáticamente. Luego, puede investigar más a fondo para comprender sus datos e identificar errores potenciales con el informe de detalles y calidad de datos de SageMaker Data Wrangler, el cual proporciona estadísticas resumidas y advertencias sobre la calidad de los datos. También puede ejecutar análisis de tendencias de SageMaker Clarify directamente desde SageMaker Data Wrangler para detectar posibles tendencias durante la preparación de los datos. A partir de ahí, puede usar las transformaciones prediseñadas de SageMaker Data Wrangler para preparar sus datos. Una vez que los datos están preparados, puede crear flujos de trabajo de ML completamente automatizados con Canalizaciones de Amazon SageMaker o importar esos datos al Almacén de características de Amazon SageMaker.
¿Qué tipos de datos admite SageMaker Data Wrangler?
¿Cómo puedo crear características de modelos con SageMaker Data Wrangler?
Sin tener que escribir ni una línea de código, SageMaker Data Wrangler puede transformar los datos en nuevas características de forma automática. SageMaker Data Wrangler ofrece una selección de transformaciones de datos preconfiguradas, atribución de datos faltantes, cifrado one-hot y reducción de dimensionalidad mediante el análisis de componentes principales (PCA), al igual que transformadores específicos temporales. Por ejemplo, puede convertir una columna de campo de texto en una columna numérica con un solo paso. También puede escribir un fragmento de código desde la biblioteca de fragmentos de SageMaker Data Wrangler.
¿Cómo puedo ver los datos en SageMaker Data Wrangler?
SageMaker Data Wrangler le permite comprender sus datos e identificar potenciales errores y valores extremos con un conjunto de plantillas robustas de visualización preconfiguradas. Los histogramas, los diagramas de dispersión y las visualizaciones específicas de ML, como la detección de filtraciones en los destinos, están disponibles sin necesidad de escribir ni una sola línea de código. También puede crear y editar sus propias visualizaciones.
¿Cómo funciona el sistema de precios de SageMaker Data Wrangler?
Debe pagar por todos los recursos informáticos, de almacenamiento y de procesamiento de datos que use para SageMaker Data Wrangler. Puede revisar todos los detalles referidos a los precios de SageMaker Data Wrangler aquí. Como parte del nivel gratuito de AWS, también puede comenzar a utilizar SageMaker Data Wrangler de forma gratuita.
¿Cómo puedo entrenar modelos de ML con datos preparados en SageMaker Data Wrangler?
SageMaker Data Wrangler brinda una experiencia unificada que le permite preparar datos y entrenar sin problemas un modelo de machine learning en el Piloto automático de SageMaker. El Piloto automático de SageMaker crea, entrena y ajusta automáticamente los mejores modelos de ML en función de sus datos. Con el Piloto automático de SageMaker, seguirá conservando el control total y la visibilidad de sus datos y modelos. También puede usar características preparadas en SageMaker Data Wrangler con sus modelos existentes. Puede configurar los trabajos de procesamiento de SageMaker Data Wrangler para que se ejecuten como parte de la canalización de entrenamiento de SageMaker, ya sea al configurar el trabajo en la interfaz de usuario (IU) o exportar un cuaderno con el código de orquestación.
¿Cómo maneja SageMaker Data Wrangler los datos nuevos cuando preparo mis características en función de datos históricos?
¿Cómo funciona SageMaker Data Wrangler con mis procesos de CI/CD?
¿Qué modelo usa el modelo rápido de SageMaker Data Wrangler?
¿Qué tamaño de datos admite SageMaker Data Wrangler?
¿SageMaker Data Wrangler trabaja con el Almacén de características de SageMaker?
¿Qué es el Almacén de características de SageMaker?
El Almacén de características de Amazon SageMaker es una plataforma completamente administrada y creada específicamente para almacenar, compartir y administrar modelos de machine learning (ML). Las características se pueden descubrir y compartir para reutilizarlas fácilmente en todos los modelos y equipos con acceso y control seguros, incluso en todas las cuentas de AWS. El Almacén de características de SageMaker es compatible con las funciones en línea y fuera de línea para la inferencia en tiempo real, la inferencia por lotes y el entrenamiento. También, administra las canalizaciones de ingeniería de características por lotes y el streaming para reducir la duplicación en la creación de características y mejorar la precisión de los modelos.
¿Cómo puedo reproducir una característica de un momento específico?
El Almacén de características de SageMaker mantiene las marcas temporales de todas las características en todo momento. Esto ayuda a recuperar las características en cualquier periodo, ya sea por requisitos empresariales o de cumplimiento. Puede explicar las características del modelo y sus valores con facilidad desde el momento en que se crearon por primera vez hasta la actualidad mediante la reproducción del modelo de un momento determinado.
¿Qué son las características sin conexión?
Las características sin conexión se utilizan para el entrenamiento debido a que se necesita tener acceso a volúmenes muy grandes durante un largo periodo. Estas características funcionan desde un repositorio de alto rendimiento y con un alto nivel de ancho de banda.
¿Cómo mantengo la consistencia entre las características sin conexión y en línea?
¿Qué son las características en línea?
Las características en línea se utilizan en las aplicaciones necesarias para hacer predicciones en tiempo real. Las características en línea funcionan desde un repositorio de alto rendimiento con latencia en milisegundos de un solo dígito para realizar predicciones rápidas.
¿Cuál es el esquema de precios del almacén de características de SageMaker?
Puede comenzar a utilizar el almacén de características de SageMaker de forma gratuita, como parte del nivel gratuito de AWS. Con el Almacén de características de SageMaker, paga por escribir en el almacén de características y por el almacenamiento que use en el almacén de características en línea y las lecturas que haga desde él. Para obtener más información sobre los precios, consulte los precios de Amazon SageMaker.
¿Qué ofrece SageMaker para el etiquetado de datos?
SageMaker presenta dos ofertas de etiquetado de datos: Amazon SageMaker Ground Truth Plus y Amazon SageMaker Ground Truth. Ambas opciones permiten identificar datos sin procesar, como imágenes, archivos de texto y videos, y agregar etiquetas informativas para crear conjuntos de datos de entrenamiento de alta calidad para modelos de ML. Para obtener más información, consulte Etiquetado de datos de Amazon SageMaker.
¿Qué son los datos geoespaciales?
¿Qué son las capacidades geoespaciales de SageMaker?
Las capacidades geoespaciales de SageMaker facilitan que los científicos de datos y los ingenieros de ML creen, entrenen e implementen modelos de ML para hacer predicciones mediante datos geoespaciales. Puede usar sus propios datos, como los datos satelitales de Planet Labs de Amazon S3, o adquirir datos de Open Data en AWS, Amazon Location Service y otros orígenes de datos geoespaciales de SageMaker.
¿Por qué debería usar el ML geoespacial en SageMaker?
Creación de modelos
¿Qué son los cuadernos de Amazon SageMaker Studio?
Los cuadernos de SageMaker Studio son cuadernos de Jupyter administrados, colaborativos y de inicio rápido. Los cuadernos de SageMaker Studio se integran con herramientas de ML especialmente diseñadas en SageMaker y otros servicios de AWS para un desarrollo completo de ML en SageMaker Studio, el IDE completo para ML.
¿Cómo funcionan los cuadernos de SageMaker Studio?
Los cuadernos de SageMaker Studio son cuadernos de Jupyter de un solo paso que se pueden iniciar con rapidez. Los recursos informáticos subyacentes son completamente elásticos, de forma que puede aumentar o disminuir los recursos disponibles y los cambios se producen automáticamente en segundo plano sin interrumpir el trabajo. SageMaker también permite compartir cuadernos con un solo paso. Comparta de manera fácil los cuadernos con otros usuarios y ellos recibirán el mismo cuaderno, almacenado en el mismo lugar.
Con los cuadernos de SageMaker Studio, puede iniciar sesión con las credenciales corporativas a través de IAM Identity Center. Compartir los cuadernos dentro de un equipo y con otros equipos es sencillo, ya que las dependencias necesarias para ponerlos en marcha se siguen automáticamente en imágenes de trabajo que se encapsulan con el cuaderno cuando este se comparte.
¿En qué se diferencian los cuadernos de SageMaker Studio de los cuadernos basados en instancias?
Los cuadernos de SageMaker Studio ofrecen algunas características importantes que los diferencian de los cuadernos basados en instancias. Con los blocs de notas de Studio, puede lanzar blocs de notas rápidamente sin la necesidad de aprovisionar una instancia de forma manual ni de esperar a que esté operativa. El tiempo de inicio del lanzamiento de la interfaz de usuario para leer y poner en marcha un bloc de notas es más rápido que el de un bloc de notas basado en instancias.
También ofrecen la flexibilidad necesaria para elegir entre una gran colección de tipos de instancias en la interfaz de usuario en cualquier momento. No es necesario regresar a la consola de administración de AWS para iniciar nuevas instancias ni para efectuar transferencias a través de los blocs de notas.
Cada usuario dispone de un directorio principal aislado, independiente de una instancia en particular. Este directorio se monta automáticamente en todos los servidores de cuadernos y kernels cuando estos se inician, de manera que pueda acceder a ellos y otros archivos, incluso cuando cambie de instancias para visualizar y poner en marcha los cuadernos.
Los cuadernos de SageMaker Studio se encuentran integrados con AWS IAM Identity Center (sucesor de AWS SSO), lo que facilita el uso de sus credenciales organizativas para acceder a ellos. El uso compartido de los cuadernos es una característica integrada de los cuadernos de SageMaker Studio. Puede compartir sus cuadernos con sus colegas en un solo paso e incluso editar en conjunto un único cuaderno al mismo tiempo.
¿De qué manera los cuadernos de SageMaker Studio funcionan con otros servicios de AWS?
¿Qué son los espacios compartidos en SageMaker?
Los profesionales de ML pueden crear un espacio de trabajo compartido, en donde los compañeros de equipo pueden leer y editar juntos los cuadernos de SageMaker Studio. Al usar los espacios compartidos, los compañeros de equipo pueden editar en conjunto el mismo archivo de cuaderno, ejecutar código del cuaderno simultáneamente y revisar los resultados juntos para eliminar las idas y vueltas y agilizar la colaboración. En los espacios compartidos, los equipos de ML tienen soporte integrado para servicios como BitBucket y AWS CodeCommit, de modo que pueden administrar fácilmente diferentes versiones de su cuaderno y comparar los cambios a lo largo del tiempo. Todos los recursos que se creen desde el cuaderno, como experimentos y modelos de ML, se guardan automáticamente y se asocian con el espacio de trabajo específico donde se crearon, para que los equipos puedan mantenerse organizados y acelerar el desarrollo de los modelos de ML.
¿Cuál es el esquema de precios de los cuadernos de SageMaker Studio?
¿La creación y ejecución de cada cuaderno en SageMaker Studio se cobra de manera individual?
No. Puede crear y ejecutar varios blocs de notas en la misma instancia de cómputo. Solo pagará por la capacidad de cómputo que utilice, no por los elementos individuales. Puede obtener más información acerca de este tema en nuestra guía de medición.
Además de los cuadernos, también puede iniciar y ejecutar terminales y shells interactivos en SageMaker Studio, todo en la misma instancia de cómputo. Cada aplicación se pone en marcha dentro de un contenedor o una imagen. SageMaker Studio proporciona varias imágenes integradas personalizadas y preconfiguradas para tareas de ciencia de datos y ML.
¿Cómo superviso y apago los recursos que utilizan los cuadernos?
Puede usar tanto la interfaz visual de SageMaker Studio como la Consola de administración de AWS para monitorizar y apagar los recursos que usan los cuadernos de SageMaker Studio. Para obtener más información, consulte la documentación.
Si estoy poniendo en marcha un cuaderno de SageMaker Studio. ¿Se me seguirá cobrando si cierro el navegador, cierro la pestaña del cuaderno o solamente dejo el navegador abierto?
¿Se cobra la creación y la configuración de un dominio de SageMaker Studio?
No, no se cobra la creación ni la configuración de un dominio de SageMaker Studio, lo cual incluye agregar, actualizar y eliminar perfiles de usuarios.
¿Cómo puedo ver los cargos desglosados de los cuadernos de SageMaker Studio o de otros servicios de SageMaker?
Como administrador, puede ver la lista de cargos desglosados de SageMaker, incluido SageMaker Studio, en la consola de facturación de AWS. En la Consola de administración de AWS para SageMaker, elija Services (Servicios) en el menú superior, escriba “billing” (facturación) en el cuadro de búsqueda, luego seleccione Billing (Facturación) en el menú desplegable y seleccione Bills (Facturas) en el panel izquierdo. En la sección “Details” (Detalles), puede seleccionar SageMaker para ampliar la lista de regiones y analizar detenidamente los cargos desglosados.
¿Qué es Amazon SageMaker Studio Lab?
¿Por qué debería usar SageMaker Studio Lab?
¿Cómo funciona SageMaker Studio Lab con los demás servicios de AWS?
¿Con qué orígenes de datos es compatible SageMaker Canvas?
SageMaker Canvas le permite descubrir orígenes de datos de AWS a los que su cuenta tenga acceso sin problemas, incluidos Amazon S3 y Amazon Redshift. Puede buscar e importar datos con la interfaz visual de arrastrar y soltar de SageMaker Canvas. Además, puede arrastrar y soltar archivos del disco local y utilizar conectores prediseñados para importar los datos de orígenes de terceros como Snowflake.
¿Cómo creo un modelo de ML para generar predicciones precisas en SageMaker Canvas?
Luego de que ha conectado los orígenes, seleccionado los conjuntos de datos y preparado sus datos, puede seleccionar la columna de destino que quiere predecir para iniciar un trabajo de creación de modelos. SageMaker Canvas identificará automáticamente el tipo de problema, generará características relevantes nuevas, probará un conjunto integral de modelos de predicción mediante técnicas de ML como regresión lineal, regresión logística, aprendizaje profundo, previsión de serie temporal y potenciación del gradiente y creará un modelo que realiza predicciones precisas en función de su conjunto de datos.
Entrenamiento de modelos
¿Qué es Amazon SageMaker HyperPod?
¿Cuándo debo usar SageMaker HyperPod?
¿SageMaker admite el entrenamiento distribuido?
Sí. SageMaker puede distribuir automáticamente los modelos de aprendizaje profundo y los grandes conjuntos de entrenamiento entre las instancias de GPU de AWS en una fracción del tiempo que lleva crear y optimizar estas estrategias de distribución de forma manual. Las dos técnicas de entrenamiento distribuido que SageMaker aplica son el paralelismo de datos y el paralelismo de modelos. El paralelismo de datos se aplica para mejorar las velocidades de entrenamiento al dividir los datos de forma equitativa entre las múltiples instancias de GPU, lo que permite que todas las instancias se entrenen al mismo tiempo. El paralelismo de modelos es útil para los modelos que son demasiado grandes para estar almacenados en una única GPU y necesitan que el modelo esté dividido en partes más pequeñas antes de distribuirlas entre varias GPU. Con solo unas pocas líneas de código adicional en sus scripts de entrenamiento de PyTorch y TensorFlow, SageMaker aplicará el paralelismo de datos o el paralelismo de modelos por usted de forma automática, lo que le permitirá desarrollar e implementar modelos con mayor rapidez. SageMaker determinará el mejor enfoque para dividir el modelo mediante algoritmos de partición de gráficos para balancear el procesamiento informático de cada GPU y, a la vez, minimizar la comunicación entre instancias de GPU. SageMaker también optimiza los trabajos de entrenamiento distribuido mediante algoritmos que utilizan completamente la computación y las redes de AWS para lograr una eficiencia de escalado casi lineal, lo que le permite completar el entrenamiento con mayor rapidez que con implementaciones manuales de código abierto.
¿Qué son los Experimentos de Amazon SageMaker?
¿Qué es el Depurador de Amazon SageMaker?
¿Qué es Managed Spot Training?
¿Cómo puedo usar el Compilador de entrenamiento de SageMaker?
SageMaker Training Compiler está incorporado en el SDK para Python de SageMaker y en los contenedores para aprendizaje profundo de Hugging Face de SageMaker. No necesita cambiar sus flujos de datos para acceder a los beneficios de aceleración. Puede poner en marcha trabajos de entrenamiento de la misma manera que lo hacía antes, con cualquier interfaz de SageMaker: instancias de cuadernos de SageMaker, SageMaker Studio, AWS SDK para Python (Boto3) y la Interfaz de la línea de comandos de AWS (AWS CLI). Para habilitar SageMaker Training Compiler, puede agregar una clase de TrainingCompilerConfig como parámetro cuando cree un objeto estimador de marco. En la práctica, esto representa un par de líneas de código agregadas a su script de trabajo de entrenamiento existente para una sola instancia de GPU. La mayoría de la documentación detallada actualizada, cuadernos de muestra y ejemplos están disponibles en la documentación.
¿Cómo uso Managed Spot Training?
¿Cuándo debo usar Managed Spot Training?
¿Cómo funciona Managed Spot Training?
¿Debo establecer puntos de control periódicamente con Managed Spot Training?
¿Cómo se calcula el ahorro en el costo con trabajos de Managed Spot Training?
¿Qué instancias puedo usar con Managed Spot Training?
¿En qué regiones se admite Managed Spot Training?
Managed Spot Training se admite en todas las regiones en las que SageMaker está disponible actualmente.
¿Hay límites en cuanto al tamaño del conjunto de datos que se puede utilizar para el entrenamiento?
No hay límites fijos en cuanto al tamaño del conjunto de datos que se puede utilizar para modelos de entrenamiento con SageMaker.
¿Qué es el Ajuste automático de modelos?
¿Qué modelos se pueden modificar con el Ajuste automático de modelos?
¿Qué algoritmos utiliza SageMaker para generar modelos?
SageMaker incluye algoritmos integrados para regresión lineal, regresión logística, agrupación de clústeres de medios k, análisis de componentes principales, equipos de factorización, modelado de temas neuronal, asignación latente dirichlet, árboles con potenciación del gradiente, secuencia a secuencia, previsión de serie temporal, word2vec y clasificación de imágenes. SageMaker también proporciona versiones optimizadas de Apache MXNet, Tensorflow, Chainer, PyTorch, Gluon, Keras, Horovod, Scikit-learn y contenedores de Deep Graph Library. Además, SageMaker admite algoritmos de entrenamiento personalizados provistos mediante una imagen de Docker que se ajuste a la especificación documentada.
¿Puedo usar el Ajuste automático de modelos fuera de SageMaker?
Por ahora no. La mejor experiencia y el mejor rendimiento del ajuste de modelo se obtienen dentro de SageMaker.
¿Cuál es el algoritmo de ajuste subyacente para el Ajuste automático de modelos?
Actualmente, el algoritmo para el ajuste de hiperparámetros es una implementación personalizada de optimización bayesiana. Su objetivo es optimizar una métrica de objetivos específica del cliente en todo el proceso de ajuste. Específicamente, verifica la métrica de objetivos de trabajos de entrenamiento finalizados y utiliza el conocimiento para inferir la combinación de hiperparámetros para el próximo trabajo de entrenamiento.
¿El Ajuste automático de modelos recomienda hiperparámetros específicos para el ajuste?
No. La manera en la que determinados hiperparámetros afectan al rendimiento del modelo depende de varios factores y es difícil decir de manera definitiva que un hiperparámetro es más importante que otros y que, por lo tanto, debe ajustarse. Para algoritmos integrados en SageMaker, sí avisamos si un hiperparámetro se puede ajustar o no.
¿Cuánto demora una tarea de ajuste de hiperparámetros?
La duración de una tarea de ajuste de hiperparámetros depende de varios factores, incluido el tamaño de los datos, el algoritmo subyacente y los valores de los hiperparámetros. Además, los clientes pueden elegir el número de tareas de entrenamiento simultáneas y el número total de tareas de entrenamiento. Todas estas opciones afectan la duración de la tarea de entrenamiento de los hiperparámetros.
¿Puedo optimizar varios objetivos de manera simultánea, como la optimización de un modelo, para que sea ágil y preciso?
Por ahora no. Actualmente, debe especificar una única métrica de objetivo que quiera optimizar, o bien modificar el código del algoritmo para emitir una métrica nueva, que se promedia entre dos o más métricas útiles, y optimizar el proceso de ajuste en pos de dicha métrica de objetivo.
¿Cuánto cuesta el Ajuste automático de modelos?
No se cobra la tarea de ajuste de hiperparámetros en sí. Se le cobrarán los trabajos de entrenamiento que inicie el trabajo de ajuste de hiperparámetros, en función de los precios de entrenamiento de modelos.
¿Qué es el aprendizaje mediante refuerzo?
Es una técnica de ML que permite que un agente aprenda en un entorno interactivo por el método de prueba y error, con la retroalimentación obtenida de sus propias acciones y experiencias.
¿Puedo entrenar modelos de aprendizaje por refuerzo en SageMaker?
Sí. Aparte de los modelos de aprendizaje supervisado y no supervisado, puede entrenar modelos de aprendizaje mediante refuerzo en SageMaker.
¿Cómo sé si debo usar el Piloto automático de SageMaker o el Ajuste automático de modelos?
El Piloto automático de SageMaker automatiza todo en un flujo de trabajo típico de ML. Esto incluye el preprocesamiento de características, la selección de algoritmos y el ajuste de hiperparámetro, y al mismo tiempo se centra en los casos de uso de clasificación y regresión. Por otra parte, el ajuste de modelo automático está diseñado para adecuarse a cualquier modelo, independientemente de si está basado en algoritmos integrados, marcos de aprendizaje profundo o contenedores personalizados. A cambio de la flexibilidad, debe hacer una selección manual del algoritmo específico, los hiperparámetros que quiere ajustar y los rangos de búsqueda correspondientes.
¿En qué se diferencia el aprendizaje mediante refuerzo del aprendizaje supervisado?
Ambos tipos de aprendizaje usan la asignación entre la entrada y la salida pero, a diferencia del aprendizaje supervisado en el que la retroalimentación proporcionada al agente es un conjunto de acciones correctas para hacer una tarea, el aprendizaje mediante refuerzo utiliza una retroalimentación retrasada donde las señales de compensación se optimizan para garantizar un objetivo a largo plazo a través de una secuencia de acciones.
¿Cuándo debo utilizar el aprendizaje mediante refuerzo?
Mientras que el objetivo de las técnicas de aprendizaje supervisado es encontrar la respuesta correcta en función de los patrones de los datos de formación, el objetivo de las técnicas de aprendizaje sin supervisar es encontrar similitudes y diferencias entre los puntos de datos. Por el contrario, el objetivo de las técnicas de refuerzo de aprendizaje (RL) es aprender cómo lograr un resultado deseado, incluso cuando no esté claro cómo lograrlo. Como consecuencia, el RL es más adecuado para habilitar aplicaciones inteligentes en las que un agente puede tomar decisiones autónomas, como robótica, vehículos autónomos, sistemas de acondicionamiento, control industrial, etc.
¿Qué tipo de entornos puedo usar para el entrenamiento de modelos RL?
Amazon SageMaker RL admite distintos entornos para el entrenamiento de modelos RL. Puede usar servicios de AWS como AWS RoboMaker, entornos de código abierto o personalizados desarrollados mediante interfaces Open AI Gym, así como entornos de simulación comercial, como MATLAB y SimuLink.
¿Tengo que escribir mis propios algoritmos de agente de RL para entrenar modelos RL?
No. SageMaker RL incluye conjuntos de herramientas de RL, como Coach y Ray RLLib, que ofrecen implementaciones de algoritmos de agente de RL, como DQN, PPO y A3C, entre otros.
¿Puedo usar mis propias implementaciones de algoritmos y bibliotecas de RL, y ejecutarlas en SageMaker RL?
Sí. Puede traer sus propias implementaciones de algoritmos y bibliotecas de RL en contenedores Docker, y ejecutarlas en SageMaker RL.
¿Puedo realizar ejecuciones distribuidas con SageMaker RL?
Sí. Puede incluso seleccionar un clúster heterogéneo, donde el entrenamiento puede ponerse en marcha en una instancia de GPU y las simulaciones en varias instancias de CPU.
Despliegue de modelos
¿Qué opciones de despliegue ofrece SageMaker?
Después de crear y entrenar los modelos, SageMaker ofrece tres opciones para desplegarlos y poder comenzar a hacer predicciones. La inferencia en tiempo real es adecuada para cargas de trabajo con requisitos de latencia de milisegundos, tamaños de carga útil de hasta 6 MB y tiempos de procesamiento de hasta 60 segundos. La transformación por lotes es ideal para predicciones sin conexión sobre grandes lotes de datos con disponibilidad anticipada. La inferencia asíncrona está diseñada para cargas de trabajo que no tienen requisitos de latencia inferiores a un segundo, tamaños de carga de hasta 1 GB y tiempos de procesamiento de hasta 15 minutos.
¿Qué es la inferencia asíncrona de Amazon SageMaker?
¿Cómo puedo configurar el escalamiento automático para desescalar verticalmente a cero el recuento de instancias a fin de ahorrar costos cuando no se procesen activamente las solicitudes?
Puede reducir verticalmente a cero el recuento de instancias de punto de conexión de la inferencia asíncrona de SageMaker para ahorrar costos cuando no se procesen activamente las solicitudes. Es necesario definir una política de escalado que escale sobre la métrica personalizada “ApproximateBacklogPerInstance” y establecer el valor “MinCapacity” a cero. Para obtener instrucciones paso a paso, visite la sección de autoescalado de un punto de conexión asincrónico de la guía del desarrollador.
¿Qué es la interferencia sin servidor de Amazon SageMaker?
La inferencia sin servidor de SageMaker es una opción personalizada de publicación de modelos sin servidor que facilita el despliegue y el escalamiento de modelos de ML. Los puntos de enlace de Amazon SageMaker Serverless Inference inician automáticamente los recursos informáticos y los escala de forma ascendente y descendente dependiendo del tráfico, lo que elimina la necesidad de elegir el tipo de instancia, ejecutar una capacidad aprovisionada o administrar el escalado. También tiene la opción de especificar los requisitos de memoria para los puntos de enlace de su inferencia sin servidor. Solo paga por la duración de la ejecución del código de inferencia y la cantidad de datos procesados, no por el tiempo de inactividad.
¿Por qué debería usar la inferencia sin servidor de SageMaker?
¿Qué es la simultaneidad aprovisionada para la inferencia sin servidor de SageMaker?
¿Por qué debería utilizar la simultaneidad aprovisionada?
Con los puntos de conexión sin servidor bajo demanda, si su punto de conexión no recibe tráfico durante un tiempo y, de repente, recibe nuevas solicitudes, puede tardar algún tiempo en activar los recursos de cómputo necesarios para procesar las solicitudes. Esto se denomina arranque en frío. También puede producirse un arranque en frío si las solicitudes simultáneas superan el uso actual de solicitudes simultáneas. El tiempo de arranque en frío depende del tamaño del modelo, del tiempo que se tarde en descargar el modelo y del tiempo de inicio del contenedor.
Para reducir la variabilidad en su perfil de latencia, puede habilitar opcionalmente la simultaneidad aprovisionada para sus puntos de conexión sin servidor. Con la simultaneidad aprovisionada, sus puntos de conexión sin servidor están siempre listos y pueden servir de forma instantánea ráfagas de tráfico, sin necesidad de arranques en frío.
¿Qué cargos me cobrarán por la simultaneidad aprovisionada?
Al igual que ocurre con la inferencia sin servidor bajo demanda, cuando la simultaneidad aprovisionada está habilitada, paga por la capacidad de cálculo utilizada para procesar las solicitudes de inferencia, facturada por milisegundos y por la cantidad de datos procesados. También paga por el uso de la simultaneidad aprovisionada, en función de la memoria configurada, la duración aprovisionada y la cantidad de simultaneidad habilitada. Para obtener más información, consulte la página de precios de Amazon SageMaker.
¿Qué son las pruebas de sombra de SageMaker?
¿Por qué debería usar SageMaker para las pruebas de sombra?
¿Qué es el Recomendador de inferencias de Amazon SageMaker?
El Recomendador de inferencias de SageMaker reduce el tiempo requerido para producir modelos de ML mediante la automatización de los análisis comparativos de rendimiento y el ajuste del rendimiento de los modelos en todas las instancias de ML de SageMaker. Ahora puede utilizar Amazon SageMaker Inference Recommender para implementar su modelo en un punto de conexión que entregue el mejor rendimiento y reduzca los costos. Puede comenzar con Amazon SageMaker Inference Recommender en minutos mientras selecciona un tipo de instancia y obtener recomendaciones para configuraciones óptimas de puntos de conexión en un par de horas, lo que ahorra semanas de tiempo de pruebas y ajustes manuales. Con el Recomendador de inferencias de Amazon SageMaker, solo paga por las instancias de ML de SageMaker utilizadas durante la prueba de carga y no hay costos adicionales.
¿Por qué debería usar el Recomendador de inferencias de SageMaker?
¿Cómo funciona el Recomendador de inferencias de SageMaker con otros servicios de AWS?
¿El Recomendador de inferencias de SageMaker admite puntos de conexión multimodelo o puntos de conexión multicontenedor?
No, actualmente solo se admite un único modelo por punto de conexión.
¿Qué tipo de puntos de conexión admite el Recomendador de inferencias de SageMaker?
Actualmente, solo se admiten puntos de conexión en tiempo real.
¿Puedo usar el Recomendador de inferencias de SageMaker en una región y hacer análisis comparativos en distintas regiones?
Admitiremos todas las regiones que admite Amazon SageMaker, a excepción de las regiones de AWS de China.
¿El Recomendador de inferencias de SageMaker admite instancias Inf1 de Amazon EC2?
Sí, admitimos todos los tipos de contenedores. Inf1 de Amazon EC2, basado en el chip de AWS Inferentia, requiere un artefacto de modelo compilado que utiliza el compilador Neuron o Amazon SageMaker Neo. Una vez que tenga un modelo compilado para un objetivo de Inferentia y el URI de la imagen del contenedor asociado, puede utilizar SageMaker Inference Recommender para hacer análisis comparativos de los distintos tipos de instancias de Inferentia.
¿Qué es el Monitor de modelos de Amazon SageMaker?
¿Puedo obtener acceso a la infraestructura en la que se ejecuta SageMaker?
No. SageMaker opera la infraestructura informática por usted, lo que le permite ejecutar comprobaciones de estado, aplicar parches de seguridad y realizar otras tareas de mantenimiento de rutina. También puede implementar elementos de modelos de entrenamiento con código de inferencia personalizado en su propio entorno de alojamiento.
¿Cómo puedo escalar el tamaño y el desempeño del modelo de SageMaker una vez que ya se encuentre en producción?
El alojamiento de SageMaker se ajusta automáticamente al rendimiento necesario para la aplicación mediante Application Auto Scaling. Además, puede modificar manualmente el número y el tipo de instancia sin generar tiempos de inactividad mediante la modificación de la configuración del punto de conexión.
¿Cómo puedo monitorizar el entorno de producción de SageMaker?
SageMaker emite métricas de rendimiento hacia Amazon CloudWatch Metrics para que pueda realizar un seguimiento de métricas, definir alarmas y reaccionar automáticamente ante cambios en el tráfico de producción. Además, SageMaker escribe registros en Amazon CloudWatch Logs para permitirle monitorear el entorno de producción y solucionar sus problemas.
¿Qué tipos de modelos se pueden alojar con SageMaker?
SageMaker puede alojar cualquier modelo que se ajuste a la especificación documentada para imágenes de Docker de inferencia. Incluye modelos creados a partir de códigos de inferencia y artefactos de modelos de SageMaker.
¿Cuántas solicitudes de API simultáneas en tiempo real admite SageMaker?
SageMaker está diseñado para ajustar su escala a un número elevado de transacciones por segundo. El número preciso varía en función del modelo implementado y del número y el tipo de instancia en el cual esté implementado el modelo.
¿Cómo admite SageMaker el alojamiento y la administración de modelos totalmente administrados?
¿Qué es la transformación en lotes?
La transformación en lotes le permite poner en marcha las predicciones en datos de lotes grandes y pequeños. No es necesario desglosar el conjunto de datos en varios fragmentos ni administrar los puntos de conexión en tiempo real. Con una API simple, puede solicitar predicciones para un gran número de registros de datos y transformar los datos de manera rápida y sencilla.
¿Qué opciones de despliegue del punto de conexión admite SageMaker?
¿Cómo puedo comenzar a usar el Administrador de periféricos de SageMaker?
Para comenzar a utilizar SageMaker Edge Manager, debe compilar y empaquetar sus modelos de aprendizaje automático entrenados en la nube, registrar sus dispositivos y prepararlos con el SDK de SageMaker Edge Manager. Para preparar su modelo para la implementación, SageMaker Edge Manager utiliza SageMaker Neo para compilar el modelo del hardware de borde de destino. Una vez que el modelo está compilado, SageMaker Edge Manager firma el modelo con una clave generada por AWS, luego empaqueta el modelo con su tiempo de ejecución y las credenciales necesarias para prepararse para la implementación. Del lado del dispositivo, debe registrarlo con SageMaker Edge Manager, descargar el SDK de SageMaker Edge Manager y, luego, seguir las instrucciones para instalar el agente de SageMaker Edge Manager en sus dispositivos. El cuaderno del tutorial proporciona un ejemplo paso a paso de cómo puede preparar los modelos y conectarlos a los dispositivos periféricos con el Administrador de periféricos de SageMaker.
¿Qué es el escalado automático para la elasticidad?
¿Qué dispositivos son compatibles con el Administrador de periféricos de SageMaker?
SageMaker Edge Manager es compatible con dispositivos comunes basados en CPU (ARM, x86) y GPU (ARM, Nvidia) con sistemas operativos Linux y Windows. Con el tiempo, SageMaker Edge Manager ampliará su compatibilidad con más procesadores integrados y plataformas móviles que también son compatibles con SageMaker Neo.
¿Qué es el Administrador de periféricos de Amazon SageMaker?
SageMaker Edge Manager facilita la optimización, la protección, la supervisión y el mantenimiento de modelos de ML en las flotas de dispositivos periféricos, como las cámaras inteligentes, los robots, las computadoras personales y los dispositivos móviles. El Administrador de periféricos de SageMaker ayuda a los desarrolladores de ML a operar modelos de ML en una variedad de dispositivos periféricos a escala.
¿Cómo implemento modelos en los dispositivos periféricos?
SageMaker Edge Manager almacena el paquete del modelo en el bucket de Amazon S3 especificado. Puede utilizar la característica de despliegue por vía inalámbrica (OTA), que ofrece AWS IoT Greengrass, o cualquier otro mecanismo de despliegue que elija para implementar el paquete del modelo en los dispositivos desde el bucket de S3.
¿Tengo que usar SageMaker si quiero entrenar mi modelo para utilizar el Administrador de periféricos de SageMaker?
No, no es necesario. Puede formar sus modelos con cualquier otro servicio o utilizar modelos preformados de código abierto o de proveedores de modelos.
¿Tengo que utilizar SageMaker Neo si deseo compilar mi modelo para usar el Administrador de periféricos de SageMaker?
Sí, debe hacerlo. SageMaker Neo convierte y compila sus modelos en un archivo ejecutable que usted luego puede empaquetar e implementar en sus dispositivos periféricos. Una vez que el paquete del modelo se implemente, el agente de SageMaker Edge Manager desempacará el paquete del modelo y lo ejecutará en el dispositivo.
¿En qué se diferencia el SDK del Administrador de periféricos de SageMaker del la versión ejecutable de SageMaker Neo (dlr)?
El dlr de Neo es un tiempo de ejecución de código abierto que solo ejecuta modelos compilados por el servicio SageMaker Neo. En comparación con el dlr de código abierto, el SDK de SageMaker Edge Manager incluye un agente de nivel empresarial integrado en el dispositivo con características adicionales de seguridad, administración de modelos y publicación de modelos. El SDK de SageMaker Edge Manager es conveniente para el despliegue en producción a escala.
¿Cómo se relaciona Administrador de periféricos de SageMaker con AWS IoT Greengrass?
SageMaker Edge Manager y AWS IoT Greengrass pueden trabajar juntos en su solución de IoT. Cuando su modelo de ML está empaquetado con SageMaker Edge Manager, puede utilizar la característica de actualización OTA de AWS IoT Greengrass para implementar el paquete del modelo en su dispositivo. AWS IoT Greengrass le permite monitorear sus dispositivos de IoT de forma remota al mismo tiempo que SageMaker Edge Manager lo ayuda a monitorear y mantener los modelos de ML en los dispositivos.
¿Cómo se relaciona el Administrador de periféricos de SageMaker con AWS Panorama? ¿Cuándo debería utilizar SageMaker Edge Manager frente a AWS Panorama?
AWS ofrece las capacidades más completas para la ejecución de modelos en dispositivos de borde. Tenemos servicios para respaldar una amplia variedad de casos de uso, incluidos la visión artificial, el reconocimiento de voz y el mantenimiento predictivo.
Para aquellas empresas que buscan poner en marcha la visión artificial en dispositivos periféricos, como cámaras y electrodomésticos, se puede utilizar AWS Panorama. AWS Panorama ofrece aplicaciones de visión artificial para los dispositivos periféricos listas para implementar. Es fácil comenzar a utilizar AWS Panorama, ya que inicia sesión en la consola en la nube, especifica el modelo que le gustaría utilizar en Simple Storage Service (Amazon S3) o en SageMaker y, luego, escribe la lógica de negocios como un script de Python. AWS Panorama compila el modelo para el dispositivo de destino y crea un paquete de la aplicación para que se pueda implementar en los dispositivos con solo unos pocos clics. Además, los proveedores de software independientes que quieran crear sus propias aplicaciones personalizadas pueden usar el SDK de AWS Panorama, mientras que los fabricantes de dispositivos pueden utilizar el SDK para dispositivos con el fin de certificar los suyos para AWS Panorama.
Los clientes que quieran crear sus propios modelos y tener un control más detallado de sus características pueden utilizar SageMaker Edge Manager. SageMaker Edge Manager es un servicio administrado para preparar, poner en marcha, supervisar y actualizar los modelos de ML en las flotas de dispositivos periféricos, como las cámaras inteligentes, los parlantes inteligentes y los robots, para cualquier caso de uso, como el procesamiento de lenguaje natural, la detección de fraudes y el mantenimiento predictivo. SageMaker Edge Manager está destinado a los desarrolladores de ML de borde que quieren tener el control de sus modelos, incluidos el diseño de diferentes características para los modelos y su supervisión en caso de desviaciones. Cualquier desarrollador de ML de borde puede utilizar SageMaker Edge Manager mediante la consola y las API de SageMaker. SageMaker Edge Manager proporciona las capacidades de SageMaker para crear, entrenar e implementar los modelos en la nube en dispositivos de borde.
¿Cómo puedo comenzar a usar SageMaker Neo?
Para comenzar a utilizar SageMaker Neo, inicie sesión en la consola de SageMaker, elija un modelo entrenado, siga el ejemplo para compilar modelos e implemente el modelo resultante en la plataforma de hardware de destino.
¿En qué regiones se encuentra disponible el Administrador de periféricos de SageMaker?
SageMaker Edge Manager está disponible en seis regiones: Este de EE. UU. (Virginia del Norte), Este de EE. UU. (Ohio), Oeste de EE. UU. (Oregón), Europa (Irlanda), Europa (Fráncfort) y Asia-Pacífico (Tokio). Consulte la lista de servicios regionales de AWS para obtener más detalles.
¿Cuáles son los principales componentes de SageMaker Neo?
SageMaker Neo tiene dos componentes principales: un compilador y un tiempo de ejecución. En primer lugar, el compilador de SageMaker Neo lee los modelos exportados por los distintos marcos de trabajo. A continuación, convierte las operaciones y funciones específicas del marco de trabajo en una representación intermedia con independencia de este. Después, realiza una serie de optimizaciones. Entonces, el compilador genera código binario para las operaciones optimizadas y las escribe en una biblioteca de objetos compartidos. El compilador también guarda los parámetros y la definición del modelo en archivos independientes. Durante la ejecución, el tiempo de ejecución de SageMaker Neo carga los artefactos generados por el compilador (definición del modelo, parámetros y la biblioteca de objetos compartidos) para ejecutar el modelo.
¿Qué es Amazon SageMaker Neo?
SageMaker Neo permite que los modelos de ML entrenen una sola vez y se ejecuten en cualquier lugar, tanto en la nube como en la periferia. SageMaker Neo optimiza automáticamente los modelos creados con marcos de aprendizaje profundo conocidos que se pueden utilizar para el despliegue en múltiples plataformas de hardware. Los modelos optimizados se ponen en marcha hasta 25 veces más rápido y consumen menos de una décima parte de los recursos de los modelos de ML típicos.
¿Tengo que usar SageMaker si quiero entrenar mi modelo para utilizar SageMaker Neo en la conversión del modelo?
No. Puede entrenar los modelos en cualquier otro punto y utilizar SageMaker Neo para optimizarlos para dispositivos compatibles con AWS IoT Greengrass o instancias de ML de SageMaker.
¿Qué modelos admite SageMaker Neo?
En la actualidad, SageMaker Neo admite los modelos de aprendizaje profundo más populares, que impulsan las aplicaciones de visión informática y los modelos de árboles de decisiones más conocidos que se utilizan hoy en día en SageMaker. SageMaker Neo optimiza el rendimiento de los modelos AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet y DenseNet entrenados en MXNet y TensorFlow, así como de los modelos de clasificación y bosque de corte aleatorio entrenados en XGBoost.
¿Qué plataformas de hardware admite SageMaker Neo?
Encuentre las listas de las instancias en la nube, los dispositivos periféricos y las versiones de marcos admitidos en la documentación de SageMaker Neo.
¿En qué regiones se encuentra disponible SageMaker Neo?
Si desea ver una lista de las regiones disponibles, consulte la lista de servicios regionales de AWS.
Savings Plans de Amazon SageMaker
¿Qué es Savings Plans de Amazon SageMaker?
Los Savings Plans de SageMaker ofrecen un modelo de precios flexible basado en uso para SageMaker, a cambio de comprometerse a una cantidad constante de uso (medida en USD/hora) durante el término de 1 o 3 años. Savings Plans de SageMaker proporciona la mayor flexibilidad posible y permite reducir los costos en hasta un 64 %. Estos planes se aplican de manera automática a los usos de instancias de ML de SageMaker elegibles, incluidos los blocs de notas de SageMaker Studio, los blocs de notas bajo demanda de SageMaker, el procesamiento de SageMaker, SageMaker Data Wrangler, el entrenamiento con SageMaker, la inferencia en tiempo real de SageMaker y la transformación en lotes de SageMaker, sin importar la familia, el tamaño ni la región de las instancias. Por ejemplo, puede cambiar el uso de una instancia de CPU ml.c5.xlarge que se ponga en marcha en el Este de EE. UU. (Ohio) a una instancia ml.Inf1 en EL Oeste de EE. UU. (Oregón) para cargas de trabajo de inferencia en cualquier momento y pagar de manera automática el precio de Savings Plans.
¿Por qué debería usar Savings Plans de SageMaker?
¿Cómo puedo comenzar a usar Savings Plans de SageMaker?
Puede comenzar a utilizar Savings Plans desde el Explorador de costes de AWS en la consola de administración de AWS o mediante la API o CLI. Puede contratar fácilmente los planes de Savings Plans mediante las recomendaciones provistas en AWS Cost Explorer, a fin de obtener los mayores ahorros. El compromiso por hora recomendado es en función del uso bajo demanda histórico, así como de la elección que ha hecho del tipo de plan, el plazo y la opción de pago. Una vez que se suscriba a un plan de Savings Plan, el uso informático se cobrará automáticamente con los precios con descuento de Savings Plans y todo uso que exceda el compromiso se cobrará con las tarifas bajo demanda normales.
¿En qué se diferencian Savings Plans para SageMaker de Savings Plans para computación de Amazon EC2?
La diferencia entre Savings Plans de SageMaker y Savings Plans de Amazon EC2 reside en los servicios que incluyen. Savings Plans para SageMaker solo se aplica al uso de instancias de ML de SageMaker.
¿Cómo funcionan los Savings Plans con AWS Organizations o Facturación unificada?
Savings Plans se pueden adquirir desde cualquier cuenta en una familia de AWS Organizations o facturación unificada. De manera predeterminada, se puede disfrutar de los beneficios que Savings Plans en todas las cuentas que estén en una familia de AWS Organizations o facturación unificada. Sin embargo, también puede optar por limitar el beneficio de los Savings Plans únicamente a la cuenta que los adquirió.