- Machine Learning›
- Amazon SageMaker AI›
- Preguntas frecuentes
Preguntas frecuentes sobre Amazon SageMaker AI
Temas de la página
- Aspectos generales
18
- SageMaker y SageMaker AI
8
- Gobernanza de ML
4
- Modelos básicos
15
- ML de poco código
4
- Flujos de trabajo de ML
7
- Intervención humana
3
- Preparación de datos
21
- Creación de modelos
18
- Entrenamiento de modelos
39
- Implementación de modelos
45
- Savings Plans de Amazon SageMaker
5
- Personalización de modelos
5
Aspectos generales
Abrir todoAmazon SageMaker AI es un servicio totalmente administrado que reúne un conjunto amplio de herramientas que permiten machine learning (ML) de alto rendimiento y bajo costo para cualquier caso de uso. Con SageMaker AI, puede crear, entrenar e implementar modelos de ML a escala con herramientas, como bloc de notas, depuradores, generadores de perfiles, canalizaciones, MLOps y más, todo en un entorno de desarrollo integrado (IDE). SageMaker AI cumple con los requisitos de gobernanza con un control de acceso simplificado y transparencia en sus proyectos de ML. Además, puede crear sus propios modelos fundacionales (FM), modelos de gran tamaño que se entrenaron con conjuntos de datos enormes, con herramientas diseñadas específicamente para ajustar, experimentar, volver a entrenar e implementar los FM. SageMaker AI también ofrece acceso a cientos de modelos entrenados previamente, incluidos los FM disponibles públicamente, que puede implementar en pocos pasos.
Para ver una lista de las regiones admitidas por SageMaker AI, consulte la página de servicios regionales de AWS. Asimismo, para obtener más información, consulte Puntos de conexión regionales en la guía de referencia general de AWS.
SageMaker AI está diseñado para ofrecer alta disponibilidad. No hay periodos de mantenimiento ni tiempos de inactividad programados. La API de SageMaker AI se ejecuta en los centros de datos probados y de alta disponibilidad de Amazon, con la replicación de la pila de servicios configurada en tres instalaciones de cada región, a fin de proporcionar tolerancia a errores si se produce un error en el servidor o una interrupción en la zona de disponibilidad.
SageMaker AI almacena el código en volúmenes de almacenamiento de ML, protegidos por grupos de seguridad y, opcionalmente, cifrados en reposo.
SageMaker AI garantiza que los artefactos de los modelos de ML y otros artefactos del sistema estén cifrados tanto en tránsito como en reposo. Las solicitudes a la consola y la API de SageMaker AI se realizan a través de una conexión segura (SSL). Transfiera roles de AWS Identity and Access Management a SageMaker AI para proporcionar permisos de acceso a recursos en su nombre para el entrenamiento y la implementación. Puede usar buckets cifrados de Amazon Simple Storage Service (Amazon S3) para datos y artefactos de los modelos, así como también transferir una clave de AWS Key Management Service (AWS KMS) a los cuadernos de SageMaker AI, a los trabajos de entrenamiento y a los puntos de conexión para cifrar el volumen de almacenamiento de ML asociado. SageMaker AI también admite Amazon Virtual Private Cloud (Amazon VPC) y AWS PrivateLink.
SageMaker AI no utiliza ni comparte modelos, datos de entrenamiento o algoritmos. Sabemos que a los clientes les preocupa seriamente la confidencialidad y la seguridad de los datos. Es por ello que AWS permite controlar el contenido mediante herramientas sencillas y sólidas con las que se puede determinar dónde se almacenará ese contenido, proteger el contenido en tránsito y en reposo y administrar el acceso a los servicios y recursos de AWS de los usuarios. También implementamos controles técnicos y físicos diseñados para evitar el acceso no autorizado al contenido o su divulgación. Como cliente, se conserva la propiedad del contenido y se puede seleccionar qué servicios de AWS pueden procesar, almacenar y alojar el contenido. No accedemos al contenido ni lo usamos para ningún otro fin sin el consentimiento del cliente.
Paga los recursos de procesamiento de datos, almacenamiento y cómputo de ML que use para alojar el cuaderno, entrenar el modelo, realizar predicciones y registrar los resultados. Con SageMaker AI, podrá seleccionar el número y el tipo de instancias utilizadas para el cuaderno alojado, el entrenamiento y el alojamiento del modelo. Solo pagará por lo que consuma y a medida que lo haga. No se requieren pagos mínimos ni compromisos iniciales. Para obtener más información, consulte la página de precios de Amazon SageMaker AI y la calculadora de precios de Amazon SageMaker.
Hay muchas prácticas recomendadas que puede adoptar para optimizar el uso de los recursos de SageMaker AI. Algunos enfoques implican optimizaciones de la configuración y otros, soluciones programáticas. En esta publicación de blog, se ofrece una guía completa sobre este concepto, con tutoriales visuales y muestras de código.
SageMaker AI ofrece un flujo de trabajo integral y completo, pero puede continuar utilizando las herramientas existentes con SageMaker AI. Puede transferir fácilmente los resultados de cada etapa hacia y desde SageMaker AI en función de las necesidades de su empresa.
Sí. Puede utilizar R en las instancias de cuaderno de SageMaker AI, que incluyen un kernel R preinstalado y la biblioteca reticular. La biblioteca reticular ofrece una interfaz R para Amazon SageMaker AI Python SDK, lo que permite a los profesionales de ML crear, entrenar, ajustar e implementar modelos R. También puede lanzar RStudio, un entorno de desarrollo integrado (IDE) para R en Amazon SageMaker Studio.
Amazon SageMaker Studio proporciona una única interfaz virtual basada en la web donde puede realizar todos los pasos de desarrollo de ML. SageMaker Studio le brinda acceso completo, control y visibilidad en todos los pasos requeridos para preparar datos y crear, entrenar e implementar modelos. Puede cargar datos, crear blocs de notas nuevos, entrenar y ajustar modelos, retroceder y avanzar entre los pasos para ajustar experimentos, comparar resultados e implementar modelos para la producción, todo de forma rápida y en un solo lugar, lo que aumenta su productividad. Todas las actividades de desarrollo de ML, que incluyen cuadernos, administración de experimentos, creación automática de modelos, depuración y generación de perfiles y detección de desviación de modelos, se pueden realizar dentro de la interfaz visual unificada de SageMaker Studio.
Amazon SageMaker Studio ofrece opciones de IDE locales e IDE en la nube completamente administrados. Obtenga acceso a un amplio conjunto de IDE en la nube completametne administrados, incluidos JupyterLab, el editor de código basado en Code-OSS (VS Code Open Source) y RStudio. Además, conéctese a los entornos de desarrollo de Amazon SageMaker Studio desde su código local de Visual Studio para acceder a los recursos de computación escalables de SageMaker AI.
Lea la Guía para desarrolladores de SageMaker Studio para obtener más información
No se aplican cargos adicionales por utilizar SageMaker Studio. Solo paga los cargos subyacentes por computación y almacenamiento de los servicios que utilice dentro de SageMaker Studio.
Puede encontrar las regiones en las que se admite SageMaker Studio en laGuía para desarrolladores de Amazon SageMaker.
Amazon SageMaker Clarify ayuda a mejorar la transparencia del modelo mediante la detección de tendencias estadísticas en la totalidad del flujo de trabajo de machine learning. SageMaker Clarify revisa si hay desequilibrios durante la preparación de los datos, después del entrenamiento y de forma continua con el paso del tiempo. Además, incluye herramientas para explicar los modelos de aprendizaje automático y sus predicciones. Los resultados se pueden compartir mediante informes de explicabilidad.
RStudio en SageMaker AI es el primer RStudio Workbench completamente administrado en la nube. Puede iniciar rápidamente el entorno de desarrollo integrado (IDE) ya conocido de RStudio y aumentar o disminuir los recursos de computación subyacentes sin interrumpir su trabajo, lo cual facilita la creación de soluciones de análisis y ML en R a escala. Puede cambiar sin problemas entre el IDE de RStudio y los cuadernos de SageMaker Studio para el desarrollo de R y Python. Todo su trabajo, incluido el código, los conjuntos de datos, los repositorios y otros artefactos se sincronizan de manera automática entre los dos entornos para reducir el cambio de contexto e impulsar la productividad.
SageMaker Clarify está integrado a SageMaker Experiments para proporcionar un gráfico de la importancia de las características, que detalla la importancia de cada entrada del proceso general de toma de decisiones del modelo luego de que este se entrenó. Estos detalles pueden ayudar a determinar si la entrada de un modelo en particular posee más influencia de la que debería tener en el comportamiento general del modelo. SageMaker Clarify también efectúa explicaciones de las predicciones individuales disponibles a través de una API.
SageMaker y SageMaker AI
Abrir todoLa SageMaker AI (anteriormente conocido como Sagemaker) es un servicio totalmente administrado que reúne un conjunto amplio de herramientas que permiten la aplicación de machine learning (ML) de alto rendimiento y bajo costo para cualquier caso de uso. Con la IA de SageMaker, puede crear, entrenar y desplegar modelos ML a escala. La próxima generación de SageMaker es una plataforma unificada para datos, análisis e IA. Al combinar las capacidades de análisis y machine learning (ML) de AWS ampliamente adoptadas, la próxima generación de SageMaker ofrece una experiencia integrada de análisis e IA con acceso unificado a todos sus datos.
La próxima generación de SageMaker incluye las siguientes capacidades:
- SageMaker Unified Studio: acceda a todos sus datos y herramientas de análisis e IA en un
único entorno. - SageMaker Lakehouse: unifique los datos en lagos de datos de Amazon S3, almacenes de datos de Amazon
Redshift y orígenes de datos externos y federados con SageMaker Lakehouse. - Gobernanza de datos e IA de SageMaker: descubra, gobierne y colabore con datos e IA de forma segura
con SageMaker Catalog, creado en Amazon DataZone. - Desarrollo de modelos: cree, entrene e implemente modelos fundacionales (FM) y de machine learning con
infraestructura, herramientas y flujos de trabajo completamente administrados con SageMaker AI (anteriormente SageMaker). - Desarrollo de aplicaciones de IA generativa: cree y escale aplicaciones de IA generativa con Amazon
Bedrock. - Análisis de SQL: obtenga información con Amazon Redshift, el motor de SQL más rentable.
- Procesamiento de datos: analice, prepare e integre datos para el análisis y la IA mediante marcos de código abierto
en Athena, Amazon EMR y AWS Glue.
Las capacidades compatibles incluyen creación con JupyterLab Notebooks; entrenamiento y ajuste fino con JumpStart, Amazon Q Developer, Training Jobs e HyperPod; implementación con puntos de conexión de inferencia; MLOps escalables con MLFlow, Pipelines y Model Registry; gobernanza con Model Dashboard e integraciones de terceros con aplicaciones de IA de los socios y Snowflake.
SageMaker proporciona una experiencia unificada de datos e IA para encontrar, acceder y actuar sobre sus datos, acelerando las iniciativas de análisis e IA. SageMaker AI seguirá siendo admitible, por lo que no es necesario que realice ninguna acción para garantizar que los flujos de trabajo actuales sigan funcionando. Por ejemplo, puede seguir utilizando los clústeres existentes de Amazon SageMaker HyperPod tal y como están. Si desea utilizarlos en el nuevo SageMaker Unified Studio, configure una conexión con este clúster. Todas las configuraciones de HyperPod existentes se migrarán automáticamente a su proyecto en SageMaker, y el rendimiento y la rentabilidad serán los mismos. Sin embargo, la experiencia de SageMaker Unified Studio puede mejorar la productividad al reunir todas las herramientas en un solo lugar.
Nos complace anunciar un estudio unificado que le permite colaborar y crear más rápido: desde un único entorno de desarrollo de datos e IA. Desde SageMaker Unified Studio, puede descubrir sus datos y utilizarlos con las conocidas herramientas de AWS para el desarrollo de modelos, IA generativa, procesamiento de datos y análisis de SQL. Estamos aquí para ayudarle en todo momento. Si tiene alguna pregunta, no dude en ponerse en contacto con su equipo de cuentas.
SageMaker Studio sigue siendo una gran elección para los clientes que necesitan una experiencia de desarrollo ML fiable y optimizada. Las organizaciones que buscan una experiencia integrada de análisis e IA con acceso unificado a todos sus datos deberían considerar SageMaker Unified Studio. Con SageMaker Unified Studio, tiene acceso a las herramientas conocidas de AWS para flujos de trabajo de desarrollo completos, incluido el desarrollo de modelos y aplicaciones de IA generativa, el procesamiento de datos y el análisis de SQL en un único entorno gobernado.
Sí, HyperPod, JumpStart, MLFlow, JupyterLab y Canalizaciones están disponibles en el nuevo SageMaker Unified Studio.
Traspaso 1. Seleccione, personalice e implemente modelos fundacionales (FM):
- Navegue y seleccione un conjunto de datos
- Seleccione un FM
- Evalúe los modelos (automáticos y humanos)
- Personalice, ajuste: optimice el precio, el rendimiento y la calidad de FM
- Optimice e implemente para la inferencia
- Automatice con los FMOP y el monitoreo de modelos
Traspaso 2. Cree, entrene e implemente modelos de ML a escala:
- Acelere y escale la preparación de datos para ML
- Creación de modelos de aprendizaje automático
- Entrenamiento y ajuste de los modelos de aprendizaje automático
- Implemente en producción
- Administre y supervise
- Automatice el ciclo de vida de ML
Traspaso 3. Seleccione un modelo, cree e implemente una aplicación de IA generativa:
- Seleccione un modelo y realice un ajuste fino
- Importe el modelo a Amazon Bedrock
- Cree e implemente una aplicación de IA generativa que se integre con su punto de enlace
Traspaso 4. Seleccione e implemente un modelo en un punto de enlace y conecte el punto de enlace a aplicaciones de IA generativas:
- Seleccione un modelo
- Implemente el modelo en un punto de enlace de SageMaker AI
- Conecte el punto de enlace a sus aplicaciones de IA generativa
Cuando utilice SageMaker, se le cobrará según el modelo de precios por los distintos servicios de AWS a los que se puede acceder a través de SageMaker. El uso de SageMaker Unified Studio, el entorno de desarrollo de datos e IA que proporciona la experiencia integrada en SageMaker no conlleva ningún costo adicional. Consulte los precios de SageMaker para obtener más información.
Gobernanza de ML
Abrir todoSageMaker AI proporciona herramientas de gobernanza de ML creadas específicamente para todo el ciclo de vida de ML. Con el Administrador de roles de Amazon SageMaker, los administradores pueden definir permisos mínimos en minutos. Las tarjetas de modelos de Amazon SageMaker facilitan el trabajo de capturar, recuperar y compartir información esencial de los modelos, desde la concepción hasta el despliegue, y el panel de modelos de Amazon SageMaker lo mantiene informado sobre el comportamiento de los modelos de producción, todo en un solo lugar. Para obtener más información, consulte Gobernanza de ML con Amazon AI SageMaker.
Puede definir permisos mínimos en minutos con el administrador de roles de SageMaker. Proporciona un conjunto de permisos de referencia para actividades de ML y personas con un catálogo de políticas prediseñadas de IAM. Puede mantener los permisos de referencia o personalizarlos aún más según sus necesidades específicas. Con un par de indicaciones autoguiadas, puede ingresar rápidamente componentes de gobernanza comunes, como límites de acceso a la red y claves de cifrado. El administrador de roles de SageMaker generará la política de IAM de manera automática. Puede detectar el rol generado y las políticas asociadas mediante la consola de AWS IAM. Para adaptar aún más los permisos a su caso de uso, asocie sus políticas de IAM administradas al rol de IAM que cree con el administrador de roles de SageMaker. También puede agregar etiquetas para identificar el rol y organizar todos los servicios de AWS.
Las tarjetas de modelos de SageMaker lo ayudan a centralizar y estandarizar la documentación de los modelos a lo largo del ciclo de vida de ML al crear una única fuente de confianza para la información de cada modelo. Las tarjetas de modelos de SageMaker completan automáticamente los detalles de entrenamiento para acelerar el proceso de documentación. También puede agregar detalles como el propósito del modelo y los objetivos de rendimiento. Puede asociar resultados de la evaluación de modelos a su tarjeta de modelo y proporcionar visualizaciones para obtener información clave sobre el rendimiento de los modelos. Las tarjetas de modelos de SageMaker pueden compartirse fácilmente con otras personas al exportarlas en formato PDF.
El panel de modelos de SageMaker le brinda una perspectiva general de los modelos y puntos de conexión implementados, lo cual le permite supervisar los recursos y las infracciones de comportamiento de los modelos en un solo panel. Le permite seguir el comportamiento de los modelos en cuatro dimensiones, incluida la calidad de modelos y datos, y la desviación de atribución de características y tendencias mediante su integración con el Monitor de modelos de SageMaker y SageMaker Clarify. El panel de modelos de SageMaker también proporciona una experiencia integrada para configurar y recibir alertas de trabajos de supervisión de modelos inactivos y faltantes y desviaciones en el comportamiento de los modelos en cuanto a la calidad del modelo, la calidad de los datos, la desviación de tendencias y la desviación de atribución de características. Puede inspeccionar aún más los modelos individuales y analizar factores que afectan el rendimiento de los modelos a lo largo del tiempo. Luego, puede hacer un seguimiento con profesionales de ML para tomar medidas correctivas.
Modelos básicos
Abrir todoSageMaker JumpStart lo ayuda a comenzar a utilizar ML de forma rápida y fácil. SageMaker JumpStart proporciona un conjunto de soluciones para los casos de uso más comunes que se pueden implementar fácilmente con solo unos pocos pasos. Las soluciones son totalmente personalizables y muestran el uso de las plantillas y las arquitecturas de referencia de AWS CloudFormation, de manera que pueda acelerar el proceso del ML. SageMaker JumpStart también brinda modelos básicos y admite el despliegue en un solo paso y el ajuste de más de 150 modelos populares de código abierto, como los modelos de transformador, de detección de objetos y de clasificación de imágenes.
SageMaker JumpStart proporciona modelos patentados y públicos. Para obtener una lista de los modelos fundacionales disponibles, consulte Introducción a Amazon SageMaker JumpStart.
Puede acceder a los modelos básicos a través de SageMaker Studio, el SDK de SageMaker y la consola de administración de AWS. Para empezar a usar los modelos fundacionales patentados, debe aceptar las condiciones de venta de AWS Marketplace.
No. Sus datos de inferencia y entrenamiento no se utilizarán ni compartirán para actualizar o entrenar el modelo base que SageMaker JumpStart muestra a los clientes.
No. Los modelos patentados no permiten a los clientes ver los pesos y los scripts de los modelos.
Los modelos se pueden detectar en todas las regiones en las que está disponible SageMaker Studio, pero la capacidad de desplegar un modelo varía según la disponibilidad del modelo y de la instancia del tipo de instancia requerido. Consulte la disponibilidad en las regiones de AWS y la instancia requerida en la página de detalles del modelo en AWS Marketplace.
En el caso de los modelos patentados, se le cobrará el precio del software determinado por el proveedor del modelo y los cargos de infraestructura de SageMaker AI en función de la instancia utilizada. En el caso de los modelos disponibles públicamente, se le cobrarán cargos de infraestructura de SageMaker AI en función de la instancia utilizada. Para obtener más información, consulte los precios de Amazon SageMaker AI y AWS Marketplace.
La seguridad es la principal prioridad de AWS, y SageMaker JumpStart está diseñado para ser seguro. Es por ello que SageMaker AI le da posesión y control sobre el contenido mediante herramientas sencillas y sólidas con las que se puede determinar dónde se almacenará ese contenido, proteger el contenido en tránsito y en reposo y administrar el acceso a los servicios y recursos de AWS para sus usuarios.
- No compartimos la información de entrenamiento e inferencias de los clientes con los vendedores de modelos de AWS Marketplace. Del mismo modo, los artefactos del modelo del vendedor (por ejemplo, los pesos de los modelos) no se comparten con el comprador.
- SageMaker JumpStart no utiliza modelos de clientes, datos de entrenamiento ni algoritmos para mejorar su servicio y no comparte los datos de entrenamiento e inferencia de los clientes con terceros.
- En SageMaker JumpStart, los artefactos del modelo ML se cifran en tránsito y en reposo.
- De acuerdo con el Modelo de responsabilidad compartida de AWS, AWS es responsable de proteger la infraestructura global que ejecuta todos los AWS. Usted es responsable de mantener el control del contenido que está alojado en esta infraestructura.
Al utilizar un modelo de AWS Marketplace o SageMaker JumpStart, los usuarios asumen la responsabilidad de la calidad de los resultados del modelo y reconocen las capacidades y limitaciones descritas en la descripción individual del modelo.
SageMaker JumpStart incluye más de 150 modelos disponibles de manera pública con entrenamiento previo de PyTorch Hub y TensorFlow Hub. Para las tareas de visualización, como la clasificación de imágenes y la detección de objetos, puede usar los modelos como ResNet, MobileNet y Single-Shot Detector (SSD). Para las tareas de texto, como la clasificación de oraciones, la clasificación de textos o las respuestas a preguntas, puede usar los modelos como BERT, RoBERTa y DistilBERT.
Con SageMaker JumpStart, los científicos de datos y desarrolladores de ML pueden compartir artefactos de ML fácilmente, incluidos cuadernos y modelos, dentro de su organización. Los administradores pueden configurar un repositorio que sea accesible para un conjunto de usuarios definido. Todos los usuarios con permiso para acceder al repositorio pueden examinar, buscar y usar modelos y cuadernos, al igual que el contenido público dentro de SageMaker JumpStart. Los usuarios pueden seleccionar artefactos para entrenar modelos, implementar puntos de conexión y ejecutar cuadernos en SageMaker JumpStart.
Con SageMaker JumpStart, es posible acelerar el plazo de comercialización al crear aplicaciones de ML. Los modelos y cuadernos creados por un equipo dentro de su organización pueden compartirse fácilmente con otros equipos dentro de su organización con solo unos pasos. Compartir información interna y reutilizar activos puede aumentar de manera significativa la productividad de su organización.
Sí. Los administradores pueden controlar qué modelos de Amazon SageMaker JumpStart los usuarios pueden ver y usar en todas las cuentas de AWS y entidades principales de usuario. Para más información, consulte la documentación.
El kit de herramientas de optimización de inferencias le facilita la implementación de las técnicas de optimización de inferencias más recientes para lograr un rendimiento de costos de última generación (SOTA) en Amazon SageMaker AI y, al mismo tiempo, ahorrar meses de tiempo para los desarrolladores. Puede elegir entre un menú de técnicas de optimización populares que ofrece SageMaker AI y ejecutar los trabajos de optimización con antelación, comparar el modelo para determinar las métricas de rendimiento y precisión y, a continuación, implementar el modelo optimizado en un punto de enlace de SageMaker AI para llevar a cabo inferencias. El kit de herramientas se ocupa de todos los aspectos de la optimización del modelo para que pueda centrarse más en sus objetivos empresariales.
El kit de herramientas de optimización de inferencias lo ayuda a mejorar los costos, el rendimiento y el tiempo de comercialización de las aplicaciones de IA generativa. El kit de herramientas de optimización de modelos totalmente administrado brinda acceso a las últimas técnicas de optimización con herramientas fáciles de usar. También es fácil actualizarse a la mejor solución disponible con el tiempo, ya que el kit de herramientas se adapta continuamente a las innovaciones más avanzadas, al nuevo equipo y a las características de alojamiento.
El kit de herramientas de optimización de inferencias es compatible con técnicas de optimización como la decodificación especulativa, la cuantificación y la compilación. Puede elegir las optimizaciones que desea agregar a su modelo con unos pocos clics y Amazon SageMaker AI administrará todo el trabajo pesado e indiferenciado que supone adquirir el equipo, seleccionar el contenedor de aprendizaje profundo y los parámetros de ajuste correspondientes para ejecutar los trabajos de optimización y, a continuación, guardar los artefactos del modelo optimizados en la ubicación de S3 que usted haya proporcionado.
Para la decodificación especulativa, puede comenzar con el modelo de borrador proporcionado por SageMaker AI, de modo que no tenga que crear sus propios borradores de modelos desde cero y solicitar optimizaciones de enrutamiento y nivel de sistema. Con la cuantificación, solo tiene que elegir el tipo de precisión que desea utilizar e iniciar un trabajo de evaluación comparativa para medir el equilibrio entre el rendimiento y la precisión. Amazon SageMaker generará un informe de evaluación exhaustivo para que pueda analizar fácilmente el equilibrio entre el rendimiento y la precisión. Con la compilación, para los modelos más populares y sus configuraciones, Amazon SageMaker AI recuperará automáticamente los artefactos del modelo compilado durante la configuración y el escalado del punto de enlace, lo que le elimina la necesidad de ejecutar los trabajos de compilación con antelación, lo que permite ahorrar costos de equipos.
El kit de herramientas de optimización de inferencias de Amazon SageMaker AI ayuda a reducir los costos y el tiempo necesarios para optimizar los modelos de IA generativa, lo que permite que se centre en sus objetivos empresariales.
ML de poco código
Abrir todoSageMaker Canvas es un servicio sin código con una interfaz intuitiva e interactiva que le permite crear predicciones de precisión alta basadas en ML a partir de sus datos. SageMaker Canvas le permite acceder y combinar datos de una variedad de fuentes mediante una interfaz de usuario de arrastrar y soltar, lo cual limpia y prepara automáticamente los datos para minimizar la limpieza manual. SageMaker Canvas aplica una variedad de algoritmos de ML de vanguardia para encontrar modelos predictivos de alta precisión y proporciona una interfaz intuitiva para crear predicciones. Puede utilizar SageMaker Canvas para hacer predicciones mucho más precisas de diversas aplicaciones empresariales y colaborar fácilmente con analistas y científicos de datos de su empresa al compartir modelos, datos e informes. Para obtener más información sobre SageMaker Canvas, consulte las preguntas frecuentes sobre Amazon SageMaker Canvas.
El Piloto automático de SageMaker es la primera capacidad automatizada de machine learning del sector que le brinda control y visibilidad totales de sus modelos de ML. El Piloto automático de SageMaker inspecciona automáticamente datos sin procesar, aplica procesadores de características, selecciona el mejor conjunto de algoritmos, entrena y ajusta múltiples modelos, hace un seguimiento de sus rendimientos y, luego, clasifica los modelos en función de su rendimiento, todo con tan solo unos clics. El resultado es el modelo con mejor desempeño que se puede implementar en tan solo una fracción del tiempo requerido habitualmente para el entrenamiento del modelo. Puede obtener visibilidad completa de la creación y el contenido del modelo, y el Piloto automático de SageMaker lo integra a SageMaker Studio. Puede explorar hasta 50 modelos diferentes generados por el Piloto automático de SageMaker dentro de SageMaker Studio, así que es fácil elegir el mejor modelo para su caso de uso. Al Piloto automático de SageMaker pueden usarlo personas sin experiencia en ML para producir fácilmente un modelo o bien desarrolladores experimentados para crear con rapidez un modelo de referencia en el que los equipos pueden iterar más adelante.
Con SageMaker Canvas, paga en función del uso. SageMaker Canvas le permite capturar, explorar y preparar datos a partir de varias fuentes, entrenar modelos de ML de alta precisión con sus datos y generar predicciones. Hay dos componentes que determinan su factura: los cargos por sesión basados en la cantidad de horas que se usa o se inicia sesión en SageMaker Canvas y cargos por entrenar el modelo basados en el tamaño del conjunto de datos usado para crear el modelo. Para obtener más información, consulte la página de precios de Amazon SageMaker Canvas.
Sí. Puede detener un trabajo en cualquier momento. Cuando se detiene un trabajo del Piloto automático de SageMaker, todas las pruebas en curso se detendrán y no se iniciará ninguna prueba nueva.
Flujos de trabajo de ML
Abrir todoCanalizaciones de Amazon SageMaker lo ayuda a crear flujos de trabajo de ML completamente automatizados desde la preparación de los datos hasta la implementación del modelo, de manera que pueda escalar a miles de modelos de ML en la etapa de producción. Puede crear canalizaciones con el SDK para Python de SageMaker y verlas, ejecutarlas y auditarlas desde la interfaz visual de SageMaker Studio. Canalizaciones de SageMaker se encarga de administrar los datos entre los pasos, empaquetar las recetas de códigos y organizar su ejecución, lo que reduce el tiempo de codificación de meses a unas pocas horas. Cada vez que se ejecuta un flujo de trabajo, se lleva un registro completo de los datos procesados y de las acciones realizadas para que los científicos de datos y los desarrolladores de machine learning puedan depurar los problemas con rapidez.
Una canalización de SageMaker está compuesta por “pasos”. Puede elegir cualquiera de los tipos de pasos compatibles de forma nativa para crear un flujo de trabajo que invoque varias características de SageMaker AI (como el entrenamiento y la evaluación) u otros servicios de AWS (como EMR o Lambda). También, puede convertir el código Python de machine learning existente en la canalización de SageMaker con el decorador de Python “@step” o al agregar cuadernos de Python completos como componentes de la canalización. Para más información, consulte la guía para desarrolladores de las canalizaciones de SageMaker.
No se aplican cargos adicionales por utilizar Canalizaciones de SageMaker. Solo paga por los servicios subyacentes de computación o cualquier otro servicio de AWS independiente que utilice en Canalizaciones de SageMaker.
Sí. Los componentes de Amazon SageMaker AI para Canalizaciones de Kubeflow son complementos de código abierto que permiten usar Canalizaciones de Kubeflow para definir los flujos de trabajo de ML y utilizar SageMaker AI para los pasos de etiquetado de datos, entrenamiento e inferencia. Canalizaciones de Kubeflow es un complemento para Kubeflow que permite crear e implementar canalizaciones de ML completas, portables y escalables. Sin embargo, cuando se usa Canalizaciones de Kubeflow, los equipos de operaciones de ML deben administrar el clúster de Kubernetes con instancias de CPU y GPU, y mantener un nivel de uso elevado en todo momento para reducir los costos operativos. Maximizar el uso de un clúster por parte de los equipos de ciencia de datos es un desafío y sobrecarga a los equipos de operaciones de ML. Como alternativa a un clúster de Kubernetes optimizado para el ML, con los componentes de SageMaker para Canalizaciones de Kubeflow, es posible aprovechar las poderosas características de SageMaker, como el etiquetado de datos, los trabajos de ajuste de hiperparámetros y de entrenamiento distribuido a gran escala completamente administrados, la implementación de modelos segura y escalable en un solo clic y el entrenamiento rentable mediante instancias de spot de Amazon Elastic Compute Cloud (Amazon EC2), sin la necesidad de configurar ni administrar los clústeres de Kubernetes específicamente para ejecutar los trabajos de ML.
No se aplican cargos adicionales por utilizar los componentes de SageMaker para Canalizaciones de Kubeflow.
Intervención humana
Abrir todoHuman-in-the-loop es el proceso de aprovechar las aportaciones humanas a lo largo del ciclo de vida del ML para mejorar la precisión y la relevancia de los modelos. Los humanos pueden llevar a cabo una variedad de tareas, desde la generación y anotación de datos hasta la revisión y personalización de los modelos. La intervención humana es especialmente importante para las aplicaciones de IA generativa, en las que los humanos suelen ser tanto los solicitantes como los consumidores del contenido. Por lo tanto, es fundamental que las personas capaciten a los modelos fundacionales (FM) para que respondan las solicitudes de los usuarios de manera precisa, segura y relevante. Los comentarios humanos se pueden aplicar para ayudarlo a completar varias tareas. En primer lugar, crear conjuntos de datos de entrenamiento etiquetados de alta calidad para aplicaciones de IA generativa, mediante el aprendizaje supervisado (en el que un humano simula el estilo, la longitud y la precisión de la forma en que un modelo debe responder a las solicitudes del usuario) y el aprendizaje por refuerzo con comentarios humanos (en el que un humano categoriza y clasifica las respuestas del modelo). En segundo lugar, utilizar datos generados por personas para personalizar los FM para tareas específicas o con datos específicos de su empresa y dominio y hacer que la salida del modelo sea relevante para usted.
Las capacidades human-in-the-loop desempeñan un papel importante en la creación y mejora de aplicaciones de IA generativas basadas en el FM. Una fuerza laboral humana altamente calificada que esté capacitada sobre las pautas de las tareas puede proporcionar comentarios, orientación, aportes y evaluar actividades como generar datos de demostración para entrenar a los FM, corregir y mejorar las respuestas de las muestras, ajustar un modelo basado en datos de la empresa y el sector, actuar como protección contra la toxicidad y los sesgos, etc. Por lo tanto, las capacidades de intervención humana pueden mejorar la precisión y el rendimiento del modelo.
Amazon SageMaker Ground Truth ofrece el conjunto más completo de capacidades de intervención humana. Hay dos formas de utilizar Amazon SageMaker Ground Truth: una oferta de autoservicio y una oferta administrada por AWS. En la oferta de autoservicio, los anotadores de datos, los creadores de contenido y los ingenieros de solicitudes (internos, administrados por el proveedor o que aprovechan al público) pueden utilizar nuestra interfaz de usuario de código mínimo para acelerar las tareas de human-in-the-loop y, al mismo tiempo, tener la flexibilidad para crear y gestionar sus propios flujos de trabajo personalizados. En la oferta administrada por AWS (SageMaker Ground Truth Plus), nos encargamos de las tareas más pesadas por usted, que incluyen la selección y la administración del personal adecuado para su caso de uso. SageMaker Ground Truth Plus diseña y personaliza un flujo de trabajo integral (que incluye pasos detallados de entrenamiento del personal y de control de calidad) y proporciona un equipo calificado administrado por AWS que está capacitado en las tareas específicas y cumple con los requisitos de calidad, seguridad y conformidad de los datos.
Preparación de datos
Abrir todoSageMaker Data Wrangler reduce el tiempo que lleva agregar y preparar los datos para el ML. Desde una única interfaz en SageMaker Studio, puede importar datos desde Amazon S3, Amazon Athena, Amazon Redshift, AWS Lake Formation, Amazon EMR, Snowflake y Databricks con solo unos pasos. También puede consultar e importar datos que se transfieren de más de 50 orígenes de datos y se registran en el Catálogo de datos de AWS Glue mediante Amazon AppFlow. SageMaker Data Wrangler cargará, agregará y mostrará de manera automática los datos sin procesar. Después de importar sus datos en SageMaker Data Wrangler, puede ver resúmenes de columnas e histogramas generados automáticamente. Luego, puede investigar más a fondo para comprender sus datos e identificar errores potenciales con el informe de detalles y calidad de datos de SageMaker Data Wrangler, el cual proporciona estadísticas resumidas y advertencias sobre la calidad de los datos. También puede ejecutar análisis de tendencias de SageMaker Clarify directamente desde SageMaker Data Wrangler para detectar posibles tendencias durante la preparación de los datos. A partir de ahí, puede usar las transformaciones prediseñadas de SageMaker Data Wrangler para preparar sus datos. Una vez que los datos están preparados, puede crear flujos de trabajo de ML completamente automatizados con Canalizaciones de Amazon SageMaker o importar esos datos al Almacén de características de Amazon SageMaker.
Debe pagar por todos los recursos informáticos, de almacenamiento y de procesamiento de datos que use para SageMaker Data Wrangler. Puede revisar todos los detalles referidos a los precios de SageMaker Data Wrangler aquí. Como parte del nivel gratuito de AWS, también puede comenzar a utilizar SageMaker Data Wrangler de forma gratuita.
Puede configurar y lanzar trabajos de procesamiento de SageMaker AI directamente desde la IU de SageMaker Data Wrangler e incluso puede programar el trabajo de procesamiento de datos y aplicar parámetros a los orígenes de datos para transformar fácilmente nuevos lotes de datos a escala.
Una vez que ha preparado sus datos, SageMaker Data Wrangler proporciona diferentes opciones para promover su flujo de SageMaker Data Wrangler a producción y se integra sin problemas con las capacidades de CI/CD y MLOps. Puede configurar y lanzar trabajos de procesamiento de SageMaker AI directamente desde la IU de SageMaker Data Wrangler e incluso puede programar el trabajo de procesamiento de datos y aplicar parámetros a los orígenes de datos para transformar fácilmente nuevos lotes de datos a escala. Como alternativa, SageMaker Data Wrangler se integra sin problemas con el procesamiento de SageMaker AI y el contenedor de SageMaker Spark, lo cual le permite utilizar los SDK de SageMaker para integrar SageMaker Data Wrangler a su flujo de trabajo de producción.
El Almacén de características de Amazon SageMaker es una plataforma completamente administrada y creada específicamente para almacenar, compartir y administrar modelos de machine learning (ML). Las características se pueden descubrir y compartir para reutilizarlas fácilmente en todos los modelos y equipos con acceso y control seguros, incluso en todas las cuentas de AWS. El Almacén de características de SageMaker es compatible con las funciones en línea y fuera de línea para la inferencia en tiempo real, la inferencia por lotes y el entrenamiento. También, administra las canalizaciones de ingeniería de características por lotes y el streaming para reducir la duplicación en la creación de características y mejorar la precisión de los modelos.
Puede comenzar a utilizar el almacén de características de SageMaker de forma gratuita, como parte del nivel gratuito de AWS. Con el Almacén de características de SageMaker, paga por escribir en el almacén de características y por el almacenamiento que use en el almacén de características en línea y las lecturas que haga desde él. Para obtener más información sobre los precios, consulte los precios de Amazon SageMaker.
SageMaker AI presenta dos ofertas de etiquetado de datos: Amazon SageMaker Ground Truth Plus y Amazon SageMaker Ground Truth. Ambas opciones permiten identificar datos sin procesar, como imágenes, archivos de texto y videos, y agregar etiquetas informativas para crear conjuntos de datos de entrenamiento de alta calidad para modelos de ML. Para obtener más información, consulte el etiquetado de datos de Amazon SageMaker.
Creación de modelos
Abrir todoPuede usar cuadernos de Jupyter totalmente administrados en SageMaker AI para el desarrollo completo de ML. Escale y desescale verticalmente las instancias de computación con la amplia selección de instancias en la nube optimizadas para la computación y aceleradas por GPU.
Los cuadernos de SageMaker Studio son cuadernos de Jupyter de un solo paso que se pueden iniciar con rapidez. Los recursos informáticos subyacentes son completamente elásticos, de forma que puede aumentar o disminuir los recursos disponibles y los cambios se producen automáticamente en segundo plano sin interrumpir el trabajo. SageMaker AI también permite compartir cuadernos con un solo paso. Comparta de manera fácil los cuadernos con otros usuarios y ellos recibirán el mismo cuaderno, almacenado en el mismo lugar.
Con los cuadernos de SageMaker Studio, puede iniciar sesión con las credenciales corporativas a través de IAM Identity Center. Compartir los cuadernos dentro de un equipo y con otros equipos es sencillo, ya que las dependencias necesarias para ponerlos en marcha se siguen automáticamente en imágenes de trabajo que se encapsulan con el cuaderno cuando este se comparte.
Los cuadernos en los IDE de SageMaker Studio ofrecen algunas características importantes que los diferencian de los cuadernos basados en instancias. En primer lugar, puede lanzar cuadernos rápidamente sin necesidad de aprovisionar una instancia de forma manual ni de esperar a que esté operativa. El tiempo de inicio del lanzamiento de la interfaz de usuario para leer y poner en marcha un bloc de notas es más rápido que el de un bloc de notas basado en instancias. También ofrecen la flexibilidad necesaria para elegir entre una gran colección de tipos de instancias en la interfaz de usuario en cualquier momento. No es necesario regresar a la consola de administración de AWS para iniciar nuevas instancias ni para efectuar transferencias a través de los blocs de notas. Cada usuario dispone de un directorio principal aislado, independiente de una instancia en particular. Este directorio se monta automáticamente en todos los servidores de cuadernos y kernels cuando estos se inician, de manera que pueda acceder a ellos y otros archivos, incluso cuando cambie de instancias para visualizar y poner en marcha los cuadernos. Los cuadernos de SageMaker Studio se encuentran integrados con AWS IAM Identity Center (sucesor de AWS SSO), lo que facilita el uso de sus credenciales organizativas para acceder a ellos. También se integran con herramientas de ML diseñadas específicamente en SageMaker AI y otros servicios de AWS para el desarrollo completo de ML, desde la preparación de datos a escala de petabytes con Spark en Amazon EMR, el entrenamiento y la depuración de modelos, hasta la implementación y la supervisión de modelos y la administración de canalizaciones.
Los profesionales de ML pueden crear un espacio de trabajo compartido, en donde los compañeros de equipo pueden leer y editar juntos los cuadernos de SageMaker Studio. Al usar los espacios compartidos, los compañeros de equipo pueden editar en conjunto el mismo archivo de cuaderno, ejecutar código del cuaderno simultáneamente y revisar los resultados juntos para eliminar las idas y vueltas y agilizar la colaboración. En los espacios compartidos, los equipos de ML tienen soporte integrado para servicios como BitBucket y AWS CodeCommit, de modo que pueden administrar fácilmente diferentes versiones de su cuaderno y comparar los cambios a lo largo del tiempo. Todos los recursos que se creen desde el cuaderno, como experimentos y modelos de ML, se guardan automáticamente y se asocian con el espacio de trabajo específico donde se crearon, para que los equipos puedan mantenerse organizados y acelerar el desarrollo de los modelos de ML.
Cuando se utilizan los cuadernos de SageMaker en los IDE de Studio, se paga por la computación y por el almacenamiento. Consulte los precios de Amazon SageMaker AI para ver los cobros por tipo de instancia de computación. Sus cuadernos y los artefactos asociados, como scripts y archivos de datos, se almacenan de forma persistente en Amazon Elastic File System (Amazon EFS). Consulte los precios de Amazon EFS para ver los precios de almacenamiento. Como parte del nivel gratuito de AWS, puede comenzar a utilizar los cuadernos de SageMaker Studio de forma gratuita.
No. Puede crear y ejecutar varios blocs de notas en la misma instancia de cómputo. Solo pagará por la capacidad de cómputo que utilice, no por los elementos individuales. Puede obtener más información acerca de este tema en nuestra guía de medición.
Además de los cuadernos, también puede iniciar y ejecutar terminales e intérpretes de comandos interactivos en SageMaker Studio, todo en la misma instancia de cómputo. Cada aplicación se pone en marcha dentro de un contenedor o una imagen. SageMaker Studio proporciona varias imágenes integradas personalizadas y preconfiguradas para tareas de ciencia de datos y ML.
Puede usar tanto la interfaz visual de SageMaker Studio como la Consola de administración de AWS para supervisar y apagar los recursos que usan los cuadernos de SageMaker Studio. Para obtener más información, consulte la documentación.
No, no se cobra la creación ni la configuración de un dominio de SageMaker Studio, lo cual incluye agregar, actualizar y eliminar perfiles de usuarios.
Como administrador, puede ver la lista de cargos desglosados de SageMaker AI, incluido SageMaker Studio, en la Consola de facturación de AWS. En la Consola de administración de AWS para SageMaker AI, elija Servicios en el menú superior, escriba “facturación” en el cuadro de búsqueda, luego seleccione Facturación en el menú desplegable y seleccione Facturas en el panel izquierdo. En la sección “Details” (Detalles), puede seleccionar SageMaker para ampliar la lista de regiones y analizar detenidamente los cargos desglosados.
SageMaker Studio Lab es para aquellos estudiantes, investigadores y científicos de datos que necesitan un entorno de desarrollo de cuadernos gratuito que no requiera configuración para sus clases ni experimentos con ML. SageMaker Studio Lab es ideal para los usuarios que no necesitan un entorno de producción, pero sí desean un subconjunto de la funcionalidad de SageMaker AI para mejorar sus habilidades de ML. Las sesiones de SageMaker AI se guardan automáticamente, lo que ayuda a que los usuarios puedan retomar su proyecto donde lo dejaron para la sesión de cada usuario.
SageMaker Canvas es un servicio visual de arrastrar y soltar que le permite a los analistas empresariales crear modelos de ML y generar predicciones precisas sin tener que escribir ningún código ni necesitar experiencia en ML. SageMaker Canvas facilita el acceso y la combinación de datos de diversos orígenes, limpia automáticamente los datos y aplica diversos ajustes de datos, y crea modelos de ML para generar predicciones precisas en un solo paso. También puede publicar resultados, explicar, interpretar y compartir modelos con otras personas de su organización para que los revisen.
SageMaker Canvas le permite descubrir orígenes de datos de AWS a los que su cuenta tenga acceso sin problemas, incluidos Amazon S3 y Amazon Redshift. Puede buscar e importar datos con la interfaz visual de arrastrar y soltar de SageMaker Canvas. Además, puede arrastrar y soltar archivos del disco local y utilizar conectores prediseñados para importar los datos de orígenes de terceros como Snowflake.
Luego de que ha conectado los orígenes, seleccionado los conjuntos de datos y preparado sus datos, puede seleccionar la columna de destino que quiere predecir para iniciar un trabajo de creación de modelos. SageMaker Canvas identificará automáticamente el tipo de problema, generará características relevantes nuevas, probará un conjunto integral de modelos de predicción mediante técnicas de ML como regresión lineal, regresión logística, aprendizaje profundo, previsión de serie temporal y potenciación del gradiente y creará un modelo que realiza predicciones precisas en función de su conjunto de datos.
El tiempo que tarda en crear el modelo depende del tamaño de su conjunto de datos. Los conjuntos de datos pequeños tardan menos de 30 minutos y los conjuntos de datos grandes pueden tardar unas horas. A medida que avanza el trabajo de creación del modelo, SageMaker Canvas provee actualizaciones visuales detalladas, como el porcentaje de finalización del trabajo y la cantidad de tiempo restante para completar el trabajo.
Entrenamiento de modelos
Abrir todoLe recomendamos que utilice Amazon Bedrock para el ajuste fino del modelo cuando:
- Sea un creador de aplicaciones de IA generativa que busca un enfoque administrado basado en API, menos hiperparámetros y una abstracción de la complejidad asociada con el entrenamiento del modelo.
- Requiera una sobrecarga de infraestructura mínima, cuente con pocas o ninguna inversión en infraestructura de machine learning existente que considerar y busque implementar con rapidez y sin servidores.
Le recomendamos que utilice Amazon SageMaker AI para el ajuste fino del modelo cuando:
- Sea un científico de datos, un ingeniero de machine learning o un desarrollador de modelos de IA que desea acceder a técnicas de personalización avanzadas, como la destilación de conocimientos, el ajuste fino supervisado o la optimización de preferencias directas, para lograr un ajuste fino tanto de los pesos como de la eficiencia de los parámetros. SageMaker AI también ofrece la posibilidad de personalizar la receta de entrenamiento y la arquitectura del modelo.
- Haya establecido flujos de trabajo de machine learning e inversiones en infraestructura con el objetivo de tener un mayor control sobre la infraestructura y los costos.
- Desee una mayor flexibilidad para incorporar sus propias bibliotecas y marcos con el objetivo de optimizar los flujos de trabajo de entrenamiento y lograr una mayor precisión y rendimiento.
Con Amazon SageMaker AI, puede personalizar los modelos fundacionales patentados y disponibles públicamente. Los científicos de datos y los desarrolladores de todos los conjuntos de habilidades pueden personalizar de forma rápida los modelos de IA generativa mediante recetas optimizadas. Cada receta ha sido probada por AWS, lo que elimina semanas de trabajo tedioso al evaluar distintas configuraciones de modelos para lograr un rendimiento de vanguardia. Puede personalizar modelos conocidos de acceso público, incluidos Llama, Mixtral, Mistral y DeepSeek. Además, puede personalizar los modelos fundacionales de Amazon Nova mediante un conjunto de técnicas que incluyen ajuste fino supervisado (SFT), destilación del conocimiento, optimización de preferencias directas (DPO), optimización de políticas próximas y entrenamiento previo continuo, con soporte para opciones de entrenamiento eficiente en parámetros como de entrenamiento del modelo completo en SFT, destilación y DPO.
Sí. SageMaker AI puede distribuir automáticamente los modelos de aprendizaje profundo y los grandes conjuntos de entrenamiento entre las instancias de GPU de AWS en una fracción del tiempo que lleva crear y optimizar estas estrategias de distribución de forma manual. Las dos técnicas de entrenamiento distribuido que SageMaker AI aplica son el paralelismo de datos y el paralelismo de modelos. El paralelismo de datos se aplica para mejorar las velocidades de entrenamiento al dividir los datos de forma equitativa entre las múltiples instancias de GPU, lo que permite que todas las instancias se entrenen al mismo tiempo. El paralelismo de modelos es útil para los modelos que son demasiado grandes para estar almacenados en una única GPU y necesitan que el modelo esté dividido en partes más pequeñas antes de distribuirlas entre varias GPU. Con solo unas pocas líneas de código adicional en sus scripts de entrenamiento de PyTorch y TensorFlow, SageMaker AI aplicará el paralelismo de datos o el paralelismo de modelos por usted de forma automática, lo que le permitirá desarrollar e implementar modelos con mayor rapidez. SageMaker AI determinará el mejor enfoque para dividir el modelo utilizando algoritmos de partición de gráficos para balancear el procesamiento informático de cada GPU y, a la vez, minimizar la comunicación entre instancias de GPU. SageMaker AI también optimiza los trabajos de entrenamiento distribuido mediante algoritmos que utilizan completamente la computación y las redes de AWS para lograr una eficiencia de escalado casi lineal, lo que le permite completar el entrenamiento con mayor rapidez que con implementaciones manuales de código abierto.
El Compilador de entrenamiento de SageMaker es un compilador de aprendizaje profundo (deep learning, DL) que acelera el entrenamiento de modelos de DL hasta un 50 % mediante optimizaciones a nivel de gráficos y núcleos para utilizar las GPU de manera más eficiente. El Compilador de entrenamiento de SageMaker tiene versiones integradas de TensorFlow y PyTorch en SageMaker, para que pueda acelerar el entrenamiento en estos marcos de trabajo populares con cambios mínimos de código.
SageMaker Training Compiler acelera el entrenamiento mediante la conversión de los modelos de DL de representaciones de lenguaje de alto nivel a instrucciones optimizadas para hardware que se entrenan más rápido que los trabajos con los marcos de trabajo nativos. Para ser más específicos, SageMaker Training Compiler utiliza optimizaciones a nivel de gráficos (fusión de operadores, planificación de memoria y simplificación algebraica), optimizaciones a nivel del flujo de datos (transformación del diseño, eliminación de subexpresiones comunes) y optimizaciones de backend (ocultamiento de la latencia de la memoria, optimizaciones orientadas a los bucles) para producir un trabajo de entrenamiento del modelo que utilice de forma más eficiente los recursos de hardware y, como resultado, entrene el modelo con más rapidez.
Managed Spot Training con SageMaker AI le permite entrenar sus modelos de ML utilizando instancias de spot de Amazon EC2, y así reducir el costo de entrenamiento de los modelos en hasta un 90 %.
SageMaker Training Compiler está incorporado en el SDK para Python de SageMaker y en los contenedores para aprendizaje profundo de Hugging Face de SageMaker. No necesita cambiar sus flujos de datos para acceder a los beneficios de aceleración. Puede poner en marcha trabajos de entrenamiento de la misma manera que lo hacía antes, con cualquier interfaz de SageMaker: instancias de cuadernos de SageMaker, SageMaker Studio, AWS SDK para Python (Boto3) y la Interfaz de la línea de comandos de AWS (AWS CLI). Para habilitar SageMaker Training Compiler, puede agregar una clase de TrainingCompilerConfig como parámetro cuando cree un objeto estimador de marco. En la práctica, esto representa un par de líneas de código agregadas a su script de trabajo de entrenamiento existente para una sola instancia de GPU. La mayoría de la documentación detallada actualizada, cuadernos de muestra y ejemplos están disponibles en la documentación.
SageMaker Training Compiler es una característica de entrenamiento SageMaker y se provee sin cobro adicional exclusivamente a los clientes de SageMaker AI. Los clientes pueden reducir sus costos con SageMaker Training Compiler conforme se reducen los tiempos de entrenamiento.
Usted activa la opción de Managed Spot Training cuando envía sus trabajos de entrenamiento y especifica cuánto tiempo quiere esperar para la capacidad Spot. SageMaker AI usa las instancias de spot de Amazon EC2 para ejecutar su trabajo y administra la capacidad Spot. Tiene completa visibilidad del estado del trabajo de entrenamiento, mientras se está poniendo en marcha y cuando está esperando por más capacidad.
Managed Spot Training usa las instancias de spot de Amazon EC2 para el entrenamiento, que pueden ser reemplazadas cuando AWS necesite la capacidad. Por lo tanto, los trabajos de Managed Spot Training pueden ponerse en marcha en incrementos pequeños a medida que haya capacidad disponible. No es necesario que los trabajos de entrenamiento empiecen desde el principio cada vez que haya una interrupción, ya que SageMaker AI puede reanudar los trabajos de entrenamiento utilizando el último punto de control del modelo. Los marcos y los algoritmos de visión artificial integrados en SageMaker AI permiten establecer puntos de control periódicos que se pueden activar con modelos personalizados.
Por lo general, recomendamos establecer puntos de control periódicamente para trabajos de entrenamiento largos. Esto evita que los trabajos de Managed Spot Training se reinicien si la capacidad está agotada. Cuando activa los puntos de control, SageMaker AI reanuda sus trabajos de Managed Spot Training desde el último punto de control.
Managed Spot Training puede usarse con todas las instancias admitidas en SageMaker AI.
Managed Spot Training se admite en todas las regiones en las que SageMaker AI está disponible actualmente.
No hay límites fijos en cuanto al tamaño del conjunto de datos que puede utilizar para modelos de entrenamiento con SageMaker AI.
SageMaker AI incluye algoritmos integrados para regresión lineal, regresión logística, agrupación de clústeres de medios k, análisis de componentes de entidad principal, máquinas de factorización, modelado de temas neuronal, asignación latente dirichlet, árboles con potenciación del gradiente, secuencia a secuencia, previsión de serie temporal, word2vec y clasificación de imágenes. SageMaker AI también proporciona versiones optimizadas de Apache MXNet, Tensorflow, Chainer, PyTorch, Gluon, Keras, Horovod, Scikit-learn y contenedores de Deep Graph Library. Además, SageMaker AI admite algoritmos de entrenamiento personalizados provistos mediante una imagen de Docker que se ajuste a la especificación documentada.
Puede ejecutar el ajuste de modelo automático en SageMaker AI sobre cualquier algoritmo siempre y cuando sea científicamente viable, incluidos los algoritmos de SageMaker AI integrados, las redes neuronales profundas o los algoritmos arbitrarios que incorpora a SageMaker AI como imágenes de Docker.
Por ahora no. La mejor experiencia y el mejor rendimiento del ajuste de modelo se obtienen dentro de SageMaker AI.
Actualmente, el algoritmo para el ajuste de hiperparámetros es una implementación personalizada de optimización bayesiana. Su objetivo es optimizar una métrica de objetivos específica del cliente en todo el proceso de ajuste. Específicamente, verifica la métrica de objetivos de trabajos de entrenamiento finalizados y utiliza el conocimiento para inferir la combinación de hiperparámetros para el próximo trabajo de entrenamiento.
No. La manera en la que determinados hiperparámetros afectan al rendimiento del modelo depende de varios factores y es difícil decir de manera definitiva que un hiperparámetro es más importante que otros y que, por lo tanto, debe ajustarse. Para algoritmos integrados en SageMaker AI, sí avisamos si un hiperparámetro se puede ajustar o no.
La duración de una tarea de ajuste de hiperparámetros depende de varios factores, incluido el tamaño de los datos, el algoritmo subyacente y los valores de los hiperparámetros. Además, los clientes pueden elegir el número de tareas de entrenamiento simultáneas y el número total de tareas de entrenamiento. Todas estas opciones afectan la duración de la tarea de entrenamiento de los hiperparámetros.
Por ahora no. Actualmente, debe especificar una única métrica de objetivo que quiera optimizar, o bien modificar el código del algoritmo para emitir una métrica nueva, que se promedia entre dos o más métricas útiles, y optimizar el proceso de ajuste en pos de dicha métrica de objetivo.
No se cobra la tarea de ajuste de hiperparámetros en sí. Se le cobrarán los trabajos de entrenamiento que son iniciados por el trabajo de ajuste de hiperparámetros, en función de los precios de entrenamiento del modelo.
El Piloto automático de SageMaker automatiza todo en un flujo de trabajo típico de ML. Esto incluye el preprocesamiento de características, la selección de algoritmos y el ajuste de hiperparámetro, y al mismo tiempo se centra en los casos de uso de clasificación y regresión. Por otra parte, el ajuste de modelo automático está diseñado para adecuarse a cualquier modelo, independientemente de si está basado en algoritmos integrados, marcos de aprendizaje profundo o contenedores personalizados. A cambio de la flexibilidad, debe hacer una selección manual del algoritmo específico, los hiperparámetros que quiere ajustar y los rangos de búsqueda correspondientes.
Es una técnica de ML que permite que un agente aprenda en un entorno interactivo por el método de prueba y error, con la retroalimentación obtenida de sus propias acciones y experiencias.
Sí. Aparte de los modelos de aprendizaje no supervisado y supervisado, puede entrenar modelos de aprendizaje por refuerzo en SageMaker AI.
Ambos tipos de aprendizaje usan la asignación entre la entrada y la salida pero, a diferencia del aprendizaje supervisado en el que la retroalimentación proporcionada al agente es un conjunto de acciones correctas para hacer una tarea, el aprendizaje mediante refuerzo utiliza una retroalimentación retrasada donde las señales de compensación se optimizan para garantizar un objetivo a largo plazo a través de una secuencia de acciones.
Mientras que el objetivo de las técnicas de aprendizaje supervisado es encontrar la respuesta correcta en función de los patrones de los datos de formación, el objetivo de las técnicas de aprendizaje no supervisado es encontrar similitudes y diferencias entre los puntos de datos. Por el contrario, el objetivo de las técnicas de refuerzo de aprendizaje (RL) es aprender cómo lograr un resultado deseado, incluso cuando no esté claro cómo lograrlo. Como consecuencia, el RL es más adecuado para activar aplicaciones inteligentes en las que un agente puede tomar decisiones autónomas, como robótica, vehículos autónomos, sistemas de acondicionamiento, control industrial, etc.
Amazon SageMaker RL admite distintos entornos para el entrenamiento de modelos RL. Puede usar servicios de AWS como AWS RoboMaker, entornos de código abierto o personalizados desarrollados mediante interfaces Open AI Gym, así como entornos de simulación comercial, como MATLAB y SimuLink.
No. SageMaker RL incluye conjuntos de herramientas de RL, como Coach y Ray RLLib, que ofrecen implementaciones de algoritmos de agente de RL, como DQN, PPO y A3C, entre otros.
Sí. Puede traer sus propias implementaciones de algoritmos y bibliotecas de RL en contenedores de Docker, y ejecutarlas en SageMaker RL.
Sí. Puede incluso seleccionar un clúster heterogéneo, donde el entrenamiento puede ponerse en marcha en una instancia de GPU y las simulaciones en varias instancias de CPU.
La capacidad de observabilidad de SageMaker HyperPod permite a los clientes acelerar el tiempo de comercialización y reducir el costo de las innovaciones de IA generativa. Los administradores pueden usar esta capacidad para obtener una visión integral del rendimiento, el estado y la utilización de sus clústeres en cuestión de minutos, a fin de optimizar el uso y la configuración de los recursos de computación acelerados. Cuando los científicos de datos encuentran interrupciones en sus tareas de desarrollo de IA generativa, como el entrenamiento del modelo, el ajuste fino o la inferencia en un clúster de HyperPod, pueden identificar en cuestión de minutos qué configuración o recurso debe actualizarse para recuperar las tareas. La reducción del tiempo de resolución de las interrupciones de las tareas y un menor número de reintentos de tareas permiten a las organizaciones centrarse en acelerar la innovación en IA generativa y el tiempo de comercialización, en lugar de dedicar horas o días a recopilar y analizar datos de telemetría de clústeres.
Implementación de modelos
Abrir todoDespués de crear y entrenar los modelos, SageMaker AI ofrece tres opciones para implementarlos. Así puede comenzar a hacer predicciones. La inferencia en tiempo real es adecuada para cargas de trabajo con requisitos de latencia de milisegundos, tamaños de carga útil de hasta 6 MB y tiempos de procesamiento de hasta 60 segundos. La transformación por lotes es ideal para predicciones sin conexión sobre grandes lotes de datos con disponibilidad anticipada. La inferencia asíncrona está diseñada para cargas de trabajo que no tienen requisitos de latencia inferiores a un segundo, tamaños de carga útil de hasta 1 GB y tiempos de procesamiento de hasta 15 minutos.
Puede reducir verticalmente a cero el recuento de instancias de punto de conexión de la inferencia asíncrona de SageMaker para ahorrar costos cuando no se procesen activamente las solicitudes. Es necesario definir una política de escalado que escale sobre la métrica personalizada “ApproximateBacklogPerInstance” y establecer el valor “MinCapacity” a cero. Para obtener instrucciones paso a paso, visite la sección de autoescalado de un punto de conexión asincrónico de la guía del desarrollador.
La inferencia sin servidor de SageMaker es una opción personalizada de publicación de modelos sin servidor que facilita la implementación y el escalado de modelos de ML. Los puntos de enlace de Amazon SageMaker Serverless Inference inician automáticamente los recursos informáticos y los escala de forma ascendente y descendente dependiendo del tráfico, lo que elimina la necesidad de elegir el tipo de instancia, ejecutar una capacidad aprovisionada o administrar el escalado. También tiene la opción de especificar los requisitos de memoria para los puntos de enlace de su inferencia sin servidor. Solo paga por la duración de la ejecución del código de inferencia y la cantidad de datos procesados, no por el tiempo de inactividad.
Con los puntos de conexión sin servidor bajo demanda, si su punto de conexión no recibe tráfico durante un tiempo y, de repente, recibe nuevas solicitudes, puede tardar algún tiempo en activar los recursos de cómputo necesarios para procesar las solicitudes. Esto se denomina arranque en frío. También puede producirse un arranque en frío si las solicitudes simultáneas superan el uso actual de solicitudes simultáneas. El tiempo de arranque en frío depende del tamaño del modelo, del tiempo que se tarde en descargar el modelo y del tiempo de inicio del contenedor.
Para reducir la variabilidad en su perfil de latencia, puede habilitar opcionalmente la simultaneidad aprovisionada para sus puntos de conexión sin servidor. Con la simultaneidad aprovisionada, sus puntos de conexión sin servidor están siempre listos y pueden servir de forma instantánea ráfagas de tráfico, sin necesidad de arranques en frío.
Al igual que ocurre con la inferencia sin servidor bajo demanda, cuando la simultaneidad aprovisionada está habilitada, paga por la capacidad de cálculo utilizada para procesar las solicitudes de inferencia, facturada por milisegundos y por la cantidad de datos procesados. También paga por el uso de la simultaneidad aprovisionada, en función de la memoria configurada, la duración aprovisionada y la cantidad de simultaneidad habilitada. Para obtener más información, consulte los precios de Amazon SageMaker AI.
SageMaker AI le permite ejecutar pruebas de sombras para evaluar un nuevo modelo de ML antes del lanzamiento a producción. Para ello, prueba su rendimiento frente al modelo implementado actualmente. SageMaker AI implementa el nuevo modelo en modo sombra junto al modelo de producción actual y refleja una porción especificada por el usuario del tráfico de producción en el nuevo modelo. De manera opcional, registra las inferencias de modelos para compararlas sin conexión. También proporciona un panel en vivo con una comparación de métricas clave de rendimiento, como la latencia y el índice de errores, entre los modelos de sombra y producción para ayudarlo a decidir si es momento de promover el nuevo modelo a producción.
SageMaker AI simplifica el proceso de configuración y de supervisión de variantes de sombra para que pueda evaluar el rendimiento del nuevo modelo de ML en el tráfico de producción en vivo. SageMaker AI le elimina la necesidad de orquestar la infraestructura para las pruebas de sombras. Le permite controlar parámetros de pruebas, como el porcentaje de tráfico reflejado en la variante de sombra y la duración de la prueba. Como resultado, puede comenzar con poco y aumentar las solicitudes de inferencia al nuevo modelo una vez que confíe más en el rendimiento del modelo. SageMaker AI crea un panel en vivo que muestra las diferencias de rendimiento en métricas clave para que pueda comparar fácilmente el rendimiento del modelo a fin de evaluar qué tanto difiere el nuevo modelo del modelo de producción.
El Recomendador de inferencias de SageMaker reduce el tiempo requerido para producir modelos de ML mediante la automatización de los análisis comparativos de rendimiento y el ajuste del rendimiento de los modelos en todas las instancias de ML de SageMaker. Ahora puede utilizar Amazon SageMaker Inference Recommender para implementar su modelo en un punto de conexión que entregue el mejor rendimiento y reduzca los costos. Puede comenzar con Amazon SageMaker Inference Recommender en minutos mientras selecciona un tipo de instancia y obtener recomendaciones para configuraciones óptimas de puntos de conexión en un par de horas, lo que ahorra semanas de tiempo de pruebas y ajustes manuales. Con el Recomendador de inferencias de Amazon SageMaker, solo paga por las instancias de ML de SageMaker utilizadas durante la prueba de carga y no hay costos adicionales.
No, actualmente solo se admite un único modelo por punto de conexión.
Actualmente, solo se admiten puntos de conexión en tiempo real.
Admitiremos todas las regiones que admite Amazon SageMaker, a excepción de las regiones de AWS de China.
Sí, admitimos todos los tipos de contenedores. Inf1 de Amazon EC2, basado en el chip de AWS Inferentia, requiere un artefacto de modelo compilado que utiliza el compilador Neuron o Amazon SageMaker Neo. Una vez que tenga un modelo compilado para un objetivo de Inferentia y el URI de la imagen del contenedor asociado, puede utilizar SageMaker Inference Recommender para hacer análisis comparativos de los distintos tipos de instancias de Inferentia.
El Monitor de modelos de SageMaker permite a los desarrolladores detectar y solucionar derivas conceptuales. El Monitor de modelos de SageMaker detecta de forma automática derivas conceptuales en los modelos implementados y brinda alertas detalladas que ayudan a identificar la fuente del problema. Todos los modelos entrenados en SageMaker AI emiten automáticamente métricas clave que pueden recopilarse y ser visualizadas en SageMaker Studio. Desde SageMaker Studio puede configurar la recopilación de datos, su visualización y cuándo recibir alertas.
No. SageMaker opera la infraestructura de computación por usted, lo que le permite ejecutar comprobaciones de estado, aplicar parches de seguridad y realizar otras tareas de mantenimiento de rutina. También puede implementar elementos de modelos de entrenamiento con código de inferencia personalizado en su propio entorno de alojamiento.
El alojamiento de SageMaker AI escala automáticamente al rendimiento necesario para la aplicación mediante el escalamiento automático de la aplicación. Además, puede modificar manualmente el número y el tipo de instancia sin generar tiempos de inactividad mediante la modificación de la configuración del punto de conexión.
SageMaker AI emite métricas de rendimiento hacia Amazon CloudWatch Metrics para que pueda realizar un seguimiento de métricas, definir alarmas y reaccionar automáticamente ante cambios en el tráfico de producción. Además, SageMaker AI escribe registros en los Registros de Amazon CloudWatch para permitirle supervisar el entorno de producción y solucionar sus problemas.
SageMaker AI puede alojar cualquier modelo que se ajuste a la especificación documentada para imágenes de Docker de inferencia. Incluye modelos creados a partir de códigos de inferencia y artefactos de modelos de SageMaker AI.
SageMaker AI está diseñado para escalar a un número elevado de transacciones por segundo. El número preciso varía en función del modelo implementado y del número y el tipo de instancia en el cual esté implementado el modelo.
Al ser un servicio completamente administrado, Amazon SageMaker AI se encarga de configurar y administrar las instancias, las compatibilidades de las versiones de software y las versiones de parches. También proporciona métricas y registros integrados para los puntos de conexión que puede utilizar para supervisar y recibir alertas. Con las herramientas y los flujos de trabajo guiados de SageMaker AI, se simplifica todo el proceso de empaquetado y de implementación de modelos de ML, lo que facilita la optimización de los puntos de enlace para lograr el rendimiento deseado y ahorrar costos. Puede implementar fácilmente sus modelos de aprendizaje automático, incluidos los modelos fundacionales, con unos pocos clics en SageMaker Studio o con el nuevo PySDK.
La transformación en lotes le permite poner en marcha las predicciones en datos de lotes grandes y pequeños. No es necesario desglosar el conjunto de datos en varios fragmentos ni administrar los puntos de conexión en tiempo real. Con una API simple, puede solicitar predicciones para un gran número de registros de datos y transformar los datos de manera rápida y sencilla.
SageMaker AI admite las siguientes opciones de puntos de enlace: puntos de enlace de modelo único, un modelo en un contenedor alojado en instancias dedicadas o sin servidor para lograr una latencia baja y un alto rendimiento. Puntos de conexión multimodelo: aloje puntos de conexión multimodelo mediante una infraestructura compartida para lograr una mayor rentabilidad y maximizar el uso. Puede controlar la cantidad de procesamiento y memoria que puede usar cada modelo para asegurarse de que cada uno tenga acceso a los recursos que necesita para funcionar de manera eficiente. Canalizaciones de inferencia en serie: varios contenedores que comparten instancias dedicadas y se ejecutan en una secuencia. Puede usar una canalización de inferencia para combinar tareas de ciencia de datos de preprocesamiento, predicciones y posprocesamiento.
SageMaker Edge Manager facilita la optimización, la protección, la supervisión y el mantenimiento de modelos de ML en las flotas de dispositivos periféricos, como las cámaras inteligentes, los robots, las computadoras personales y los dispositivos móviles. El Administrador de periféricos de SageMaker ayuda a los desarrolladores de ML a operar modelos de ML en una variedad de dispositivos periféricos a escala.
Para comenzar a utilizar SageMaker Edge Manager, debe compilar y empaquetar sus modelos de aprendizaje automático entrenados en la nube, registrar sus dispositivos y prepararlos con el SDK de SageMaker Edge Manager. Para preparar su modelo para la implementación, SageMaker Edge Manager utiliza SageMaker Neo para compilar el modelo del hardware de borde de destino. Una vez que el modelo está compilado, SageMaker Edge Manager firma el modelo con una clave generada por AWS, luego empaqueta el modelo con su tiempo de ejecución y las credenciales necesarias para prepararse para la implementación. Del lado del dispositivo, debe registrarlo con SageMaker Edge Manager, descargar el SDK de SageMaker Edge Manager y, luego, seguir las instrucciones para instalar el agente de SageMaker Edge Manager en sus dispositivos. El cuaderno del tutorial proporciona un ejemplo paso a paso de cómo puede preparar los modelos y conectarlos a los dispositivos periféricos con el Administrador de periféricos de SageMaker.
SageMaker Edge Manager es compatible con dispositivos comunes basados en CPU (ARM, x86) y GPU (ARM, Nvidia) con sistemas operativos Linux y Windows. Con el tiempo, SageMaker Edge Manager ampliará su compatibilidad con más procesadores integrados y plataformas móviles que también son compatibles con SageMaker Neo.
No, no es necesario. Puede formar sus modelos con cualquier otro servicio o utilizar modelos preformados de código abierto o de proveedores de modelos.
Sí, debe hacerlo. SageMaker Neo convierte y compila sus modelos en un archivo ejecutable que usted luego puede empaquetar e implementar en sus dispositivos periféricos. Una vez que el paquete del modelo se implemente, el agente de SageMaker Edge Manager desempacará el paquete del modelo y lo ejecutará en el dispositivo.
SageMaker Edge Manager almacena el paquete del modelo en el bucket de Amazon S3 especificado. Puede utilizar la característica de implementación por vía inalámbrica (OTA), que ofrece AWS IoT Greengrass, o cualquier otro mecanismo de implementación que elija para implementar el paquete del modelo en los dispositivos desde el bucket de S3.
El dlr de Neo es un tiempo de ejecución de código abierto que solo ejecuta modelos compilados por el servicio SageMaker Neo. En comparación con el dlr de código abierto, el SDK de SageMaker Edge Manager incluye un agente de nivel empresarial integrado en el dispositivo con características adicionales de seguridad, administración de modelos y publicación de modelos. El SDK de SageMaker Edge Manager es conveniente para la implementación en producción a escala.
SageMaker Edge Manager y AWS IoT Greengrass pueden trabajar juntos en su solución de IoT. Cuando su modelo de ML está empaquetado con SageMaker Edge Manager, puede utilizar la característica de actualización OTA de AWS IoT Greengrass para implementar el paquete del modelo en su dispositivo. AWS IoT Greengrass le permite supervisar sus dispositivos de IoT de forma remota al mismo tiempo que SageMaker Edge Manager lo ayuda a supervisar y mantener los modelos de ML en los dispositivos.
AWS ofrece las capacidades más completas para la ejecución de modelos en dispositivos de borde. Tenemos servicios para respaldar una amplia variedad de casos de uso, incluidos la visión artificial, el reconocimiento de voz y el mantenimiento predictivo.
Para aquellas empresas que buscan poner en marcha la visión artificial en dispositivos periféricos, como cámaras y electrodomésticos, se puede utilizar AWS Panorama. AWS Panorama ofrece aplicaciones de visión artificial para los dispositivos periféricos listas para implementar. Es fácil comenzar a utilizar AWS Panorama, ya que inicia sesión en la consola en la nube, especifica el modelo que le gustaría utilizar en Amazon S3 o en SageMaker AI y, luego, escribe la lógica de negocios como un script de Python. AWS Panorama compila el modelo para el dispositivo de destino y crea un paquete de la aplicación para que se pueda implementar en los dispositivos con solo unos pocos clics. Además, los proveedores de software independientes que quieran crear sus propias aplicaciones personalizadas pueden usar el SDK de AWS Panorama, mientras que los fabricantes de dispositivos pueden utilizar el SDK para dispositivos con el fin de certificar los suyos para AWS Panorama.
Los clientes que quieran crear sus propios modelos y tener un control más detallado de sus características pueden utilizar SageMaker Edge Manager. SageMaker Edge Manager es un servicio administrado para preparar, poner en marcha, supervisar y actualizar los modelos de ML en las flotas de dispositivos periféricos, como las cámaras inteligentes, los parlantes inteligentes y los robots, para cualquier caso de uso, como el procesamiento de lenguaje natural, la detección de fraudes y el mantenimiento predictivo. SageMaker Edge Manager está destinado a los desarrolladores de ML de borde que quieren tener el control de sus modelos, incluidos el diseño de diferentes características para los modelos y su supervisión en caso de desviaciones. Cualquier desarrollador de ML de Edge puede utilizar SageMaker Edge Manager mediante la consola y las API de SageMaker AI. SageMaker Edge Manager proporciona las capacidades de SageMaker AI para crear, entrenar e implementar los modelos en la nube en dispositivos de periferia.
SageMaker Edge Manager está disponible en seis regiones: este de EE. UU. (norte de Virginia), este de EE. UU. (Ohio), oeste de EE. UU. (Oregón), Europa (Irlanda), Europa (Fráncfort) y Asia-Pacífico (Tokio). Consulte la lista de servicios regionales de AWS para obtener más detalles.
SageMaker Neo permite que los modelos de ML entrenen una sola vez y se ejecuten en cualquier lugar, tanto en la nube como en la periferia. SageMaker Neo optimiza automáticamente los modelos creados con marcos de aprendizaje profundo conocidos que se pueden utilizar para el despliegue en múltiples plataformas de hardware. Los modelos optimizados se ponen en marcha hasta 25 veces más rápido y consumen menos de una décima parte de los recursos de los modelos de ML típicos.
Para comenzar a utilizar SageMaker Neo, inicie sesión en la consola de SageMaker AI, elija un modelo entrenado, siga el ejemplo para compilar modelos e implemente el modelo resultante en la plataforma de hardware de destino.
SageMaker Neo tiene dos componentes principales: un compilador y un tiempo de ejecución. En primer lugar, el compilador de SageMaker Neo lee los modelos exportados por los distintos marcos de trabajo. A continuación, convierte las operaciones y funciones específicas del marco de trabajo en una representación intermedia con independencia de este. Después, realiza una serie de optimizaciones. Entonces, el compilador genera código binario para las operaciones optimizadas y las escribe en una biblioteca de objetos compartidos. El compilador también guarda los parámetros y la definición del modelo en archivos independientes. Durante la ejecución, el tiempo de ejecución de SageMaker Neo carga los artefactos generados por el compilador (definición del modelo, parámetros y la biblioteca de objetos compartidos) para ejecutar el modelo.
No. Puede entrenar los modelos en cualquier otro punto y utilizar SageMaker Neo para optimizarlos para dispositivos compatibles con AWS IoT Greengrass o instancias de ML de SageMaker.
En la actualidad, SageMaker Neo admite los modelos de DL más populares, que impulsan las aplicaciones de visión informática y los modelos de árboles de decisiones más conocidos que se utilizan hoy en día en SageMaker AI. SageMaker Neo optimiza el rendimiento de los modelos AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet y DenseNet entrenados en MXNet y TensorFlow, así como de los modelos de clasificación y bosque de corte aleatorio entrenados en XGBoost.
Encuentre las listas de las instancias en la nube, los dispositivos periféricos y las versiones de marcos admitidos en la documentación de SageMaker Neo.
Si desea ver una lista de las regiones disponibles, consulte la lista de servicios regionales de AWS.
SageMaker HyperPod ahora le permite implementar modelos fundacionales de pesos abiertos desde SageMaker JumpStart o implementar sus propios modelos ajustados de Amazon S3 y Amazon FSx en unos pocos pasos sencillos. Una vez seleccionado un modelo, SageMaker HyperPod gestiona de manera automática el aprovisionamiento de la infraestructura, la configuración de los puntos de conexión y la configuración del escalado automático, al tiempo que publica métricas de rendimiento completas en el panel de observabilidad para la supervisión y la optimización en tiempo real.
Savings Plans de Amazon SageMaker
Abrir todoLos Savings Plans de SageMaker ofrecen un modelo de precios flexible en función del uso para SageMaker AI, a cambio de comprometerse a una cantidad constante de uso (medida en USD/hora) durante el término de uno o tres años. Savings Plans de SageMaker proporciona la mayor flexibilidad posible y permite reducir los costos en hasta un 64 %. Estos planes se aplican de manera automática a los usos de instancias de ML de SageMaker elegibles, incluidos los blocs de notas de SageMaker Studio, los blocs de notas bajo demanda de SageMaker, el procesamiento de SageMaker, SageMaker Data Wrangler, el entrenamiento con SageMaker, la inferencia en tiempo real de SageMaker y la transformación en lotes de SageMaker, sin importar la familia, el tamaño ni la región de las instancias. Por ejemplo, puede cambiar el uso de una instancia de CPU ml.c5.xlarge que se ponga en marcha en el este de EE. UU. (Ohio) a una instancia ml.Inf1 en el oeste de EE. UU. (Oregón) para cargas de trabajo de inferencia en cualquier momento y pagar de manera automática el precio de Savings Plans.
Si hace un uso constante de las instancias de SageMaker AI (medido en USD/hora), utiliza varios componentes de SageMaker AI o espera que su configuración tecnológica (como la región o la familia de la instancia) cambie con el paso del tiempo, los Savings Plans para SageMaker harán que sea más sencillo maximizar el ahorro y le brindarán flexibilidad para cambiar la configuración de la tecnología subyacente en función de las necesidades de las aplicaciones o la innovación. Las tarifas de Savings Plans se aplican de manera automática a cualquier uso de instancias de ML apto sin necesidad de modificaciones manuales.
La diferencia entre Savings Plans para SageMaker AI y Savings Plans de Amazon EC2 reside en los servicios que incluyen. Savings Plans para SageMaker solo se aplica al uso de instancias de ML de SageMaker.
Savings Plans se pueden adquirir desde cualquier cuenta en una familia de AWS Organizations o Facturación unificada. De manera predeterminada, se puede disfrutar de los beneficios que Savings Plans en todas las cuentas que estén en una familia de AWS Organizations o facturación unificada. Sin embargo, también puede optar por limitar el beneficio de los Savings Plans únicamente a la cuenta que los adquirió.
Personalización de modelos
Abrir todoSí, con Amazon SageMaker AI, puede acelerar el flujo de trabajo de personalización del modelo. Comience de manera rápida mediante un flujo de trabajo guiado por agentes de IA (en versión preliminar) o mediante la interfaz de usuario fácil de usar. Con el agente de IA (en versión preliminar), puede articular su caso de uso en lenguaje natural. En función de la descripción de los requisitos de su caso de uso, un agente de IA genera una especificación que incluye las directrices del conjunto de datos, los criterios de evaluación, las métricas asociadas y la técnica de personalización. La interfaz conversacional le permite iterar y ajustar aún más la especificación de su caso de uso si es necesario. Gracias a la sencilla interfaz de usuario, puede iniciar de manera rápida experimentos de personalización de modelos con unos pocos clics, comenzando por identificar los criterios de evaluación del modelo, seleccionar un modelo y una técnica de personalización y cargar un conjunto de datos. SageMaker AI selecciona y aprovisiona de manera automática los recursos de computación adecuados en función del modelo y el tamaño de los datos.
Una vez que haya alcanzado los objetivos de precisión y rendimiento deseados, puede implementar modelos en producción con unos pocos clics a través de los puntos de conexión de inferencia de SageMaker o Amazon Bedrock. Como alternativa, si quiere contar con mayor control y flexibilidad, puedes personalizar los modelos de IA con código mediante recetas optimizadas. Cada receta ha sido probada por AWS, lo que elimina semanas de trabajo tedioso al evaluar distintas configuraciones de modelos para lograr un rendimiento de vanguardia.
SageMaker AI admite las técnicas de personalización de modelos más recientes, como el ajuste fino supervisado (SFT), la optimización de preferencias directas (DPO) y el aprendizaje por refuerzo a partir de los comentarios de la IA (RLAIF) y las recompensas verificables (RLVR).
En SageMaker Studio, seleccione la pestaña de modelos y comience la personalización mediante una sencilla interfaz de usuario o el bloc de notas.
SageMaker AI proporciona entrenamiento sin servidor, lo que elimina la necesidad de seleccionar y administrar instancias. Solo paga por los tokens procesados durante el entrenamiento. Para obtener más información, consulte la página de precios de SageMaker AI.
El flujo de trabajo guiado por agentes de IA para la personalización de modelos en Amazon SageMaker AI se encuentra actualmente en versión preliminar. Puede solicitar una invitación para unirse a la versión preliminar. Una vez se acepte su petición, recibirá una invitación en el correo electrónico proporcionado.
¿Ha encontrado lo que buscaba hoy?
Ayúdenos a mejorar la calidad del contenido de nuestras páginas compartiendo sus comentarios