Introducción

En su forma más básica, el machine learning (ML) está diseñado para proporcionar herramientas y servicios digitales para aprender de los datos, identificar patrones, hacer predicciones y luego actuar en función de esas predicciones. Casi todos los sistemas de inteligencia artificial (IA) actuales se crean con ML. El ML utiliza grandes cantidades de datos para crear y validar la lógica de decisiones. Esta lógica de decisión constituye la base del «modelo» de IA.

Un subconjunto de machine learning en rápido crecimiento es la IA generativa, que se basa en modelos de gran tamaño que se entrenan previamente con un amplio conjunto de datos, comúnmente denominados modelos fundacionales (FM). Los servicios de AWS basados en IA generativa incluyen:

  • Amazon Bedrock (que le proporciona una forma de crear y escalar aplicaciones basadas en IA generativa mediante FM)
  • Amazon CodeWhisperer (un complemento de codificación de IA que genera sugerencias de código en tiempo real en función de sus comentarios en lenguaje natural y de cualquier código anterior de su entorno de desarrollo integrado)

Esta guía para la toma de decisiones lo ayudará a hacer las preguntas correctas, evaluar sus criterios y problemas empresariales y determinar qué servicios se adaptan mejor a sus necesidades.

En menos de dos minutos, el Dr. Werner Vogels, CTO de Amazon, explica cómo funciona la IA generativa y cómo se puede utilizar. Este video es parte de una discusión más larga entre el Dr. Vogels y Swami Sivasubramanian, vicepresidente de bases de datos, análisis y aprendizaje automático de AWS, hablan sobre el amplio panorama de la IA generativa, por qué no es exageración y cómo AWS está democratizando el acceso a grandes lenguajes y modelos básicos.

Hora de leer

25 minutos

Uso

Ayude a determinar qué servicios de ML de AWS se adaptan mejor a sus necesidades.

Nivel

Principiante

Última actualización

26 de julio de 2023

Entender

A medida que las organizaciones siguen adoptando tecnologías de inteligencia artificial y aprendizaje automático, no se puede exagerar la importancia de comprender y elegir entre los servicios de ML de AWS.
 
AWS ofrece una gama de servicios de ML diseñados para ayudar a las organizaciones a crear, capacitar e implementar modelos de aprendizaje automático de manera más rápida y sencilla. Estos servicios se pueden utilizar para resolver una amplia gama de problemas empresariales, como la predicción de la rotación de clientes, la detección de fraudes y el reconocimiento de imagen y voz.
AWS aborda el ML como una serie de capas de tecnología que se basan unas en otras.
 
La capa superior está compuesta por servicios de IA. Aquí es donde AWS incorpora el ML en diferentes casos de uso, como la personalización, la previsión, la detección de anomalías y la transcripción de voz.
 
La capa intermedia está compuesta por los servicios de ML de AWS, que incluyen Amazon SageMaker, y tecnologías de aprendizaje profundo (DL). Aquí es donde AWS crea su infraestructura de ML, para que pueda centrarse únicamente en el trabajo diferenciado de crear modelos de ML.
 
La capa inferior está compuesta por servicios de IA generativa. La IA generativa puede crear contenido nuevo, como conversaciones, historias, imágenes, vídeos y música. Como cualquier otro tipo de IA, la IA generativa se basa en modelos de ML: modelos muy grandes que se entrenan previamente con grandes cantidades de datos y que, por lo general, se denominan modelos fundacionales.

Además, AWS ofrece el siguiente hardware acelerado y especializado para la formación e inferencia de ML de alto rendimiento.
 
  • Las instancias P4d de Amazon EC2 están equipadas con las GPU NVIDIA A100 Tensor Core, que son ideales tanto para tareas de entrenamiento como de inferencia en el machine learning. AWS Trainium es el acelerador de ML de segunda generación que AWS creó especialmente para el entrenamiento de DL de más de 100 000 000 000 de modelos de parámetros.
  • Las instancias Inf2 de Amazon EC2 basadas en Inferentia2 de AWS están diseñadas para ofrecer un alto rendimiento al menor costo en Amazon EC2 para las aplicaciones de inferencia de aprendizaje profundo e IA generativa.

Considere

Al resolver un problema empresarial con los servicios de ML de AWS, la consideración de varios criterios clave puede ayudar a garantizar el éxito. La siguiente sección describe algunos de los criterios clave que se deben tener en cuenta al elegir un servicio de ML.

  • El primer paso en el ciclo de vida del ML es plantear el problema empresarial. Comprender el problema que intenta resolver es fundamental para elegir el servicio de ML de AWS adecuado, ya que los distintos servicios están diseñados para abordar problemas diferentes. También es importante determinar si el ML es la mejor opción para su problema empresarial.

    Una vez que haya determinado que el ML es la mejor opción, puede empezar por elegir entre una gama de servicios de IA de AWS diseñados específicamente (en áreas como el discurso, la visión y los documentos).

    Amazon SageMaker proporciona una infraestructura totalmente gestionada si necesita crear y entrenar sus propios modelos. AWS ofrece una variedad de marcos de ML avanzados y opciones de infraestructura para los casos en los que necesite modelos de ML altamente personalizados y especializados. AWS también ofrece un amplio conjunto de modelos básicos populares para crear nuevas aplicaciones con IA generativa.

  • La elección del algoritmo de ML para el problema empresarial que intenta resolver depende del tipo de datos con los que esté trabajando, así como de los resultados deseados. La siguiente información describe cómo cada una de las principales categorías de servicios de IA y ML de AWS le permite trabajar con sus algoritmos:

    • Servicios de IA especializados: estos servicios ofrecen una capacidad limitada para personalizar el algoritmo ML, ya que son modelos previamente entrenados optimizados para tareas específicas. Por lo general, puede personalizar los datos de entrada y algunos parámetros, pero no tiene acceso a los modelos de ML subyacentes ni a la capacidad de crear sus propios modelos.
    • Amazon SageMaker: este servicio ofrece la máxima flexibilidad y control sobre el algoritmo de ML. Puede usar SageMaker para crear modelos personalizados con sus propios algoritmos y marcos, o usar modelos y algoritmos diseñados previamente que proporciona AWS. Esto permite un alto grado de personalización y control sobre el proceso de ML.
    • Infraestructura y marcos de ML de nivel inferior: estos servicios ofrecen la mayor flexibilidad y control sobre el algoritmo de ML. Puede utilizar estos servicios para crear modelos de ML altamente personalizados utilizando sus propios algoritmos y marcos. Sin embargo, el uso de estos servicios requiere una gran experiencia en ML y es posible que no sea factible para todos los casos de uso.
  • Si necesita un punto de conexión privado en su VPC, las opciones variarán en función de la capa de servicios de ML de AWS que utilice. Entre ellos se incluyen:

    • Servicios de IA especializados: la mayoría de los servicios de IA especializados actualmente no admiten puntos de conexión privados en las VPC. Sin embargo, se puede acceder a las etiquetas personalizadas de Amazon Rekognition y Amazon Comprehend mediante puntos de conexión de VPC.
    • Servicios principales de IA: Amazon Translate, Amazon Transcribe y Amazon Comprehend son compatibles con puntos de conexión de VPC.
    • Amazon SageMaker: SageMaker ofrece soporte integrado para los puntos de conexión de VPC, lo que le permite implementar sus modelos entrenados como un punto de conexión al que solo se puede acceder desde su VPC.
    • Infraestructura y marcos de ML de nivel inferior: puede implementar sus modelos en instancias de Amazon EC2 o en contenedores dentro de su VPC, lo que proporciona un control total sobre la configuración de red.
  • Los servicios de inteligencia artificial de nivel superior, como Amazon Rekognition y Amazon Transcribe, están diseñados para gestionar una amplia variedad de casos de uso y ofrecen un alto rendimiento en términos de velocidad. Sin embargo, es posible que no cumplan ciertos requisitos de latencia.

    Si utiliza infraestructuras y marcos de aprendizaje automático de nivel inferior, le recomendamos que utilice Amazon SageMaker. Esta opción suele ser más rápida que la creación de modelos personalizados debido a su servicio totalmente gestionado y a sus opciones de despliegue optimizados. Si bien un modelo personalizado altamente optimizado puede superar a SageMaker, su creación requerirá conocimientos y recursos importantes.

  • La precisión de los servicios de ML de AWS varía según el caso de uso específico y el nivel de personalización requerido. Los servicios de IA de nivel superior, como Amazon Rekognition, se basan en modelos previamente entrenados que se han optimizado para tareas específicas y ofrecen una alta precisión en muchos casos de uso.

    En algunos casos, puede optar por utilizar Amazon SageMaker, que proporciona una plataforma más flexible y personalizable para crear y entrenar modelos de ML personalizados. Al crear sus propios modelos, es posible que pueda lograr una precisión aún mayor que la que es posible con los modelos previamente entrenados.

    También puedes optar por utilizar infraestructuras y marcos de ML, como TensorFlow y Apache MXNet, para crear modelos altamente personalizados que ofrezcan la mayor precisión posible para su caso de uso específico.

  • AWS crea modelos fundacionales (FM) teniendo en cuenta la IA responsable en cada etapa de su proceso de desarrollo. A lo largo del diseño, el desarrollo, el despliegue y las operaciones, tenemos en cuenta una variedad de factores, entre los que se incluyen:

    1. Precisión (qué tan cerca coincide un resumen con el documento subyacente; si una biografía es correcta desde el punto de vista fáctico)
    2. Equidad (si los productos tratan a los grupos demográficos de manera similar)
    3. Consideraciones sobre propiedad intelectual y derechos de autor
    4. Uso apropiado (filtrar las solicitudes de los usuarios de asesoramiento legal, diagnósticos médicos o actividades ilegales)
    5. Toxicidad (discurso de odio, blasfemias e insultos)
    6. Privacidad (protección de la información personal y las indicaciones de los clientes)

    AWS crea soluciones para abordar estos problemas en los procesos utilizados para adquirir datos de entrenamiento, en los propios FM y en la tecnología utilizada para procesar previamente las solicitudes de los usuarios y los resultados posteriores al procesamiento.

Escoja

Ahora que conoce los criterios con los que evaluará las opciones del servicio de ML, estará listo para elegir qué servicio de ML de AWS es el adecuado para las necesidades de su organización.

En la siguiente tabla se destacan los servicios de ML que están optimizados para cada circunstancia. Úsela para ayudar a determinar el servicio de ML de AWS que mejor se adapte a su caso de uso.

Servicios de IA/ML y tecnologías de apoyo
¿Cuándo lo usaría?
¿Para qué está optimizado?
Cerrar

Amazon Comprehend

Amazon Comprehend le permite realizar tareas de procesamiento del lenguaje natural, como el análisis de sentimientos, el reconocimiento de entidades, el modelado de temas y la detección del lenguaje, en sus datos de texto.

Cerrar

Amazon Lex

Amazon Lex le ayuda a crear chatbots y asistentes de voz que pueden interactuar con los usuarios en una interfaz de lenguaje natural. Proporciona funciones preintegradas de administración de diálogos, comprensión del idioma y reconocimiento de voz.

Cerrar

Amazon Polly

Use Amazon Polly para convertir texto en voz realista, lo que facilita la creación de aplicaciones y servicios habilitados para voz.

Cerrar

Amazon Rekognition

Amazon Rekognition está diseñado para permitirle añadir análisis de imágenes y vídeos a sus aplicaciones. Tan solo debe ofrecer una imagen o un video a la API de Amazon Rekognition y el servicio podrá identificar objetos, personas, texto, escenas y actividades. También puede detectar contenido inadecuado.

Cerrar

Amazon Textract

Amazon Textract le ayuda a extraer texto y datos de documentos, formularios y tablas escaneados, lo que facilita el almacenamiento, el análisis y la administración de dichos datos.

Cerrar

Amazon Transcribe

Amazon Transcribe permite a los clientes transcribir automáticamente grabaciones de audio y vídeo en texto. Esto puede ahorrar tiempo y esfuerzo en comparación con la transcripción manual.

Cerrar

Amazon Translate

Utilice este servicio para traducir texto de un idioma a otro en tiempo real. Esto es especialmente útil si su empresa opera en diversos países o necesita comunicarse con hablantes no nativos.

Utilice los principales servicios de IA proporcionados por AWS cuando necesite integrar funcionalidades específicas y prediseñadas en sus aplicaciones, sin necesidad de personalizaciones amplias ni experiencia en machine learning.
Optimizado para facilitar su uso y no requiere mucha experiencia en codificación, configuración o ML.
Cerrar

Amazon Bedrock

Amazon Bedrock es un servicio totalmente administrado que permite que los modelos fundacionales de las principales startups de IA y Amazon estén disponibles a través de una API, de modo que pueda elegir entre una amplia gama de modelos fundacionales para encontrar el que mejor se adapte a su caso de uso.

Utilice Amazon Bedrock para ingresar a los modelos básicos de las principales startups de IA y de Amazon a través de una API.
Optimizado para ofrecer flexibilidad: le permite elegir entre una gama de FM para encontrar el modelo que mejor se adapte a sus necesidades.
Cerrar

Amazon CodeWhisperer

Amazon CodeWhisperer es un complemento de programación de IA en tiempo real que ayuda a crear código para tareas rutinarias o laboriosas e indiferenciadas, a trabajar con API o SDK desconocidos, a hacer un uso correcto y eficaz de las API de AWS y a otros escenarios de codificación habituales, como la lectura y escritura de archivos, el procesamiento de imágenes y la escritura de pruebas unitarias.

Use Amazon CodeWhisperer cuando necesite recomendaciones de código basadas en ML en tiempo real.
Optimizado para proporcionarle sugerencias útiles en tiempo real basadas en su código y comentarios existentes.
Cerrar

Piloto automático SageMaker

El Piloto automático de Amazon SageMaker reduce el trabajo pesado que supone crear modelos de ML. Simplemente proporcione un conjunto de datos tabulares y seleccione la columna de destino para predecir y el piloto automático de Amazon SageMaker analizará de forma automática las diferentes soluciones para encontrar el mejor modelo. Posteriormente podrá implementar directamente el modelo en la etapa de producción con un solo clic o bien iterar en las soluciones recomendadas a fin de mejorar aún más la calidad del modelo.

Cerrar

SageMaker Canvas

Amazon SageMaker Canvas le permite utilizar machine learning para generar predicciones sin necesidad de escribir ningún código.

Cerrar

SageMaker Data Wrangler

Amazon SageMaker Data Wrangler reduce el tiempo que lleva agregar y preparar datos tabulares y de imágenes para ML. Con SageMaker Data Wrangler, es posible simplificar el proceso de preparación de datos e ingeniería de características, así como completar cada paso del flujo de trabajo de preparación de datos (incluyendo la selección, limpieza, exploración, visualización y procesamiento de datos a escala) en una única interfaz visual. 

Cerrar

SageMaker Ground Truth

SageMaker Ground Truth es un servicio gestionado para etiquetar datos con el fin de entrenar y mejorar los modelos de machine learning. Proporciona una forma muy precisa y eficiente de etiquetar grandes conjuntos de datos mediante una combinación de anotadores humanos y algoritmos de machine learning. SageMaker Ground Truth admite una amplia gama de tipos de datos, incluyendo texto, imágenes, vídeo y audio y se integra a la perfección con otros servicios de SageMaker para flujos de trabajo de machine learning integrales.

Cerrar

SageMaker JumpStart

SageMaker JumpStart proporciona modelos de código abierto previamente entrenados para una amplia gama de tipos de problemas a fin de ayudarle a empezar con machine learning. Puede capacitarse y ajustar estos modelos de forma incremental antes del despliegue. JumpStart también proporciona plantillas de soluciones que configuran la infraestructura para casos de uso comunes y cuadernos de ejemplo ejecutables para machine learning con SageMaker.

Cerrar

Canalizaciones de SageMaker

Con Canalizaciones de Amazon SageMaker, puede crear flujos de trabajo de ML con un SDK de Python y, a continuación, visualizar y administrar el flujo de trabajo con Amazon SageMaker Studio. Canalizaciones de Amazon SageMaker le permite almacenar y reutilizar los pasos del flujo de trabajo que origine en SageMaker Pipelines.

Cerrar

SageMaker Studio

Un entorno de desarrollo (IDE) totalmente integrado que permite a los desarrolladores crear, capacitar e implementar modelos de machine learning a escala. Proporciona una única interfaz basada en la web para gestionar todo el ciclo de vida de machine learning, desde la preparación de datos y el entrenamiento de modelos hasta el despliegue y la supervisión. SageMaker Studio también es compatible con herramientas populares, como los cuadernos Jupyter, Git y TensorFlow, y ofrece un conjunto de algoritmos prediseñados para casos de uso comunes.

Cerrar

SageMaker Studio Lab

Amazon SageMaker Studio Lab es un IDE basado en la nube para aprender y experimentar con machine learning mediante cuadernos Jupyter prediseñados. Incluye una gama de cuadernos prediseñados que cubren temas como el reconocimiento de imágenes, el procesamiento del lenguaje natural y la detección de anomalías.

Utilice estos servicios cuando necesite modelos de machine learning o flujos de trabajo más personalizados que vayan más allá de las funcionalidades prediseñadas que ofrecen los principales servicios de IA.
Optimizado para crear y entrenar modelos de machine learning personalizados, entrenamiento a gran escala en múltiples instancias o clústeres de GPU, más control sobre la implementación de modelos de aprendizaje automático, inferencias en tiempo real y para crear flujos de trabajo integrales.
Cerrar

Apache MxNet

Apache MXNet es un marco de aprendizaje profundo de código abierto que admite diversos lenguajes de programación, incluyendo Python, Scala y R. Es conocido por su escalabilidad y velocidad y ofrece una gama de API de alto nivel para crear y entrenar redes neuronales, así como API de bajo nivel para usuarios avanzados.

Cerrar

Hugging Face en Amazon SageMaker

Hugging Face en Amazon SageMaker es una biblioteca de código abierto para el procesamiento del lenguaje natural (NLP) que proporciona una amplia gama de modelos y herramientas previamente entrenados para trabajar con datos de texto. Es conocido por su facilidad de uso y alto rendimiento y se usa ampliamente para tareas como la clasificación de textos, el análisis de sentimientos y la traducción de idiomas.

Cerrar

Pytorch on AWS

PyTorch en AWS es un marco de machine learning de código abierto que ofrece gráficos de cálculo dinámicos y diferenciación automática para crear y entrenar redes neuronales. PyTorch es conocido por su facilidad de uso y flexibilidad, y cuenta con una amplia y activa comunidad de desarrolladores que contribuyen a su desarrollo.

Cerrar

TensorFlow en AWS

TensorFlow es un marco de machine learning de código abierto desarrollado por Google que se usa ampliamente para crear y entrenar redes neuronales. Es conocido por su escalabilidad, velocidad y flexibilidad y es compatible con una variedad de lenguajes de programación, incluidos Python, C++ y Java. TensorFlow ofrece una amplia gama de modelos y herramientas prediseñados para el procesamiento de imágenes y texto, así como API de bajo nivel para usuarios avanzados que requieren un mayor control sobre sus modelos.

Utilice los marcos y la infraestructura de machine learning que proporciona AWS cuando necesite una flexibilidad y un control aún mayores sobre sus flujos de trabajo de aprendizaje automático y esté dispuesto a administrar la infraestructura y los recursos subyacentes.
Optimizado para proporcionar configuraciones de hardware personalizadas específicas, acceso a marcos de aprendizaje profundo que SageMaker no ofrece, más control sobre el almacenamiento y el procesamiento de datos y algoritmos y modelos personalizados.
Cerrar

AWS Inferentia y AWS Inferentia2

El acelerador de AWS Inferentia de primera generación alimenta las instancias Inf1 de Amazon Elastic Compute Cloud (Amazon EC2), que ofrecen un rendimiento hasta 2.3 veces mayor y un costo por inferencia hasta un 70% menor que las instancias comparables de Amazon EC2. El acelerador AWS Inferentia2 mejora la primera generación de AWS Inferentia. Inferentia2 ofrece un rendimiento hasta 4 veces mayor y una latencia hasta 10 veces menor en comparación con Inferentia.

Cerrar

AWS Trainium

AWS Trainium es el acelerador de machine learning (ML) de segunda generación que AWS creó especialmente para el entrenamiento de aprendizaje profundo de más de 100 000 000 000 de modelos de parámetros. Cada instancia Trn1 de Amazon Elastic Compute Cloud (EC2) implementa hasta 16 aceleradores de AWS Trainium para usarlos en el entrenamiento de aprendizaje profundo (DL) en la nube.

Utilice hardware acelerado cuando desee lograr el menor costo para los modelos de entrenamiento y necesite ejecutar inferencias en la nube.
Optimizado para respaldar el despliegue rentable de modelos básicos a escala.

Uso

Ahora debe tener una idea clara de los criterios que debe aplicar para elegir un servicio de ML de AWS. Ahora puede seleccionar qué servicios de IA o ML de AWS están optimizados para las necesidades de su empresa.

Para explorar cómo usar y obtener más información sobre los servicios que eligió, ofrecemos tres conjuntos de rutas para explorar cómo funciona cada servicio. El primer conjunto de rutas proporciona documentación detallada, tutoriales prácticos y recursos para empezar a utilizar Amazon Comprehend, Amazon Textract, Amazon Translate, Amazon Lex, Amazon Polly, Amazon Rekognition y Amazon Transcribe.

  • Amazon Comprehend
  • Comience a usar Amazon Comprehend

    Utilice la consola Amazon Comprehend para crear y ejecutar un trabajo de detección de entidades asincrónico.

    Comience con el tutorial»

    Analice la información que se encuentra en los textos por medio de Amazon Comprehend

    Aprenda a utilizar Amazon Comprehend para analizar y obtener información a partir de textos.  

    Comience con el tutorial»

    Precios de Amazon Comprehend


    Consulte la información sobre los precios y ejemplos de Amazon Comprehend.

    Explore la guía»

  • Amazon Textract
  • Introducción a Amazon Textract

    Descubra cómo se puede usar Amazon Textract con texto formateado para detectar palabras y líneas de palabras que se encuentran cerca unas de otras, así como para analizar un documento en busca de elementos como texto relacionado, tablas, pares clave-valor y elementos de selección.

    Explore la guía»

    Extraiga texto y datos estructurados con Amazon Textract

    Aprenda a utilizar Amazon Textract para extraer texto y datos estructurados a partir de documentos.




    Comience con el tutorial»

    AWS Power Hour: Machine learning

    Conozca Amazon Textract en este episodio, dedique tiempo a la consola de administración de AWS y revise ejemplos de código que le ayudarán a entender cómo aprovechar al máximo las API de servicio.


    Vea el video»

  • Amazon Translate
  • Cómo empezar a usar Amazon Translate usando la consola

    La manera más sencilla de empezar a usar Amazon Translate es usar la consola para traducir algún texto. Aprenda a traducir hasta 10,000 caracteres usando la consola.

    Explore la guía»

    Traducir texto de un idioma a otro en la nube

    En el escenario propuesto en este tutorial, como parte de una compañía de fabricación de maletas, debe comprender lo que dicen los clientes sobre sus productos en las valoraciones realizadas en el idioma del mercado local - francés.  

    Comience con el tutorial»

    Precios de Amazon Translate


    Conozca los precios de Amazon Translate, incluyendo la capa gratuita - que proporciona 2 millones de caracteres al mes durante 12 meses.


    Explore la guía»

    Acelere los flujos de trabajo multilingües con una solución de traducción personalizable

    Descubra cómo crear una solución de traducción unificada con características de personalización mediante Amazon Translate y otros servicios de AWS.

    Lea el blog»

  • Amazon Lex
  • Guía para desarrolladores de Amazon Lex V2


    Consulte información sobre cómo empezar, cómo funciona e información sobre los precios de Amazon Lex V2.


    Explore la guía»

    Introduction to Amazon Lex


    Le presentamos el servicio conversacional Amazon Lex y le guiamos a través de ejemplos que le muestran cómo crear un bot e implementarlo en diferentes servicios de chat.

    Tome el curso » (es necesario iniciar sesión)

    Exploración de la IA generativa en experiencias conversacionales

    Explore el uso de la IA generativa en las experiencias de conversación.


    Lea el blog»

  • Amazon Polly
  • ¿Qué es Amazon Polly?



    Obtenga una visión general completa del servicio en la nube que convierte el texto en voz realista y que se puede utilizar para desarrollar aplicaciones que aumenten la participación y la accesibilidad de sus clientes.

    Explore la guía»

    Resalta el texto a medida que se está pronunciando con Amazon Polly


    Le presentamos métodos para resaltar el texto mientras se pronuncia para agregar capacidades visuales al audio en libros, sitios web, blogs y otras experiencias digitales.

    Lea el blog»

    Crea audio para contenido en múltiples idiomas con el mismo personaje de voz de TTS en Amazon Polly

    Explicamos la conversión de texto a voz neuronal (NTTS) y analizamos cómo puede funcionar para usted una amplia cartera de voces disponibles, que proporciona una gama de hablantes distintos en los idiomas compatibles.

    Lea el blog»

  • Amazon Rekognition
  • ¿Qué es Amazon Rekognition?



    Descubra cómo puede utilizar este servicio para añadir análisis de imagen y vídeo a sus aplicaciones.  

    Explore la guía»

    Rekognition práctico: análisis automatizado de imágenes y videos

    Aprenda cómo funciona el reconocimiento facial con la transmisión de vídeo, junto con ejemplos de código y puntos clave a un ritmo autoguiado.  

    Comience con el tutorial»

    Preguntas frecuentes sobre Amazon Rekognition



    Conozca los conceptos básicos de Amazon Rekognition y cómo puede ayudarlo a mejorar su aprendizaje profundo y analizar visualmente sus aplicaciones.

    Lea las preguntas frecuentes »

  • Amazon Transcribe
  • Transcribe

    ¿Qué es Amazon Transcribe?


    Explore el servicio de reconocimiento de voz automático de AWS mediante ML para convertir audio en texto. Aprenda a utilizar este servicio como una transcripción independiente o a añadir la capacidad de conversión de voz a texto en cualquier aplicación.

    Explore la guía »

    Precios de Amazon Transcribe


    Le presentamos la transcripción de pago por uso de AWS, que incluye opciones de modelos de idioma personalizados y la capa gratuita de Amazon Transcribe.


    Explore la guía»

    Origine una transcripción de audio con Amazon Transcribe

    Aprenda a usar Amazon Transcribe para crear una transcripción de texto de archivos de audio grabados utilizando un caso de uso real para realizar pruebas en función de sus necesidades.

    Comience con el tutorial »

    Origine una aplicación de streaming Amazon Transcribe

    Aprenda a crear una aplicación para grabar, transcribir y traducir audio en vivo en tiempo real, con los resultados enviados directamente por correo electrónico.

    Explore la guía»

El segundo conjunto de rutas de servicio de AWS con IA y ML proporciona documentación detallada, tutoriales prácticos y recursos para empezar a utilizar los servicios de la familia Amazon SageMaker.

  • SageMaker
  • Cómo funciona Amazon SageMaker

    Explore la descripción general de machine learning y el funcionamiento de SageMaker.

    Explore la guía»

    Introducción a Amazon SageMaker

    Aprenda a unirse a un dominio de Amazon SageMaker, lo que le permitirá ingresar a Amazon SageMaker Studio y RStudio en SageMaker. 

    Explore la guía»

    Utilice Apache Spark con Amazon SageMaker

    Aprenda a usar Apache Spark para preprocesar datos y SageMaker para el entrenamiento y alojamiento de modelos. 

    Explore la guía»

    Utilice contenedores Docker para crear modelos

    Descubra cómo Amazon SageMaker hace un uso extensivo de los contenedores de Docker para tareas de compilación y ejecución. Aprenda a implementar las imágenes de Docker prediseñadas para sus algoritmos integrados y los marcos de aprendizaje profundo compatibles que se utilizan para el entrenamiento y la inferencia.

    Explore la guía »
     

    Frameworks y lenguajes de machine learning

    Aprenda a comenzar a usar SageMaker con Amazon SageMaker Python SDK.



    Explore la guía»

  • Piloto automático SageMaker
  • Origine un experimento de piloto automático de Amazon SageMaker para datos tabulares

    Aprenda a crear un experimento de piloto automático de Amazon SageMaker para explorar, preprocesar y capacitar a diversos modelos candidatos en un conjunto de datos tabular.

    Explore la guía»

    Creación automática de modelos de machine learning


    Aprenda a utilizar el piloto automático de Amazon SageMaker para crear, entrenar y ajustar automáticamente un modelo de machine learning (ML) y desplegarlo para realizar predicciones.

    Comience con el tutorial »

    Explore el modelado con el piloto automático de Amazon SageMaker con estos ejemplos de cuadernos

    Explore cuadernos de ejemplo para el marketing directo, la predicción de la rotación de clientes y cómo incorporar su propio código de procesamiento de datos al piloto automático de Amazon SageMaker.

    Explore la guía »

  • SageMaker Canvas
  • Comience a usar Amazon SageMaker Canvas


    Aprenda a empezar a usar SageMaker Canvas.

    Explore la guía »

    Generación de predicciones de machine learning sin necesidad de escribir código

    Este tutorial explica cómo usar Amazon SageMaker Canvas para crear modelos de machine learning (ML) y generar predicciones precisas sin escribir una sola línea de código.

    Comience con el tutorial »

    Profundice en SageMaker Canvas


    Explore un análisis en profundidad de SageMaker Canvas y sus capacidades visuales de aprendizaje automático sin código.

    Lea el blog »

    Utilice Amazon SageMaker Canvas para crear su primer modelo de aprendizaje automático

    Aprenda a usar Amazon SageMaker Canvas para crear un modelo de aprendizaje automático para evaluar la retención de clientes, con base en una campaña de correo electrónico para nuevos productos y servicios.

    Comience con los laboratorios»

  • SageMaker Data Wrangler
  • Introducción a Amazon SageMaker Data Wrangler

    Descubra cómo configurar SageMaker Data Wrangler y, a continuación, proporcione un tutorial con un conjunto de datos de ejemplo existente.


    Explore la guía»

    Prepare datos de entrenamiento para machine learning con un código mínimo

    Aprenda a preparar datos para ML con Amazon SageMaker Data Wrangler.



    Comience con el tutorial »

    Taller detallado de SageMaker Data Wrangler

    Aprenda a aplicar los tipos de análisis adecuados en su conjunto de datos para detectar anomalías y problemas, a utilizar los resultados o conocimientos derivados para formular acciones correctivas durante las transformaciones en su conjunto de datos y a probar la elección y la secuencia de transformaciones correctas con las opciones de modelado rápido que ofrece SageMaker Data Wrangler.

    Comience con el taller »

  • SageMaker Ground Truth/Ground Truth Plus
  • Introducción a Amazon Groud Truth

    Descubra cómo usar la consola para crear un trabajo de etiquetado, asignar un personal público o privado y enviar el trabajo de etiquetado a su personal. Aprenda a monitorear el progreso de un trabajo de etiquetado.

    Explore la guía »

    Etiquetado de los datos de entrenamiento para machine learning

    Aprenda en este tutorial a configurar un trabajo de etiquetado en Amazon SageMaker Ground Truth a fin de anotar los datos de entrenamiento para el modelo de aprendizaje automático (ML).

    Comience con el tutorial »

    Cómo empezar a usar Amazon Ground Truth Plus

    Descubra cómo completar los pasos necesarios para iniciar un proyecto de Amazon SageMaker Ground Truth Plus, revisar las etiquetas y cumplir los requisitos previos de SageMaker Ground Truth Plus.  

    Explore la guía »

    Introducción a Amazon Ground Truth

    Vea cómo empezar a etiquetar sus datos en cuestión de minutos a través de la consola SageMaker Ground Truth.

    Vea el video »

    Amazon SageMaker Ground Truth Plus: origine conjuntos de datos de entrenamiento sin código ni recursos internos

    Obtenga más información sobre Ground Truth Plus, un servicio llave en mano que utiliza una fuerza laboral experta para ofrecer conjuntos de datos de entrenamiento de alta calidad de forma rápida y reduce los costos hasta en un 40 por ciento.

    Lea el blog »

  • SageMaker JumpStart
  • Comience con machine learning con SageMaker JumpStart

    Explore las plantillas de soluciones JumpStart de SageMaker que configuran la infraestructura para casos de uso comunes y los cuadernos de ejemplo ejecutables para machine learning con SageMaker.

    Explore la guía »

    Introducción rápida a su proyecto de machine learning con Amazon SageMaker JumpStart

    Aprenda a acelerar los proyectos de aprendizaje automático (ML) mediante modelos previamente entrenados y soluciones prediseñadas que ofrece Amazon SageMaker JumpStart. Puede implementar el modelo seleccionado a través de los cuadernos de Amazon SageMaker Studio.

    Comience con el tutorial »

    Ponga manos a la obra con Amazon SageMaker JumpStart con este taller del día de inmersión

    Descubra cómo las capacidades de aprendizaje automático de bajo código que se encuentran en Amazon SageMaker Data Wrangler, Autopilot y Jumpstart facilitan la experimentación más rápida y llevan modelos de alta precisión a la producción.

    Comience con el taller »

  • Canalizaciones de SageMaker
  • Introducción a Canalizaciones de Amazon SageMaker


    Aprenda a crear flujos de trabajo integrales que gestionen e implementen trabajos de SageMaker. SageMaker Pipelines incluye la integración con el SDK de Python de SageMaker, por lo que puede crear cada paso de su canalización mediante una interfaz basada en Python.

    Explore la guía »

    Automatice los flujos de trabajo de machine learning


    Aprenda a crear y automatizar flujos de trabajo de machine learning (ML) de extremo a extremo con Canalizaciones de Amazon SageMaker, Registro de modelos de Amazon SageMaker y Amazon SageMaker Clarify.

    Comience con el tutorial »

    Cómo crear flujos de trabajo de ML completamente automatizados con Canalizaciones de Amazon SageMaker

    Obtenga información sobre Canalizaciones de Amazon SageMaker, el primer servicio de CI/CD de aprendizaje automático del mundo diseñado para que todos los desarrolladores y científicos de datos puedan acceder a él. SageMaker Pipelines lleva las canalizaciones de CI/CD al aprendizaje automático, lo que reduce el tiempo de codificación necesario.

    Vea el video »

  • SageMaker Studio
  • Creación y entrenamiento de un modelo de machine learning de forma local

    Aprenda a originar y entrenar un modelo de aprendizaje automático (ML) localmente dentro del cuaderno de Amazon SageMaker Studio.

    Comience con el tutorial »

    Taller de integración de SageMaker Studio con EMR

    Aprenda a utilizar el procesamiento distribuido a escala para preparar datos y, posteriormente, entrenar modelos de machine learning.  

    Comience con el taller »

El tercer conjunto de rutas de servicio de AWS para inteligencia artificial y ML brinda documentación detallada, tutoriales prácticos y recursos para comenzar a utilizar Amazon Bedrock, Amazon CodeWhisperer, AWS Trainium, AWS Inferentia y Amazon Titan.

  • Amazon Bedrock
  • Descripción general de Amazon Bedrock

    Comprenda cómo Amazon Bedrock hace que los modelos básicos de las principales startups de IA y Amazon estén disponibles a través de una API, de modo que pueda elegir entre una amplia gama de máquinas virtuales y encontrar el modelo que mejor se adapte a su caso de uso.  

    Explore la guía »

    Anuncio de nuevas herramientas para crear con IA generativa en AWS

    Conozca los antecedentes sobre el desarrollo de Amazon Bedrock, cómo se ajusta al enfoque más amplio de AWS sobre la IA y el aprendizaje automático - y proporcione una descripción general de los posibles usos de los servicios de IA generativa de AWS.

    Lea el blog »

    Desmitificación de la IA generativa

    En este vídeo, la Dra. Werner Vogels, Director de tecnología de Amazon y Swami Sivasubramanian, Vicepresidente de bases de datos, análisis y aprendizaje automático de AWS, conversan sobre el amplio panorama de la IA generativa, por qué no es exagerada y cómo AWS está democratizando el acceso a grandes lenguajes y modelos básicos.

    Vea el video »

  • Amazon CodeWhisperer
  • ¿Qué es Amazon CodeWhisperer?

    Descubra cómo CodeWhisperer está diseñado para ayudar a crear código para tareas rutinarias o indiferenciadas que requieren mucho tiempo, trabajar con API o SDK desconocidos, hacer un uso correcto y eficaz de las API de AWS y otros escenarios de codificación comunes, como leer y escribir archivos, procesar imágenes y escribir pruebas unitarias.

    Explore la guía »

    Introducción a Amazon CodeWhisperer

    Aprenda a configurar CodeWhisperer para usarlo con cada uno de los cuatro IDE posibles: Kit de herramientas de AWS para JetBrains, Kit de herramientas de AWS para Visual Studio Code, Lambda y AWS Cloud9.

    Explore la guía »

    Taller de Amazon CodeWhisperer

    Aprenda a crear una aplicación completa, basada en eventos y sin servidor para el reconocimiento de imágenes. Con la ayuda de Amazon CodeWhisperer, escribirá su propio código que se ejecuta sobre AWS Lambda para interactuar con Amazon Rekognition, Amazon DynamoDB, Amazon SNS, Amazon SQS, Amazon S3 y API HTTP de terceros para realizar el reconocimiento de imágenes.

    Comience con el taller »

  • AWS Trainium
  • Ampliación de la formación distribuida con AWS Trainium y Amazon EKS

    Descubra cómo puede beneficiarse de la disponibilidad general de las instancias Trn1 de Amazon EC2 con tecnología de AWS Trainium - un acelerador de aprendizaje automático especialmente diseñado y optimizado para proporcionar una plataforma de alto rendimiento, rentable y escalable de forma masiva para entrenar modelos de aprendizaje profundo en la nube.  

    Lea el blog »

    Descripción general de AWS Trainium

    Conozca AWS Trainium, el acelerador de machine learning (ML) de segunda generación que AWS creó especialmente para el entrenamiento de aprendizaje profundo de más de 100 000 000 000 millones de modelos de parámetros. Cada instancia Trn1 de Amazon Elastic Compute Cloud (EC2) implementa hasta 16 aceleradores de AWS Trainium para ofrecer una solución de alto rendimiento y bajo costo para el entrenamiento de aprendizaje profundo (DL) en la nube.

    Explore la guía »

    Instancias de Trainium recomendadas

    Descubra cómo se diseñan las instancias de AWS Trainium para proporcionar un alto rendimiento y rentabilidad a las cargas de trabajo de inferencia de modelos de aprendizaje profundo.



    Explore la guía »

  • AWS Inferentia
  • Descripción general de AWS Inferentia

    Comprender cómo están diseñados lo aceleradores por AWS para ofrecer un alto rendimiento al menor costo para sus aplicaciones de inferencia de aprendizaje profundo (DL).  

    Explore la guía »

    AWS Inferentia2 se basa en AWS Inferentia1 y ofrece un rendimiento 4 veces mayor y una latencia 10 veces menor

    Conozca para qué está optimizado AWS Inferentia2 y explore cómo se diseñó desde cero para ofrecer un mayor rendimiento y, al mismo tiempo, reducir el costo de los LLM y la inferencia de IA generativa.

    Lea el blog »

    Inferencia de machine learning mediante AWS Inferentia

    Aprenda a crear un clúster de Amazon EKS con nodos que ejecuten instancias Inf1 de Amazon EC2 y (opcionalmente) a implementar una aplicación de muestra. Las instancias Inf1 de Amazon EC2 funcionan con chips de AWS Inferentia, que AWS crea a medida para proporcionar inferencias de alto rendimiento y menor costo en la nube.

    Explore la guía »

  • Amazon Titan
  • Descripción general de Amazon Titan

    Descubra cómo los FM de Amazon Titan se entrenan previamente con grandes conjuntos de datos, lo que los convierte en modelos potentes de uso general. Aprenda a usarlos tal cual - o de forma privada - para personalizarlos con sus propios datos para una tarea en particular sin anotar grandes volúmenes de datos.

    Explore la guía »

Explorar

Diagramas de arquitectura

Estos diagramas de arquitectura de referencia muestran ejemplos de servicios de IA y ML de AWS en uso.

Explore los diagramas de arquitectura »

Documentos técnicos

Consulte los documentos técnicos que le ayudarán a empezar y a conocer las mejores prácticas a la hora de elegir y utilizar los servicios de IA y ML.

Explore los documentos técnicos »

Soluciones de AWS

Explore las soluciones comprobadas y la guía de arquitectura para los casos de uso comunes de los servicios de IA y ML.

Explore las soluciones »

¿Le resultó útil esta página?