Infraestructura de AWS Machine Learning

De alto rendimiento, rentable y optimizado para machine learning
Cada vez más negocios e industrias de todos los tamaños adoptan machine learning (ML) para una amplia variedad de casos de uso, como motores de recomendación, detección de objetos, asistentes por voz y detección de fraudes. Con este crecimiento, viene un mayor uso, administración y costo de recursos informáticos, de almacenamiento y de redes. Conseguir la cantidad correcta de infraestructura informática para cumplir con los requisitos de las cargas de trabajo de machine learning puede ser desafiante; pero si no se hace, se puede generar una pérdida de tiempo y dinero cuando se formen e implementen modelos de ML. Para ayudarlo a acelerar la innovación en ML, AWS ofrece la combinación ideal de instancias de Amazon EC2 de alto rendimiento y bajo costo con herramientas desarrolladas expresamente y optimizadas para machine learning.

Beneficios

Alto rendimiento

Alto rendimiento 

AWS ofrece la infraestructura informática de ML de mejor rendimiento de la nube. Para formación, las instancias P4 de Amazon EC2 ofrecen un rendimiento 2,5 veces mayor, en comparación con las instancias de generaciones anteriores, además de las redes más rápidas de hasta 400 Gbps. Para inferencia, las instancias Inf1 de Amazon EC2 brindan un rendimiento hasta 2,3 veces mayor en comparación con instancias basadas en GPU de la generación actual.

Más información >>
Optimizado para ML

Optimizado para Machine Learning

Las instancias informáticas de AWS son compatibles con importantes marcos de machine learning, como TensorFlow y PyTorch. También son compatibles con modelos y conjuntos de herramientas, como Hugging Face, para una gran variedad de casos de uso de machine learning. AWS Deep Learning AMIs y Deep Learning Containers vienen con optimizaciones preinstaladas de marcos y conjuntos de herramientas de ML para acelerar el aprendizaje profundo en la nube.

Más información >>
Facilidad de uso

Facilidad de uso

Amazon SageMaker, un servicio de ML completamente administrado, es la forma más rápida y fácil de comenzar con la infraestructura de AWS y también ofrece herramientas desarrolladas expresamente, como por ejemplo, el etiquetado de datos, la preparación de datos, la ingeniería de características, la detección de sesgos estadísticos, AutoML, la formación, los ajustes, el hospedaje, la explicabilidad, el monitoreo y los flujos de trabajo. SageMaker está creado a partir de décadas de experiencia en Amazon ML.

Más información >>
Escala

Escala

Los clientes de AWS tienen acceso a informática, redes y almacenamiento prácticamente ilimitados para que puedan escalar. Puede escalar o reducir verticalmente desde un GPU hasta miles y puede hacerlo según sea necesario, desde terabites hasta petabites de almacenamiento. Al utilizar la nube, no necesita invertir en toda la infraestructura posible. En su lugar, puede aprovechar las opciones de informática elástica, almacenamiento y redes.

Más información >>
Rentabilidad

Rentabilidad

Con una amplia variedad de opciones de servicios de infraestructura, usted puede elegir la infraestructura adecuada para su presupuesto. Elija entre cualquier instancia basada en CPU, GPU o acelerador y solo pague lo que use para no tener que pagar por capacidad inactiva. Las instancias Inf1 de Amazon EC2, con tecnología de AWS Inferentia, brindan un costo hasta un 70 % menor por inferencia en comparación con las instancias basadas en GPU de generación actual comparables.

Más información >>

Qué ofrecemos

Infraestructura de ML

Clientes

Amazon Alexa

La inteligencia basada en IA y ML de Amazon Alexa está disponible en más de 100 millones de dispositivos en la actualidad. Alexa se vuelve cada vez más inteligente, más conversadora, más proactiva e incluso más agradable. Alexa utiliza Inf1 de Amazon EC2 para disminuir la latencia de la inferencia y el costo por inferencia de la función de conversión de texto a voz.

Anthem

Autodesk mejora la tecnología cognitiva con un asistente virtual impulsado por IA, Autodesk Virtual Agent (AVA). AVA responde más de 100 000 preguntas de clientes por mes gracias a la comprensión del lenguaje natural (NLU) y las técnicas de aprendizaje profundo para extraer el contexto, la intención y el significado de las consultas. Al probar con AWS Inferentia, se pudo obtener un rendimiento 4,9 veces mayor que con las instancias basadas en GPU.

RadAI

Rad AI utiliza IA para automatizar los flujos de trabajo de la radiología y ayudar a optimizar la generación de informes radiológicos. Con las nuevas instancias P4d de Amazon EC2, Rad AI nota una inferencia más veloz y la capacidad de formar modelos 2,4 veces más rápido y con una mayor precisión.

Dé el siguiente paso con AWS