Infraestructura de AWS Machine Learning
Beneficios

Alto rendimiento
AWS ofrece la infraestructura informática de ML de mejor rendimiento de la nube. Para formación, las instancias P4 de Amazon EC2 ofrecen un rendimiento 2,5 veces mayor, en comparación con las instancias de generaciones anteriores, además de las redes más rápidas de hasta 400 Gbps. Para inferencia, las instancias Inf1 de Amazon EC2 brindan un rendimiento hasta 2,3 veces mayor en comparación con instancias basadas en GPU de la generación actual.

Optimizado para Machine Learning
Las instancias informáticas de AWS son compatibles con importantes marcos de machine learning, como TensorFlow y PyTorch. También son compatibles con modelos y conjuntos de herramientas, como Hugging Face, para una gran variedad de casos de uso de machine learning. AWS Deep Learning AMIs y Deep Learning Containers vienen con optimizaciones preinstaladas de marcos y conjuntos de herramientas de ML para acelerar el aprendizaje profundo en la nube.

Facilidad de uso
Amazon SageMaker, un servicio de ML completamente administrado, es la forma más rápida y fácil de comenzar con la infraestructura de AWS y también ofrece herramientas desarrolladas expresamente, como por ejemplo, el etiquetado de datos, la preparación de datos, la ingeniería de características, la detección de sesgos estadísticos, AutoML, la formación, los ajustes, el hospedaje, la explicabilidad, el monitoreo y los flujos de trabajo. SageMaker está creado a partir de décadas de experiencia en Amazon ML.

Escala
Los clientes de AWS tienen acceso a informática, redes y almacenamiento prácticamente ilimitados para que puedan escalar. Puede escalar o reducir verticalmente desde un GPU hasta miles y puede hacerlo según sea necesario, desde terabites hasta petabites de almacenamiento. Al utilizar la nube, no necesita invertir en toda la infraestructura posible. En su lugar, puede aprovechar las opciones de informática elástica, almacenamiento y redes.

Rentabilidad
Con una amplia variedad de opciones de servicios de infraestructura, usted puede elegir la infraestructura adecuada para su presupuesto. Elija entre cualquier instancia basada en CPU, GPU o acelerador y solo pague lo que use para no tener que pagar por capacidad inactiva. Las instancias Inf1 de Amazon EC2, con tecnología de AWS Inferentia, brindan un costo hasta un 70 % menor por inferencia en comparación con las instancias basadas en GPU de generación actual comparables.
Qué ofrecemos

Clientes

La inteligencia basada en IA y ML de Amazon Alexa está disponible en más de 100 millones de dispositivos en la actualidad. Alexa se vuelve cada vez más inteligente, más conversadora, más proactiva e incluso más agradable. Alexa utiliza Inf1 de Amazon EC2 para disminuir la latencia de la inferencia y el costo por inferencia de la función de conversión de texto a voz.

Autodesk mejora la tecnología cognitiva con un asistente virtual impulsado por IA, Autodesk Virtual Agent (AVA). AVA responde más de 100 000 preguntas de clientes por mes gracias a la comprensión del lenguaje natural (NLU) y las técnicas de aprendizaje profundo para extraer el contexto, la intención y el significado de las consultas. Al probar con AWS Inferentia, se pudo obtener un rendimiento 4,9 veces mayor que con las instancias basadas en GPU.

Rad AI utiliza IA para automatizar los flujos de trabajo de la radiología y ayudar a optimizar la generación de informes radiológicos. Con las nuevas instancias P4d de Amazon EC2, Rad AI nota una inferencia más veloz y la capacidad de formar modelos 2,4 veces más rápido y con una mayor precisión.