Infrastruktur von AWS Machine Learning
Vorteile

Hohe Leistung
AWS bietet die leistungsstärkste ML-Computing-Infrastruktur in der Cloud. Für Trainings bieten Amazon-EC2-P4-Instances eine 2,5-mal verbesserte Leistung im Vergleich zu Instances der vorherigen Generation und das schnellste Netzwerk mit bis zu 400 Gbit/s. Als Schlussfolgerung liefern Amazon-EC2-Inf1-Instances einen bis zu 2,3-fach höheren Durchsatz im Vergleich zu GPU-basierten Instances der aktuellen Generation.

Optimiert für Machine Learning
AWS-Computing-Instances unterstützen wichtige Machine-Learning-Frameworks wie TensorFlow und PyTorch. Sie unterstützen auch Modelle und Toolkits wie Hugging Face für eine breite Palette von Anwendungsfällen für Machine Learning. Die AWS-Deep-Learning-AMIs und Deep-Learning-Container sind mit Optimierungen für ML-Frameworks und Toolkits vorinstalliert, um Deep Learning in der Cloud zu beschleunigen.

Benutzerfreundlich
Amazon SageMaker, ein vollständig verwalteter ML-Service, ist der schnellste und einfachste Weg, um mit der AWS-Infrastruktur zu beginnen und bietet auch speziell entwickelte Tools wie Datenbeschriftung, Datenvorbereitung, Feature-Engineering, Erkennung statistischer Verzerrungen, AutoML, Training, Tuning, Hosting, Erklärbarkeit, Überwachung und Workflows. SageMaker basiert auf jahrzehntelanger Amazon-ML-Erfahrung.

Umfang
AWS-Kunden haben Zugriff auf praktisch unbegrenzte Rechen-, Netzwerk- und Speicherkapazitäten, damit sie skalieren können. Sie können je nach Bedarf von einer GPU auf Tausende hoch- oder herunterskalieren und Sie können je nach Bedarf von Terabyte auf Petabyte von Speicher hoch- oder herunterskalieren. Mit der Cloud müssen Sie nicht in jede mögliche Infrastruktur investieren. Nutzen Sie stattdessen elastische Rechen-, Speicher- und Netzwerkfunktionen.

Wirtschaftlich
Mit einer breiten Auswahl an Infrastruktur-Services können Sie die richtige Infrastruktur für Ihr Budget auswählen. Wählen Sie aus einer beliebigen CPU-, GPU- oder Accelerator-basierten Instance und zahlen Sie nur für das, was Sie auch tatsächlich nutzen, damit Sie nie für ungenutzte Kapazität zahlen. Amazon-EC2-Inf1-Instances Powered by AWS Inferentia bieten bis zu 70 % niedrigere Kosten pro Inferenz als vergleichbare GPU-basierte Instances der aktuellen Generation.
Was wir bieten

Kunden

Die KI- und ML-basierte Intelligenz von Amazon Alexa ist heute auf mehr als 100 Millionen Geräten verfügbar. Alexa wird immer intelligenter, gesprächiger, proaktiver und noch wunderbarer. Alexa verwendet Amazon EC2 Inf1, um die Inferenzlatenz und die Kosten pro Inferenz bei Alexas Text-zu-Sprache zu senken.

Autodesk treibt die kognitive Technologie mit einem KI-gestützten virtuellen Assistenten, dem Autodesk Virtual Agent (AVA), voran. AVA beantwortet mehr als 100.000 Kundenfragen pro Monat durch Anwendung von natürlichem Sprachverständnis (NLU) und Deep-Learning-Techniken, um den Kontext, die Absicht und die Bedeutung hinter den Anfragen zu extrahieren. Beim Testen von AWS Inferentia konnten sie einen 4,9-mal höheren Durchsatz als GPU-basierte Instances erzielen.

Rad AI verwendet KI, um radiologische Workflows zu automatisieren und die radiologische Berichterstattung zu optimieren. Mit den neuen Amazon-EC2-P4d-Instances sieht Rad AI schnellere Inferenz und die Möglichkeit, Modelle 2,4 x schneller und mit höherer Genauigkeit zu trainieren.