Infrastruktur von AWS Machine Learning

Leistungsstark, kostengünstig und optimiert für Machine Learning
Unternehmen aller Größen und Branchen setzen zunehmend Machine Learning (ML) für eine Vielzahl von Anwendungsfällen ein, darunter Empfehlungsmaschinen, Objekterkennung, Sprachassistenten und Betrugserkennung. Mit diesem Wachstum gehen eine höhere Nutzung, Verwaltung und Kosten von Rechen-, Speicher- und Netzwerkressourcen einher. Die Beschaffung der richtigen Menge an Computing-Infrastruktur, um die Anforderungen von Machine-Learning-Workloads zu erfüllen, kann eine Herausforderung darstellen, aber ohne sie kann das Training und die Bereitstellung von ML-Modellen teuer und zeitaufwändig sein. Um Ihre ML-Innovation zu beschleunigen, bietet AWS die ideale Kombination aus leistungsstarken und kostengünstigen Amazon-EC2-Instances und speziell für Machine Learning optimierten Tools.

Vorteile

Hohe Leistung

Hohe Leistung 

AWS bietet die leistungsstärkste ML-Computing-Infrastruktur in der Cloud. Für Trainings bieten Amazon-EC2-P4-Instances eine 2,5-mal verbesserte Leistung im Vergleich zu Instances der vorherigen Generation und das schnellste Netzwerk mit bis zu 400 Gbit/s. Als Schlussfolgerung liefern Amazon-EC2-Inf1-Instances einen bis zu 2,3-fach höheren Durchsatz im Vergleich zu GPU-basierten Instances der aktuellen Generation.

Weitere Informationen >>
ML-optimiert

Optimiert für Machine Learning

AWS-Computing-Instances unterstützen wichtige Machine-Learning-Frameworks wie TensorFlow und PyTorch. Sie unterstützen auch Modelle und Toolkits wie Hugging Face für eine breite Palette von Anwendungsfällen für Machine Learning. Die AWS-Deep-Learning-AMIs und Deep-Learning-Container sind mit Optimierungen für ML-Frameworks und Toolkits vorinstalliert, um Deep Learning in der Cloud zu beschleunigen.

Weitere Informationen >>
Benutzerfreundlich

Benutzerfreundlich

Amazon SageMaker, ein vollständig verwalteter ML-Service, ist der schnellste und einfachste Weg, um mit der AWS-Infrastruktur zu beginnen und bietet auch speziell entwickelte Tools wie Datenbeschriftung, Datenvorbereitung, Feature-Engineering, Erkennung statistischer Verzerrungen, AutoML, Training, Tuning, Hosting, Erklärbarkeit, Überwachung und Workflows. SageMaker basiert auf jahrzehntelanger Amazon-ML-Erfahrung.

Weitere Informationen >>
Umfang

Umfang

AWS-Kunden haben Zugriff auf praktisch unbegrenzte Rechen-, Netzwerk- und Speicherkapazitäten, damit sie skalieren können. Sie können je nach Bedarf von einer GPU auf Tausende hoch- oder herunterskalieren und Sie können je nach Bedarf von Terabyte auf Petabyte von Speicher hoch- oder herunterskalieren. Mit der Cloud müssen Sie nicht in jede mögliche Infrastruktur investieren. Nutzen Sie stattdessen elastische Rechen-, Speicher- und Netzwerkfunktionen.

Weitere Informationen >>
Wirtschaftlich

Wirtschaftlich

Mit einer breiten Auswahl an Infrastruktur-Services können Sie die richtige Infrastruktur für Ihr Budget auswählen. Wählen Sie aus einer beliebigen CPU-, GPU- oder Accelerator-basierten Instance und zahlen Sie nur für das, was Sie auch tatsächlich nutzen, damit Sie nie für ungenutzte Kapazität zahlen. Amazon-EC2-Inf1-Instances Powered by AWS Inferentia bieten bis zu 70 % niedrigere Kosten pro Inferenz als vergleichbare GPU-basierte Instances der aktuellen Generation.

Weitere Informationen >>

Was wir bieten

ML-Infrastruktur

Kunden

Amazon Alexa

Die KI- und ML-basierte Intelligenz von Amazon Alexa ist heute auf mehr als 100 Millionen Geräten verfügbar. Alexa wird immer intelligenter, gesprächiger, proaktiver und noch wunderbarer. Alexa verwendet Amazon EC2 Inf1, um die Inferenzlatenz und die Kosten pro Inferenz bei Alexas Text-zu-Sprache zu senken.

Anthem

Autodesk treibt die kognitive Technologie mit einem KI-gestützten virtuellen Assistenten, dem Autodesk Virtual Agent (AVA), voran. AVA beantwortet mehr als 100.000 Kundenfragen pro Monat durch Anwendung von natürlichem Sprachverständnis (NLU) und Deep-Learning-Techniken, um den Kontext, die Absicht und die Bedeutung hinter den Anfragen zu extrahieren. Beim Testen von AWS Inferentia konnten sie einen 4,9-mal höheren Durchsatz als GPU-basierte Instances erzielen.

RadAI

Rad AI verwendet KI, um radiologische Workflows zu automatisieren und die radiologische Berichterstattung zu optimieren. Mit den neuen Amazon-EC2-P4d-Instances sieht Rad AI schnellere Inferenz und die Möglichkeit, Modelle 2,4 x schneller und mit höherer Genauigkeit zu trainieren.

Der nächste Schritt mit AWS