AWS Deep Learning-AMIs

Erstellen Sie schnell skalierbare, sichere Deep-Learning-Anwendungen in vorkonfigurierten Umgebungen.

Skalieren Sie verteiltes ML-Training auf Tausende von beschleunigten Instances und stellen Sie Modelle nahtlos für Inferenz in der Produktion bereit.

Entwickeln Sie Ihre App mit Beschleunigern – darunter AWS Trainium, AWS Inferentia und NVIDIA-GPUs – mit den neuesten Treibern, Frameworks, Bibliotheken und Tools.

Minimieren Sie Risiken mit angepassten, stabilen Rechner-Images, die regelmäßig gepatcht werden, um Sicherheitslücken zu schließen.

Funktionsweise

AWS Deep Learning AMIs (DLAMI) bietet ML-Anwendern und -Forschern ein kuratiertes und sicheres Set von Frameworks, Abhängigkeiten und Tools zur Beschleunigung von Deep Learning in der Cloud. Die AMIs, die für Amazon Linux und Ubuntu, Amazon Machine Images (AMIs) entwickelt wurden, sind mit TensorFlow, PyTorch, Apache MXNet, Chainer, Microsoft Cognitive Toolkit (CNTK), Gluon, Horovod und Keras vorkonfiguriert, so dass Sie diese Frameworks und Tools schnell implementieren und ausführen können.

Diagramm, das zeigt, wie DLAMI über die AWS-Managementkonsole, die AWS-Befehlszeilenschnittstelle (CLI), das AWS SDK, die AWS API oder Ihr lokales Terminal oder Anwendungsskripte gestartet werden kann

Anwendungsfälle

Entwicklung von autonomen Fahrzeugen

Entwickeln Sie fortschrittliche ML-Modelle in großem Maßstab, um die Technologie für autonome Fahrzeuge (AV – autonomous vehicle) sicher zu entwickeln, indem Sie die Modelle mit Millionen von unterstützten virtuellen Tests validieren.

Natürliche Sprachverarbeitung

Beschleunigen Sie die Installation und Konfiguration von AWS-Instances und beschleunigen Sie Experimente und Bewertungen mit aktuellen Frameworks und Bibliotheken, einschließlich Hugging-Face-Transformers.

Datenanalyse im Gesundheitswesen

Nutzen Sie fortschrittliche Analyse-, ML- und Deep-Learning-Fähigkeiten, um Trends zu erkennen und Vorhersagen aus rohen, heterogenen Gesundheitsdaten zu treffen.

Beschleunigen Sie das Modelltraining

DLAMI enthält die neueste NVIDIA-GPU-Beschleunigung durch vorkonfigurierte Treiber, die Intel Math Kernel Library (MKL), Python-Pakete und die Anaconda-Plattform.

Erfolgsgeschichten von Kunden

Bazaarvoice

Cimpress investiert langfristig in kundenorientierte, unternehmerische Unternehmen im Bereich der kundenspezifischen Massenfertigung von Druckmaschinen und baut diese auf. Cimpress macht es für Kunden einfach und erschwinglich, Eindruck zu hinterlassen – für ihre Kunden, Organisationen oder nahestehende Menschen. Ganz gleich, ob es sich um Werbematerial zur Stärkung der Marke eines Unternehmens oder um eine Ankündigung zur Feier einer Geburt handelt – Cimpress kombiniert die individuelle Personalisierung, die sich die Kunden wünschen, mit der spürbaren Wirkung physischer Produkte.

„Cimpress verwendet AWS-Deep-Learning-AMIs, um unsere Machine-Learning-Umgebungen schnell einzurichten und bereitzustellen. Die DLAMIs reduzieren unseren Betriebsaufwand und wir können unsere Produkte schneller auf den Markt bringen, indem wir uns auf die Kernarbeit konzentrieren, das Training und den Einsatz unserer Deep-Learning-Modelle für Computer Vision und generative KI.“

Ajay Joshi, Principal Software Engineer – Cimpress

Bazaarvoice

Flip AI ist die erste GenAI-native Plattform für Beobachtbarkeit, die daten- und plattformunabhängig ist, alle Modalitäten der Beobachtbarkeit versteht – einschließlich Metriken, Ereignissen, Protokollen und Traces – und in Sekundenschnelle Vorhersage- und Ursachenanalysen für Vorfälle erstellt.

„Bei Flip AI haben wir unsere eigenen LLMs für DevOps trainiert, um Produktionsvorfälle zu debuggen und Unternehmen dabei zu helfen, ein Höchstmaß an Kundenzufriedenheit zu erreichen. Dieses Training erfordert eine leistungsstarke Einrichtung, die sich leicht anpassen lässt. Mit DLAMI müssen wir uns nicht mit CUDA-Treibern oder Pytorch-bezogenen Optimierungen herumschlagen. Es funktioniert einfach. Die Verbesserung der prozentualen GPU-Auslastung bedeutet, dass wir unsere Modelle effizienter trainieren und bei der Inferenz 10 Millisekunden einsparen können.“

Sunil Mallya, CTO – Flip AI

Erste Schritte

Sehen Sie, wie Sie Ihr Modelltraining beschleunigen können

Erfahren Sie, wie DLAMI Ihre Entwicklung und Modelltraining beschleunigen kann.

AMIs erkunden

Wählen Sie die richtige AMI und den Instance-Typ für Ihr Projekt aus.

Praktisches Training erkunden

Beginnen Sie den Aufbau mit 10-minütigen Tutorials.


Mehr von AWS erkunden