AWS Deep Learning-AMIs

Erstellen Sie schnell skalierbare, sichere Deep-Learning-Anwendungen in vorkonfigurierten Umgebungen.

Skalieren Sie verteiltes Machine Learning (ML)-Training auf Tausende von beschleunigten Instances und stellen Sie Modelle nahtlos für die Produktion bereit.

Entwickeln Sie auf Beschleunigern – einschließlich AWS Custom Silicon und Intel Habana – mit den neuesten Treibern, Frameworks, Bibliotheken und Tools.

Minimieren Sie Risiken mit angepassten, stabilen Rechner-Images, die regelmäßig gepatcht werden, um Sicherheitslücken zu schließen.

Funktionsweise

AWS Deep Learning AMIs (DLAMI) bietet ML-Anwendern und -Forschern ein kuratiertes und sicheres Set von Frameworks, Abhängigkeiten und Tools zur Beschleunigung von Deep Learning in der Cloud. Die AMIs, die für Amazon Linux und Ubuntu, Amazon Machine Images (AMIs) entwickelt wurden, sind mit TensorFlow, PyTorch, Apache MXNet, Chainer, Microsoft Cognitive Toolkit (CNTK), Gluon, Horovod und Keras vorkonfiguriert, so dass Sie diese Frameworks und Tools schnell implementieren und ausführen können.

Diagramm, das zeigt, wie DLAMI über die AWS-Managementkonsole, die AWS-Befehlszeilenschnittstelle (CLI), das AWS SDK, die AWS API oder Ihr lokales Terminal oder Anwendungsskripte gestartet werden kann

Anwendungsfälle

Entwicklung von autonomen Fahrzeugen

Entwickeln Sie fortschrittliche ML-Modelle in großem Maßstab, um die Technologie für autonome Fahrzeuge (AV – autonomous vehicle) sicher zu entwickeln, indem Sie die Modelle mit Millionen von unterstützten virtuellen Tests validieren.

Natürliche Sprachverarbeitung

Beschleunigen Sie die Installation und Konfiguration von AWS-Instances und beschleunigen Sie Experimente und Bewertungen mit aktuellen Frameworks und Bibliotheken, einschließlich Hugging-Face-Transformers.

Datenanalyse im Gesundheitswesen

Nutzen Sie fortschrittliche Analyse-, ML- und Deep-Learning-Fähigkeiten, um Trends zu erkennen und Vorhersagen aus rohen, heterogenen Gesundheitsdaten zu treffen.

Beschleunigen Sie das Modelltraining

DLAMI enthält die neueste NVIDIA-GPU-Beschleunigung durch vorkonfigurierte Treiber, die Intel Math Kernel Library (MKL), Python-Pakete und die Anaconda-Plattform.

Erfolgsgeschichten von Kunden

Bazaarvoice

Cimpress investiert langfristig in kundenorientierte, unternehmerische Unternehmen im Bereich der kundenspezifischen Massenfertigung von Druckmaschinen und baut diese auf. Cimpress macht es für Kunden einfach und erschwinglich, Eindruck zu hinterlassen – für ihre Kunden, Organisationen oder nahestehende Menschen. Ganz gleich, ob es sich um Werbematerial zur Stärkung der Marke eines Unternehmens oder um eine Ankündigung zur Feier einer Geburt handelt – Cimpress kombiniert die individuelle Personalisierung, die sich die Kunden wünschen, mit der spürbaren Wirkung physischer Produkte.

„Cimpress verwendet AWS-Deep-Learning-AMIs, um unsere Machine-Learning-Umgebungen schnell einzurichten und bereitzustellen. Die DLAMIs reduzieren unseren Betriebsaufwand und wir können unsere Produkte schneller auf den Markt bringen, indem wir uns auf die Kernarbeit konzentrieren, das Training und den Einsatz unserer Deep-Learning-Modelle für Computer Vision und generative KI.“

Ajay Joshi, Principal Software Engineer – Cimpress

Erste Schritte

Sehen Sie, wie Sie Ihr Modelltraining beschleunigen können

Erfahren Sie, wie DLAMI Ihre Entwicklung und Modelltraining beschleunigen kann.

AMIs erkunden

Wählen Sie die richtige AMI und den Instance-Typ für Ihr Projekt aus.

Praktisches Training erkunden

Beginnen Sie den Aufbau mit 10-minütigen Tutorials.


Mehr von AWS erkunden