Apache MXNet in AWS

Entwickeln Sie schnell lernende Anwendungen für maschinelles Lernen, die überall ausgeführt werden können

Apache MXNet ist ein schnelles und skalierbares Lern- und Interferenz-Framework mit einer kompakten und bedienerfreundlichen API für maschinelles Lernen.

MXNet beinhaltet die Gluon-Schnittstelle, mit der Entwicklern aller Erfahrungsstufen der Einstieg in Deep Learning in der Cloud, auf Edge-Geräten und in mobilen Anwendungen problemlos gelingt. Mit nur wenigen Gluon-Codezeilen können Sie Funktionen wie lineare Regression, konvolutionale Netzwerke und wiederkehrende LSTMs für die Objekt- und Spracherkennung, Empfehlungen und Personalisierung entwickeln.

Für den Einstieg bei AWS können Sie mit Amazon SageMaker von einer vollständig verwalteten MXNet-Erfahrung profitieren. Dabei handelt es sich um eine Plattform, mit der Modelle für maschinelles Lernen in verschiedenen Dimensionen erstellt, trainiert und bereitgestellt werden können. Sie können die AWS Deep Learning AMIs verwenden, um benutzerdefinierte Umgebungen und Arbeitsabläufe für die Verwendung von TensorFlow und anderer gängiger Deep Learning Frameworks, wie TensorFlow, Caffe, Caffe2, Chainer, PyTorch, Keras und das Microsoft Cognitive Toolkit, zu erstellen.

Leisten Sie einen Beitrag zum Apache MXNet-Projekt

Auf der GitHub-Projektseite können Sie Beispielcode, Notizen und Lerninhalte beziehen.

social-media-github

Vorteile von Deep Learning auf MXNet

Bedienerfreundlichkeit von Gluon

Die Gluon-Bibliothek von MXNet ist eine übersichtliche und bedienerfreundliche Schnittstelle für das Prototyping, das Training und die Bereitstellung von Deep Learning-Modellen ohne Geschwindigkeitsverlusten beim Training. Gluon bietet ein hohes Abstraktionsniveau für vordefinierte Ebenen, Verlustfunktionen und Optimierer. Es bietet darüber hinaus eine flexible Struktur, die intuitiv zu erlernen und einfach zu debuggen ist.

Größere Leistung

Deep Learning-Workloads können bei nahezu linearer Skalierbarkeit auf mehrere GPUs verteilt werden. So können auch extrem große Projekte in weniger Zeit verarbeitet werden. Je nach Anzahl der GPUs in einem Cluster erfolgt die Skalierung darüber hinaus automatisch. Durch serverloses und stapelbasiertes Interferencing sparen sich Entwickler noch mehr Zeit und erhöhen die Produktivität.

Für IoT und Edge

Neben Training mit mehreren GPUs und der Implementierung komplexer Modelle in der Cloud generiert MXNet auch neuronale Lightweight-Netzwerkmodelldarstellungen, die auf Edge-Geräten mit geringerer Leistung wie einem Raspberry Pi, Smartphone oder Laptop ausgeführt werden können und Daten remote in Echtzeit verarbeiten.

Flexibilität und große Auswahl

MXNet unterstützt eine große Auswahl an Programmiersprachen wie C++, JavaScript, Python, R, Matlab, Julia, Scala und Go. Für den Einstieg müssen Sie daher keine für Sie neue Sprache erlernen. Auf dem Back-End dagegen ist sämtlicher Code, unabhängig von der Sprache, in der die Modelle entwickelt wurden, in C++ kompiliert. Dadurch wird größte Leistung erreicht.

Kundenakzeptanz

Fallbeispiele

Am MXNet-Projekt sind mehr als 400 Mitwirkende beteiligt, darunter auch Entwickler von Amazon, Apple, Samsung und Microsoft. Weitere Informationen zu Deep Learning-Projekten der MXNet-Community.

Amazon SageMaker für maschinelles Lernen

Weitere Informationen über Amazon SageMaker

Amazon SageMaker ist ein vollständig verwalteter Service, der es Entwicklern und Datenwissenschaftlern ermöglicht, schnell und einfach Machine Learning-Modelle jeder Größenordnung zu erstellen, zu trainieren und zu implementieren. Amazon SageMaker beseitigt alle Hindernisse, die Entwickler normalerweise beim Einsatz des maschinellen Lernens behindern.

Sind noch Fragen offen?
Kontakt