Erste Schritte mit Amazon AI Services

Künstliche Intelligenz (AI) ist der Bereich der Informatik, der sich mit dem Erwerb kognitiver Fähigkeiten beschäftigt, die in der Regel menschlicher Intelligenz zugeordnet werden. Hierzu zählen Lernen, Problemlösung und Mustererkennung. Künstliche Intelligenz, zu Englisch "Artificial Intelligence" und oft mit "AI" abgekürzt, wird häufig mit Robotern oder futuristischen Szenen in Verbindung gebracht. Jedoch geht AI weit über die Automaten der Science Fiction hinaus und bereichert sehr wohl auch die Nicht-Fiktion der modernen Informatik. Professor Pedro Domingos, ein bekannter Forscher auf diesem Gebiet, profiliert "fünf Stämme" des maschinellen Lernens: den der Logik und Philosophie verhafteten Symbolismus, den aus den Neurowissenschaften entstammenden Konnektionismus, den der Evolutionsbiologie nahen Evolutionismus, den mit Statistiken und Wahrscheinlichkeiten arbeitenden Bayesianismus und den der Psychologie angelehnten Analogismus. Neue, effizientere Methoden der statistischen Berechnung haben Bayesianern in den letzten Jahren Fortschritte in verschiedenen Bereichen beschert, die unter der Bezeichnung "maschinelles Lernen" zusammengefasst werden. Ähnlich haben Fortschritte im Netzwerkcomputing auf dem Gebiet des Konnektionismus zu einer Weiterentwicklung in einer Teildomäne unter dem Namen "Deep Learning" geführt. Maschinelles Lernen (ML) und Deep Learning (DL) sind beides Bereiche der Informatik, die der Disziplin der künstlichen Intelligenz verbunden sind.

Im Allgemeinen unterteilen sich diese Techniken in "überwachte" und "nicht überwachte" Techniken, wobei bei den überwachten Techniken auch Trainingsdaten mit der gewünschten Ausgabe verwendet werden, bei den nicht überwachten Techniken die gewünschte Ausgabe hingegen fehlt.

AI wird intelligenter und lernt schneller, je mehr Daten zur Verfügung stehen. Der Treibstoff aber, der maschinelle und Deep Learning-Lösungen befeuert, wird tagtäglich durch Unternehmen generiert, ob die Daten nun aus Data Warehouses wie Amazon Redshift extrahiert oder mit Mechanical Turk durch die "Macht der Masse" statistisch auf Herz und Nieren geprüft oder dynamisch mittels Data Mining durch Kinesis Streams abgeschöpft werden. Durch die Schaffung des Internet of Things (IoT) trägt schließlich auch die Sensortechnologie exponentiell zur Menge der analysierten Daten bei – Daten, die nun aus bislang nahezu unberührten Quellen, Orten, Objekten und Ereignissen nur so sprudeln.


"Maschinelles Lernen" bezeichnet im Allgemeinen eine Reihe Bayesianischer Techniken der Mustererkennung und Mustererlernung. Im Kern besteht maschinelles Lernen aus einer Sammlung von Algorithmen, die aus aufgezeichneten Daten lernen und Voraussagen treffen, eine bestimmte Dienstprogrammfunktion, deren Bedingungen noch ungewiss sind, optimieren, aus Daten verborgene Strukturen extrahieren und Daten in präzise Beschreibungen klassifizieren. Maschinelles Lernen wird häufig eingesetzt, wenn eine explizite Programmierung zu starr oder unpraktisch ist. Im Gegensatz zu normalem Computercode, mit dem Softwareentwickler beabsichtigen, eine programmcode-spezifische Ausgabe auf Basis einer bestimmten Eingabe zu generieren, verwendet maschinelles Lernen Daten zur Generierung statistischen Codes (ein ML-Modell), der das "richtige Ergebnis" anhand des Musters zurückgibt, das aus vorherigen Eingabebeispielen (und im Falle überwachter Techniken auch aus der Ausgabe) erkannt wurde. Die Genauigkeit eines ML-Modells ergibt sich in erster Linie aus der Qualität und Quantität der historischen Daten.

Mit den richtigen Daten kann ein ML-Modell hochdimensionale Probleme mit Milliarden an Beispielen analysieren und die optimale Funktion finden, die eine Ausgabe zu einer bestimmten Eingabe präzise prognostiziert. In der Regel können ML-Modelle zu ihren Prognosen wie auch zur Gesamtperformance eine statistische Konfidenz bereitstellen. Evaluierungsscores dieser Art sind wichtig, um entscheiden zu können, ob ein ML-Modell oder eine Einzelprognose verwendet werden soll.

Amazon.com stützt einen großen Teil seines Geschäfts auf ML-basierte Systeme. Ohne ML könnte Amazon.com weder sein Geschäft erweitern, noch das persönliche Erlebnis für seine Kunden bzw. seine eigene Kundensondierung verbessern, noch seine logistische Geschwindigkeit und Qualität optimieren. Mit AWS möchte Amazon.com andere Unternehmen an der gleichen IT-Infrastruktur – und deren Agilität und Kostenvorteilen – teilhaben lassen, und es setzt diesen Prozess nun fort, indem es ML-Technologien demokratisch in die Hände eines jeden Geschäfts legt.

Die Struktur des Amazon.com-Entwicklungsteams wie auch der Fokus auf ML zur Lösung knackiger pragmatischer Geschäftsprobleme sind Amazon.com und AWS ein Katalysator, einfach zu verwendende und leistungsstarke MT-Tools und -Services zu entwickeln. Diese Tools werden – wie andere IT-Services auch – zunächst an den eigenen Big Data der unternehmenskritischen Umgebung von Amazon.com getestet, bevor sie als AWS-Services für die Kunden freigegeben werden.

Maschinelles Lernen wird häufig zur Voraussage künftiger Ergebnisse auf Basis historischer Daten eingesetzt. Organisationen verwenden maschinelles Lernen beispielsweise zur Prognostizierung der Absatzzahlen ihrer Produkte in kommenden Geschäftsquartalen auf Basis einer bestimmten demografischen Gruppe. Oder sie schätzen damit, welche Kundenprofile am wahrscheinlichsten mit den eigenen Leistungen unzufrieden werden oder umgekehrt, der eigenen Marke am treuesten verbunden bleiben. Solche Prognosen ermöglichen bessere Geschäftsentscheidungen wie auch persönlichere Kundenerfahrungen und sind damit ein großes Potenzial für die Reduzierung der Kundenbindungskosten. Komplementär zur Business Intelligence (BI), die sich auf vergangene Geschäftsdaten bezieht, prognostiziert ML künftige Ergebnisse auf Basis vergangener Trends und Transaktionen.

Zur erfolgreichen Implementierung einer ML-Lösung in einem Unternehmen tragen verschiedene Komponenten bei. Zunächst muss das Problem korrekt erkannt werden – also die Prognose, aus der das Geschäft den größten Nutzen ziehen würde, wenn sie wie prognostiziert eintrifft. Danach müssen die Daten auf Basis historischer Geschäftszahlen erfasst werden (Transaktionen, Verkäufe, Kundenabwanderung usw.). Erst auf Basis dieser Daten kann ein ML-Modell entwickelt werden. Das ML-Modell wird dann ausgeführt und die Prognoseausgabe des Modells wird zurück in das Geschäftssystem eingespeist, sodass informiertere Entscheidungen möglich sind.

Implementierung von ML in Ihrem Unternehmen

Implementierung des maschinellen Lernens in Ihrem Unternehmen 

Erkennung von Produkten, Ereignissen oder Beobachtungen, die nicht zu einem erwarteten Muster bzw. anderen Elementen eines Datensatzes passen.

Entwicklung von Prognosemodellen, die bei der Erkennung potenziell betrügerischer Verkaufstransaktionen oder schädigender Produktbewertungen helfen.

Erkennung von Kunden, bei denen ein hohes Abwanderungsrisiko besteht, das proaktive Maßnahmen zur Stärkung der Kundenbindung zum Beispiel in Form von Sonderangeboten oder Kundendienst-Follow-ups erfordert. 

Bereitstellung eines optimal personalisierten Kundenerlebnisses mithilfe von prädiktiven Analysemodellen, die Produkte vorschlagen oder die Website-Ausgabe auf Basis vorheriger Kundenaktionen optimieren. 


Deep Learning ist ein Teilbereich des maschinellen Lernens, bei dem Algorithmen in Zwischenlagen geschichtet werden, um die Daten noch besser analysieren und verstehen zu können. Mit diesen Algorithmen wird nicht nur ein erklärbarer Satz an Beziehungen generiert, wie dies bei einer grundlegenderen Art der Regression der Fall wäre. Vielmehr erzeugt Deep Learning anhand dieser Lagen nicht linearer Algorithmen verteilte Repräsentanzen, die auf Grundlage verschiedener Faktoren miteinander interagieren.  Bei großen Mengen an Trainingsdaten beginnen die Algorithmen des Deep Learning Beziehungen zwischen den einzelnen Elementen zu erkennen. Dabei können sich diese Beziehungen auf die verschiedensten Merkmale begründen, seien es Formen, Farben, Wörter oder auch andere Eigenschaften. Ausgehend von den erkannten Beziehungen kann das System Prognosen treffen. Innerhalb der Domäne des maschinellen Lernens und der künstlichen Intelligenz begründet sich die Stärke des Deep Learning aus der Fähigkeit des Systems, weitaus mehr Beziehungen erkennen zu können, als der Mensch in der Lage wäre, in einer Software zu codieren, oft auch, weil diese Beziehungen für das menschliche Gehirn gar nicht wahrnehmbar sind. Nach einer ausreichenden Konditionierung durch Training kann dieses Netz der Algorithmen auch äußerst komplexe Daten interpretieren und daraus Prognosen treffen.

Konvolutional neuronale Netze sind bei vielen visionellen Aufgaben, so auch bei der Objektklassifizierung, weitaus leistungsfähiger als das menschliche Gehirn. Wenn das Algorithmussystem des Deep Learning die Gelegenheit hatte, sich an Millionen bezeichneter Bilder zu konditionieren, beginnt es schließlich, das Motiv eines Bildes von sich aus zu erkennen. Es verwundert daher nicht, dass sich viele Fotospeicherservices der durch Deep Learning gesteuerten Gesichtserkennung bedienen. Auch in Amazon Rekognition, Amazon Prime Photos und dem Firefly Service von Amazon ist dieses Feature ein Kernstück.

Amazon Alexa und andere virtuelle Assistenten sind darauf konzipiert, eine Anforderung zu erkennen und korrekt zu beantworten. Obgleich Menschen schon in frühester Kindheit Sprache verstehen können, ist das Verstehen und Beantworten menschlicher Sprache für Computer ein noch recht junges Feld. Gerade die verschiedenen Akzente und Sprachmuster der menschlichen Sprache sind für eine Maschine nur schwer verständlich, sodass hierfür ein sehr viel größerer mathematischer und informatischer Aufwand erforderlich ist als für herkömmliche Rechenaufgabe. Dank Deep Learning gelingt es dem System der Algorithmen immer besser, Sprache zu erkennen und deren Aussage zu interpretieren. 

Das Gebiet der natürlichen Sprachverarbeitung versucht das System zu lehren, menschliche Sprache, auch unter Berücksichtigung von Tonfall und Kontext, zu verstehen. So beginnt das Algorithmussystem auch komplexe Konzepte wie Emotion und Sarkasmus immer korrekter zu interpretieren. Dieses Gebiet der Informatik ist ein Wachstumsfaktor, da Unternehmen mehr und mehr versuchen, ihre Kundendienste durch Spracherkennung und Textroboter zu automatisieren, wie diese bereits in Amazon Lex eingesetzt werden.

Online-Shopping bietet häufig personalisierte Inhaltsempfehlungen zu Produkten, Filmen oder Nachrichten, die den Benutzer interessieren könnten. In den Kinderschuhen des Online-Shoppings wurden diese Systeme durch Menschen aus Fleisch und Blut gespeist, die Artikel miteinander verknüpften. Seit der Einführung von Big Data und Deep Learning sind für diese Aufgaben keine Menschen mehr erforderlich. Heute identifizieren Algorithmen die Produkte, die Sie interessieren könnten, durch Analyse Ihrer vergangenen Käufe oder Produktsuchen und Vergleich dieser Informationen mit den Käufen anderer Benutzer.

>> Informationen zu MXnet, ein Open-Source-Framework zu Deep Learning mit ersten Schritten.

 

Erste Schritte mit Amazon AI Services