60+
Asien-Pazifik und Japan
Entdecken Sie neue Möglichkeiten mit Big Data und Machine Learning
Heute nutzen viele Unternehmen KI/ML, um einen höheren Geschäftswert zu erzielen — von der Steigerung der Produktivität, der Verbesserung des Kundenerlebnisses, der schnelleren Entscheidungsfindung bis hin zur Generierung neuer Umsatzmöglichkeiten und der Verbesserung der betrieblichen Effizienz.
Nehmen Sie an AWS Innovate – Data and AI/ML Edition teil und erfahren Sie, wie Sie das Potenzial von KI/ML nutzen können, um mehr für Ihr Unternehmen zu erreichen. Auf dieser kostenlosen Online-Konferenz erfahren Sie die neuesten Informationen von AWS-Experten und erhalten eine schrittweise Anleitung zur Verwendung von KI/ML, um schnelle, effiziente und messbare Ergebnisse zu erzielen.
Agenda (Asien-Pazifik und Japan)
Bringen Sie Ihre KI/ML-Fähigkeiten noch heute auf den nächsten Level! Holen Sie sich praktische und schrittweise Best Practices für Architektur und Bereitstellung, die Ihnen dabei helfen, besser zu bauen, Innovationen schneller zu entwickeln und nach Maß bereitzustellen. Egal, ob Sie gerade erst mit KI/ML anfangen, ein fortgeschrittener Benutzer sind oder einfach nur neugierig sind, was KI/ML ist, wir haben einen spezifischen Kurs für Ihren Kenntnisstand und Ihre berufliche Rolle.
Sessions
-
Eröffnungsvortrag
-
Datengesteuerte Organisationen von morgen
-
Umdenken möglich: Beschleunigen von KI- und ML-Innovationen
-
Anwendungsfall-Lösungen für KI/ML Track 1
-
Anwendungsfall-Lösungen für KI/ML Track 2
-
Schnelles Erstellen, Trainieren und Bereitstellen von ML-Modellen Track 1
-
Schnelles Erstellen, Trainieren und Bereitstellen von ML-Modellen Track 2
-
Dateninfrastruktur für ML-Workloads
-
ML für Entwickler und Builder
-
Entwicklerzone
-
Abschluss
-
Eröffnungsvortrag
-
Eröffnungsvortrag
Schneller innovieren: Erfinden Sie Ihr Unternehmen mit Daten und Machine Learning neu (Level 100)
Daten stehen im Mittelpunkt jeder Anwendung, jedes Prozesses und jeder Geschäftsentscheidung und bilden die Grundlage für eine höhere Wertschöpfung. Unternehmen, denen es gelingt, Erkenntnisse aus ihren Daten zu gewinnen, sind in der Lage, genaue Prognosen zu liefern, den betrieblichen Aufwand zu reduzieren, überzeugendere Kundenerlebnisse zu entwickeln und neue Möglichkeiten zu entdecken. In dieser Session erfahren Sie, wie Technologien wie Machine Learning und Analytik Möglichkeiten eröffnen können, die zuvor entweder zu schwierig oder unmöglich waren. So können Unternehmen mit datengesteuerten Erkenntnissen Geschäftsherausforderungen lösen, Innovationen beschleunigen und der Konkurrenz immer einen Schritt voraus sein.
Redner:
Dean Samuels, Chief Technologist, ASEAN, AWS
Kris Howard, Head of Developer Relations, APJ, AWS
Daten: Der Ursprung von Erfindungen
Seien Sie dabei, wenn Swami Sivasubramanian, Vice President, Data and Machine Learning, AWS, die neuesten AWS-Innovationen vorstellt, mit denen Sie die Daten Ihres Unternehmens in aussagekräftige Erkenntnisse und Maßnahmen für Ihr Unternehmen umwandeln können. In diesem Eröffnungsvortrag spricht er über die Schlüsselkomponenten einer zukunftssicheren Datenstrategie und darüber, wie Sie Ihr Unternehmen in die Lage versetzen können, mit Hilfe von Daten neue Erfindungen und Kundenerlebnisse zu schaffen.Redner: Swami Sivasubramanian, Vice President, Data and Machine Learning, AWS
-
Datengesteuerte Organisationen von morgen
-
Datengesteuerte Organisationen von morgen
Über den Kurs
Lassen Sie sich inspirieren und erfahren Sie, wie Unternehmen AWS nutzen, um geschäftliche Herausforderungen zu lösen, die Geschäftsleistung zu optimieren und Innovationen schneller umzusetzen. Nutzen Sie Ihre Daten als strategische Ressource und erfinden Sie Ihr Unternehmen noch heute mit Daten und KI/ML neu.
Datengesteuertes Unternehmen: Von der Vision zum Mehrwert (Level 100)
Unternehmen wollen einen höheren Mehrwert aus ihren Daten ziehen, um die Agilität zu erhöhen, die Effizienz zu verbessern und Innovationen zu beschleunigen. Zwar sind Daten im Überfluss vorhanden und wachsen schnell, aber nur weil viele Daten produziert oder gespeichert werden, entsteht nicht automatisch ein Mehrwert. Der Mehrwert entsteht durch die Schaffung einer Kultur und eines Betriebsmodells, die die Daten nutzen, um im Namen der Kunden und mithilfe von umgesetzten Erkenntnissen, Analysen und KI/ML neue Ideen zu entwickeln. Kulturelle Herausforderungen, veraltete Governance-Modelle, Unternehmenssilos und veraltete Ansätze bei der Umsetzung stehen der Verwirklichung dieser Vision jedoch im Weg. Nehmen Sie an diesem Vortrag teil, um von zwei ehemaligen CXOs zu erfahren, wie sie an der Schaffung einer datengesteuerten Kultur gearbeitet und die Herausforderungen gemeistert haben, um ihre Vision in die Realität umzusetzen.
Redner: John Clark, Enterprise Strategist, AWS
Dauer: 30 Min.
Aufbau einer intelligenteren Organisation, die auf Daten und Machine Learning basiert (Level 100)
Viele Unternehmen wissen, dass sie KI/ML benötigen, um einen einzigartigen Wettbewerbsvorteil zu erzielen, eine bessere Kundenbindung zu erreichen und die gewünschten Geschäftsergebnisse zu erzielen. Während einige von den transformativen Auswirkungen von KI/ML profitieren, wissen andere noch nicht, wo sie anfangen sollen. In diesem Vortrag erfahren Sie, wie Sie KI/ML anwenden und Ihre digitale Transformation Wirklichkeit werden lassen können. Wir präsentieren den Datennetzwerkeffekt und die Bereiche, die erfolgreiche Unternehmen beherrschen, um mithilfe von Machine Learning einen größeren Nutzen aus den Daten zu ziehen und ihre Vision Wirklichkeit werden zu lassen.
Redner: Tom Godden, Enterprise Strategist, AWS
Dauer: 30 Min.
Förderung der Nachhaltigkeit mit KI und Daten in der Climate Pledge Arena von Amazon (Level 100)
Amazon ist der weltweit größte Abnehmer erneuerbarer Energien und muss sicherstellen, dass Nachhaltigkeit im Mittelpunkt all seiner Aktivitäten steht, damit er seine CO2-Emissionsziele erreicht. Ein Bereich, an dem das Unternehmen arbeitet, ist die Zusammenarbeit mit Seattle Kraken, um Lösungen zu entwickeln und dazu beizutragen, dass die Climate Pledge Arena zur fortschrittlichsten, verantwortungsvollsten und nachhaltigsten der Welt wird. Nehmen Sie an diesem Vortrag teil, wenn Sie erfahren möchten, wie die AWS Professional Services und die Nachhaltigkeitsteams von Amazon AWS-Services nutzen, um Energie-, Wasser- und Luftqualitätsdaten zu erfassen und zu analysieren. Erfahren Sie, wie sie Prognosemodelle in Echtzeit erstellen, bei denen Datenermittlung, Sicherheit und Entwurfsmuster im Mittelpunkt stehen.
Redner:
Rahul Sareen, Global Practice Manager, Sustainability, AWS
Rob Johnson, VP Sustainability & Transportation, Climate Pledge ArenaDauer: 30 Min.
-
Umdenken möglich: Beschleunigen von KI- und ML-Innovationen
-
Umdenken möglich: Beschleunigen von KI- und ML-Innovationen
Über den Kurs
Erfahren Sie, wie KI- und ML-Services bei Anwendungen angewendet und in realen Anwendungsfällen in verschiedenen Branchen und Organisationen eingesetzt werden.
Erste Schritte auf Ihrer ML-Reise: Die Perspektive einer Führungskraft (Level 100)
KI und ML versprechen, Branchen zu transformieren, die Effizienz zu steigern und Innovationen voranzutreiben. Der Schlüssel zum Erfolg liegt bei Machine Learning in der Skalierung. In diesem Vortrag wird erläutert, wie Führungskräfte und Manager, die ML in großem Maßstab erfolgreich einsetzen wollen, Anleitungen erhalten, einschließlich Mechanismen zum Aufbau eines effektiven Systems zur Beschleunigung von Innovationen und zur Förderung des technologischen Fortschritts. Wir berichten, wie Kunden mit AWS zusammengearbeitet haben, um ihre Teams bei der Einführung von ML aufeinander abzustimmen und ihren Teams die richtigen technischen Fähigkeiten zum Erzielen von Geschäftsergebnissen zu vermitteln. Erfahren Sie, wie Sie starke KI/ML-Produkt- und Entwicklungsteams zusammenstellen, die auf die gemeinsamen Ziele des Unternehmens ausgerichtet sind und eine Roadmap für Innovation und Mehrwert erstellen.
Rednerin: Naomi Teng, AI/ML Specialist, APJ, AWS
Dauer: 30 Min.
Ihr Unternehmen mit KI/ML transformieren: Verschaffen Sie sich einen Wettbewerbsvorteil in Ihrem Unternehmen, indem Sie die neuesten KI/ML-Trends nutzen (Level 100)
KI/ML-Methoden stellen zunehmend wichtige Grundlagen für Unternehmen dar, die ihre Ziele anpassen und erreichen wollen. Es ist jedoch nicht einfach, KI/ML an der richtigen Stelle anzuwenden. In diesem Vortrag erfahren Sie, wie Sie praktische und bewährte Anwendungsfälle für Machine Learning anwenden können, um schnell echte geschäftliche Auswirkungen zu bewirken. Wir stellen Ihnen die KI/ML-Servicesuite von AWS zur Verfügung, mit der Sie transformative Produkte entwickeln können, ohne dass Sie Vorkenntnisse im Bereich Machine Learning benötigen. Finden Sie heraus, wie Sie auf der Grundlage vorhandener und neuer Technologien mit Ihrer eigenen KI-gestützte Transformation starten können, um neue Möglichkeiten auszuarbeiten, Wettbewerbsvorteile zu erzielen und Ergebnisse in Organisationen zu erzielen.
Redner: Nieves Gracia, AI/ML Specialist Lead, Public Sector, APJ
Dauer: 30 Min.
Machine Learning für regulierte Branchen neu konzipieren (Stufe 100)
Reproduzierbarkeit, Rückverfolgbarkeit und Erklärbarkeit sind in regulierten Branchen zu den grundlegenden Anforderungen im Machine-Learning-Lebenszyklus geworden. Es ist jedoch nicht leicht, für eine Bank oder die Regierung eine Data-Science-Plattform aufzubauen, die diesen Lebenszyklus unterstützt, da hierfür umfangreiche Fähigkeiten und Erfahrungen erforderlich sind. AWS bietet eine Reihe von Services und Lösungen, mit denen eine sichere, regulierte und konforme Umgebung für Machine Learning geschaffen wird, die keine Kompromisse bei der Agilität der Data-Science-Teams eingeht. Nehmen Sie an diesem Vortrag teil, um zu erfahren, wie Sie die Lücke zwischen dem traditionellen Machine-Learning-Lebenszyklus und den Anforderungen regulierter Branchen schließen können. Wir erklären Ihnen, wie AWS Ihnen die Lösungen, bewährten Methoden, Programme und Ressourcen bietet, die Sie beim Aufbau einer erfolgreichen Plattform für Datenwissenschaft und Machine Learning in AWS unterstützen.
Redner: Juan Bedoya, Public Sector Solutions Architect, AWS
Dauer: 30 Min.
Förderung einer multimodalen Kundenbindung im Finanzdienstleistungssektor (Level 100)
Die breite Einführung mobiler Services, neue digitale Marktteilnehmer, die Anpassung an Generationswechsel und wichtige Branchenanforderungen an die Einhaltung gesetzlicher Vorschriften erschweren es den Finanzdienstleistungsinstituten, ein personalisiertes, einheitliches und nahtloses Kundenerlebnis über verschiedene Kanäle zu bieten. In diesem Vortrag wird gezeigt, wie Sie mit KI und Machine Learning von AWS auf einfache Weise ein multimodales Kundenerlebnis aufbauen können. Erfahren Sie, wie Sie personalisierte Erlebnisse auf Mobilgeräten, im Internet und per SMS für die Kundenbindung sowohl für eingehende als auch für ausgehende Kunden schaffen, indem Sie kontextualisierte Daten nutzen und gleichzeitig über alle Kontaktpunkte hinweg ein einzige Konversation aufrechterhalten.
Vortragende:
Akash Jain, Leitung – FSI GTM Solutions Architect, APJ, AWS
Rahul Kulkarni, Senior Partner Solutions Architect, AWS IndiaDauer: 30 Min.
Kundeninteraktionen mit Marketingautomatisierung personalisieren (Level 200)
Wenn es um Kundenkommunikation geht, ist es nicht überraschend, dass die Kundenbindung am besten über Personalisierung langfristig sichergestellt wird. Kunden richten ihre Aufmerksamkeit eher auf die Inhalte, die auf ihre Bedürfnisse zugeschnitten sind. In diesem Vortrag zeigen wir, wie Sie Amazon Pinpoint Journeys verwenden können, um ein personalisiertes, mehrstufiges Kundenerlebnis auf der Grundlage von Zielgruppenattributen und -verhalten zu bieten, und wie Sie Amazon Personalize verwenden können, um sicherzustellen, dass der Kommunikationsinhalt immer für den Empfänger spezifisch und auf ihn zugeschnitten ist.
Redner: Pierre Semaan, GTM Strategy and Solutions Lead, SMB, APJ, AWS
Dauer: 30 Min.
Sichere, gut verwaltete Machine-Learning-Umgebungen in AWS einrichten (Level 100)
Es ist ganz gleich, ob Ihr Unternehmen am Anfang seiner KI/ML-Reise steht oder eine große Anzahl von Projekten in der Produktion hat – es ist immer wichtig, über sichere Umgebungen zu verfügen, die Ihre Daten schützen. In diesem Vortrag erfahren Sie, wie Sie die Bereitstellung kontrollierter ML-Umgebungen organisieren, standardisieren und beschleunigen können, indem Sie die bewährten AWS-Sicherheitsmethoden nutzen und die strengen Sicherheitsanforderungen von ML-Workloads erfüllen.
Redner: Tony Fendall, Principal Solutions Architect, AWS
Dauer: 30 Min.
Deep Learning in AWS mit NVIDIA: Vom Training bis zur Bereitstellung (Level 200)
In den letzten zehn Jahren hat NVIDIA es geschafft, die Effektivität seiner GPUs auf ganzer Linie für Deep-Learning-Trainings und -Inferenz zu demonstrieren. Da diese Modelle immer größer werden, ist es notwendig geworden, das Training auszuweiten und eine Anpassung auf die Bereitstellung solcher großer Modelle vorzunehmen. In diesem Vortrag werden wir einige NVIDIA-Softwarestacks für effizientes verteiltes Training sowie eine optimierte Bereitstellung vorstellen und uns eingehend damit befassen, wie Amazon sie für einige seiner anspruchsvollsten Workloads einsetzt.
Redner: Michael Lang, Solutions Architecture Manager, APAC South, NVIDIA
Dauer: 30 Min. -
Anwendungsfall-Lösungen für KI/ML Track 1
-
Anwendungsfall-Lösungen für KI/ML Track 1
Über den Kurs
Entdecken Sie die verschiedenen Integrationsservices für Machine Learning, die in AWS verfügbar sind, um Sie bei der Entwicklung, Bereitstellung und Innovation in großem Maßstab zu unterstützen. Wir konzentrieren uns auch darauf, wie KI-Services bei gängigen Anwendungsfällen wie personalisierten Empfehlungen angewendet werden, um Ihr Kontaktcenter mit Informationen zu versorgen und das Kundenerlebnis zu verbessern.
Mit Amazon Kendra zentrale, intelligentere Suchfunktionen aus verteilten Datenspeichern entwickeln (Level 200)
Wie können Sie bei Suchanfragen die genauesten und spezifischsten Antworten erhalten, wenn Sie für diese Antworten möglicherweise große Mengen verteilter Datenquellen durchsuchen müssen? In diesem Vortrag zeigen wir, wie Sie Amazon Kendra, eine intelligente Suchlösung, verwenden, um einfache Antworten zu erhalten. Erfahren Sie, wie Sie eine Reihe von Tools, Quellen und Produkten von Drittanbietern miteinander verbinden können, um einheitliche und intelligentere Datensuchfunktionen zu erstellen, den teamübergreifenden Wissensaustausch zu verbessern und den Vertrieb sowie den Kundensupport zu unterstützen, wodurch Sie die Informationen, die Sie benötigen, leichter erhalten.
Redner:
Sam Gordon, Senior Cloud Architect, AWS
Ed Fraga, Cloud Architect, AWSDauer: 30 Min.
Eine einheitliche Text- und Bildsuchanwendung mit Analytik und ML implementieren (Level 200)
Während Textsuchmaschinen und semantische Suchmaschinen es vielen Unternehmen ermöglicht haben, schnell nach Informationen zu suchen, können Unternehmen, die einheitliche Text- und Bildsuchmaschinen anbieten, Wettbewerbsvorteile und Umsatzquellen ermöglichen, indem sie ihren Kunden die Flexibilität geben, physische Beispiele oder Bilder zur Beschreibung der Artikel in den Suchmaschinen anzuzeigen. In diesem Vortrag wird gezeigt, wie eine ML-gestützte Suchmaschine erstellt wird, mit der Produkte auf der Grundlage von Text- oder Bildabfragen einfach abgerufen und empfohlen werden können. Erfahren Sie, wie Sie Amazon SageMaker verwenden, um das vortrainierte Contrastive Language-Image Pre-Training (CLIP)-Modell zu hosten und zu verwalten und eine visuelle Suche anhand eines Abfragebilds auszuführen. Wir zeigen Ihnen auch, wie Sie OpenSearch-Cluster und die anderen AWS-Services verwenden können, um diese End-to-End-Anwendung zu erstellen, zu betreiben und zu skalieren.
Redner: Kevin Du, Senior ML Data Lab Solutions Architect, AWS
Dauer: 30 Min.
Skalierbare Datenaufbereitung und ML mit Apache Spark in AWS (Level 200)
Die Analyse, Umwandlung und Aufbereitung großer Datenmengen ist ein grundlegender Schritt in jedem Datenwissenschafts- und ML-Workflow. In diesem Vortrag wird gezeigt, wie Sie End-to-End-Workflows für die Datenaufbereitung und Machine Learning (ML) erstellen. Wir erklären, wie Sie Apache Spark für eine schnelle Datenvorbereitung in Ihren Datenaufbereitungsumgebungen in interaktiven Amazon-EMR- und AWS-Glue-Sitzungen von Amazon SageMaker Studio verbinden. Erfahren Sie, wie Sie auf Daten zugreifen können, die von AWS Lake Formation verwaltet werden, um Daten interaktiv abzufragen, zu untersuchen, zu visualisieren, Spark-Aufträge auszuführen und zu debuggen, während Sie umfangreiche Daten für die Verwendung in ML aufbereiten.
Redner: Suman Debnath, Principal Developer Advocate, Data Engineering, AWS
Dauer: 30 Min.
Eine intelligente Dokumentenverarbeitungslösung erstellen (Level 200)
Unternehmen verfügen über Millionen physische Dokumente und Formulare, die wichtige Geschäftsdaten enthalten. Diese Dokumente, wie Versicherungsansprüche oder Kreditanträge, enthalten strukturierte und unstrukturierte Daten, die entweder von Menschen oder von regelbasierten Systemen extrahiert werden, die nicht leicht skalierbar und kostspielig sind und deren Extraktionsergebnisse eine geringe Genauigkeit haben können. In diesem Vortrag erfahren Sie, wie Sie eine intelligente End-to-End-Dokumentenverarbeitungslösung erstellen, um die bestehenden Herausforderungen bei der Dokumentenverarbeitung zu bewältigen. Dadurch können Sie strukturierte Daten extrahieren, vertrauliche Informationen bearbeiten und einen automatisierten Workflow für die Dokumentenverarbeitung in großem Umfang bereitstellen.
Redner: Abhijit Kalita, Senior AI/ML Evangelist, Public Sector Partners, AWS
Dauer: 30 Min.
Ihre Dokumentenextraktion mit Machine Learning anpassen und verbessern (Level 300)
Dokumente können verschiedene Dateitypen und unterschiedliche Formate annehmen und enthalten wertvolle Informationen. Das Extrahieren und Verarbeiten der Dokumente kann zeitaufwändig, fehleranfällig und kostspielig sein. In diesem Vortrag stellen wir Ihnen die Optionen vor, mit denen Sie auf einfache Weise mit AWS Informationen aus komplexen Inhalten in jedem Dokumentformat extrahieren können, darunter auch PDFs oder gescannte Bilder. Erfahren Sie, wie Sie diese Extraktion mit ML optimieren und anpassen können, darunter mit gängigen OCR-Fehlermustern und der Neustrukturierung von Ausgabedaten. Der Vortrag behandelt verschiedene Muster und Tools in AWS, die Ihnen in allen Phasen der Pipeline helfen, von der ersten Bildvorverarbeitung über die Prozessautomatisierung oder intelligente Suche bis hin zur Online-Überprüfung durch Mitarbeiter. Dabei werden die Komplexität Ihres Anwendungsfalls und der ML-Reifegrad in Ihrem Unternehmen berücksichtigt.
Redner: Alex Thewsey, ML Specialist Solutions Architect, AWS
Dauer: 30 Min.
Von der Genauigkeit zum Geschäftsszenario: Aufbau eines erfolgreichen PoC zur Bedarfsprognose (Level 200)
Die genaue Prognose der zukünftigen Nachfrage mit KI/ML bietet in verschiedenen Funktionen zahlreiche Vorteile, darunter eine Umsatzsteigerung, eine verbesserte Kapazitätsauslastung und ein verbesserter Lagerumsatz sowie die Verbesserung des Kundenerlebnisses. Viele stehen jedoch vor Herausforderungen, wenn es darum geht, den Wert zu rechtfertigen und Systeme zur Bedarfsprognose in der Produktion zu implementieren. In diesem Vortrag erfahren Sie Schritt für Schritt, wie Sie mithilfe von Amazon Forecast eine schnelle Prototypenerstellung für ein ML-basiertes Prognosesystem vornehmen. Wir zeigen die verschiedenen Möglichkeiten auf, den tatsächlichen Geschäftswert von Nachfrageprognosemodellen zu messen und gleichzeitig flexibles Experimentieren zu ermöglichen.
Redner: Julia Ang, Associate Solutions Architect, AWS
Dauer: 30 Min.
Prognosen zur Kaufabsicht von Kunden mit Analysen und ML vereinfachen (Level 200)
Unternehmen integrieren KI/ML-Lösungen in ihr Unternehmen, um der Konkurrenz immer einen Schritt voraus zu sein. Machine Learning kann jedoch schwierig sein und oft nicht ohne spezielle Fähigkeiten gemeistert werden. Es beginnt mit der Erfassung und Aufbereitung der Daten, gefolgt von der Erstellung und dem Training der Machine-Learning-Modelle, bevor sie bereitgestellt werden. Selbst die Wahl des richtigen Algorithmus für die Erstellung des Modells kann schwierig sein. Welchen Algorithmus oder welches Machine-Learning-Modell sollten Sie wählen? Wie können Sie zuverlässig herausfinden, welches Modell auf der Grundlage Ihres Geschäftsproblems am besten geeignet ist? Wie führe ich Hyperparameter-Tuning durch, um das Modell optimal zu nutzen? In diesem Vortrag erklären wir, wie der Machine-Learning-Lebenszyklus für die Vorhersage von Kaufabsichten mithilfe von Amazon SageMaker Autopilot und in Kombination mit AWS-Analyseservices vereinfacht werden kann.
Vortragende:
Kamal Machanda, Solutions Architect, AWS India
K V, Sureshkumar, Prototyping Architect, AWS India
Dauer: 30 Min. -
Anwendungsfall-Lösungen für KI/ML Track 2
-
Anwendungsfall-Lösungen für KI/ML Track 2
Über den Kurs
Entdecken Sie die verschiedenen Integrationsservices für Machine Learning, die in AWS verfügbar sind, um Sie bei der Entwicklung, Bereitstellung und Innovation in großem Maßstab zu unterstützen. Wir konzentrieren uns auch darauf, wie KI-Services bei gängigen Anwendungsfällen wie personalisierten Empfehlungen angewendet werden, um Ihr Kontaktcenter mit Informationen zu versorgen und das Kundenerlebnis zu verbessern.
Das Kundenerlebnis mit Analytik und ML-gestützten Kontaktcentern verbessern (Level 300)
Ihr Kontaktcenter ist der wichtigste Berührungspunkt zwischen Ihnen und Ihren Kunden, und jede Interaktion kann Ihrem Team wertvolle Einblicke bieten. In diesem Vortrag präsentieren wir die Integration von Amazon Connect mit AWS-Analyse- und ML-Services, sodass Sie die Self-Service-Konfigurationstools innerhalb weniger Tage verwenden können und nicht Monate für die Erstellung benötigen. Erfahren Sie, wie Sie mit dieser auf AWS basierenden End-to-End-Lösung für Cloud-Center wertvolle Erkenntnisse aus jeder Kundenbeziehung gewinnen können, darunter Abwanderungsprognosen in Echtzeit, damit Sie Ihr Kundenerlebnis verbessern können.
Redner:
Nelson Martinez, Senior Technical Account Manager, Productivity Apps, AWS
Melanie Li, Senior Technical Account Manager, Analytics, AWS
Partha Sarathi Sahoo, Senior Technical Account Manager, Analytics, AWSDauer: 30 Min.
Mit KI Sprachbarrieren überwinden (Level 200)
Amazon macht natürliche Sprachverarbeitung, Spracherkennung, Text-zu-Sprache und maschinelle Übersetzung jedem Entwickler zugänglich. API-gesteuerte Anwendungsservices ermöglichen es Datenwissenschaftlern und Entwicklern, vorgefertigte Funktionen für künstliche Intelligenz einfach in ihre Anwendungen zu integrieren und Workflows zu automatisieren. In diesem Vortrag erklären wir, wie wir die nächste Generation intelligenter Apps entwickeln, die die Welt um uns herum hören, sprechen und verstehen können.
Redner:
Jyoti Sharma, Prototyping Engineer, AWS India
Arun Balaji, Principal Prototyping Engineer, AWS IndiaDauer: 30 Min.
Eine Anwendung zur Qualitätsprüfung von Computer Vision mit geschlossener Feedbackschleife ausführen Regelkreis (Level 200)
Die Erkennung von Fehlern und Anomalien bei der Qualitätsprüfung ist ein wichtiger Schritt dabei, die Qualität der Produkte sicherzustellen, da die spätere Erkennung von Fehlern oder Defekten und das Ergreifen geeigneter Maßnahmen häufig mit erheblichen Betriebs- und Qualitätskosten verbunden sind. Darüber hinaus sind manuelle Feedbackschleifen oft subjektiv, zeitaufwändig und schwer zu skalieren, was zu Produktionsengpässen führt und die Markteinführungszeit verlängert. In diesem Vortrag erfahren Sie, wie Sie eine robuste, effektive und skalierbare Qualitätsprüfung mit geschlossenem Kreislauf am Edge aufbauen, mithilfe der schnellen Feedbackschleife objektive Entscheidungen treffen und qualitätsbezogene Kosten senken können.
Redner: Derrick Choo, Solutions Architect, AWS
Intelligente Medienanalyse mit Machine Learning (Level 200)
Medienressourcen, wie Audio und Video, können verwendet werden, um die Auffindbarkeit zu erhöhen und die Bindung und Zufriedenheit der Nutzer zu steigern. Die Verwaltung, Analyse und Überwachung von Medieninhalten ist jedoch sowohl komplex als auch teuer. In diesem Vortrag wird gezeigt, wie Sie die KI-AWS-Services und Amazon SageMaker für eine bessere Suche und Entdeckung von Inhalten nutzen, die Barrierefreiheit durch Untertitelung und Lokalisierung verbessern und neue Inhalte monetarisieren können. Wir zeigen auch, wie Sie vollständig verwaltete APIs für Bild-, Video-, Text- und Sprachmoderation sowie automatisiertes Machine Learning verwenden können, um die Einhaltung von Vorschriften und die Markensicherheit für Sie und Ihre Kunden zu verbessern.
Redner:
Sakthi Srinivasan, Engagement Manager, Prototyping, AWS India
Arun Balaji, Principal Prototyping Engineer, AWS IndiaDauer: 30 Min.
Ein End-to-End-System zur Erkennung von Kreditkartenbetrug erstellen (Level 300)
Auf dem Weg zu einer bargeldlosen Gesellschaft wird es immer wichtiger, betrügerische Kartentransaktionen präzise und schnell zu erkennen, da Fehlalarme zu negativen Kundenerlebnissen führen können. In diesem Vortrag erfahren Sie, wie Sie mit Amazon SageMaker ein End-to-End-System zur Erkennung von Kreditkartenbetrug aufbauen können. Erfahren Sie, wie Sie mathematische Modelle in der Cloud trainieren können, um Kartenzahlungsbetrug mit einem agileren und kostengünstigeren Ansatz zu erkennen. Wir zeigen, wie Sie dieses Modell mithilfe von APIs in Ihre Geschäftsanwendungen integrieren und Berichts-Dashboards mit Amazon QuickSight erstellen können. Dieser schnelle, cloudbasierte BI-Service erleichtert es allen Mitarbeitern eines Unternehmens, mithilfe umfangreicher, interaktiver Dashboards Einblicke aus ihren Daten zu gewinnen.
Redner: Indrajit Ghosalkar, Solutions Architect, AWS
Dauer: 30 Min.
Mit AWS betrügerische Kontoübernahmen bekämpfen (Level 300)
Jedes Jahr werden viele Benutzerkonten durch verschiedene Methoden wie Credential Stuffing, Phishing und Social Engineering kompromittiert, was zu Kontoübernahmebetrug (ATO) führt. Neben finanziellen Verlusten hat ATO-Betrug Auswirkungen auf das Kundenerlebnis, die Markenbindung und den Ruf. In diesem Vortrag erklären wir, wie Sie mit der AWS Web Application Firewall Versuche zur Kontoübernahme am Netzwerkrand proaktiv stoppen, unbefugten Zugriff verhindern können, der zu betrügerischen Aktivitäten führen könnte, und Benutzer im Voraus benachrichtigen, damit sie vorbeugende Maßnahmen ergreifen können. Wir zeigen auch, wie Sie mithilfe von Amazon Fraud Detector, einem vollständig verwalteten Service, mit dem Sie benutzerdefinierte ML-Modelle zur Betrugserkennung schnell und ohne vorherige ML-Erfahrung erstellen, bereitstellen und verwalten können, Ihre Anwendung über Machine Learning schützen.
Redner:
Julian Ju, Senior Edge Specialist Solutions Architect, AWS
Ram Cholan, Senior Edge Specialist Solutions Architect, AWSDauer: 30 Min.
Mithilfe von Amazon Comprehend Medical aussagekräftige radiologische Erkenntnisse aus natürlicher Sprache extrahieren (Level 300)
Die Erkenntnisse, die benötigt werden, um den Einsatz knapper und gefragter klinischer Ressourcen zu optimieren, sind häufig in unstrukturierten klinischen Berichten versteckt. In diesem Vortrag wird erklärt, wie Machine Learning und Analysetechnologien in Anwendungen integriert und Prozesse automatisiert werden können, um den Einsatz klinischer Ressourcen zu optimieren. Wir zeigen, wie die Apache-Spark-Pipeline mit Amazon Comprehend Medical nahezu in Echtzeit verwendet wird, um radiologische Untersuchungen zu erfassen, sobald sie zu den Repositorys für klinische Daten des Krankenhauses hinzugefügt werden. Erfahren Sie, wie Sie Arztberichte in natürlicher Sprache klassifizieren und die klinischen Einheiten in relationale Ansichten übersetzen, die auf der klinischen Standardterminologie von SNOMED basieren. Abschließend zeigen wir, wie allgemeine Visualisierungs- und Analysetools Ihren Nutzern den Zugriff auf die Datenerkenntnisse ermöglichen können.
Redner: Craig Roach, Principal Solutions Architect, AWS
Dauer: 30 Min. -
Schnelles Erstellen, Trainieren und Bereitstellen von ML-Modellen Track 1
-
Schnelles Erstellen, Trainieren und Bereitstellen von ML-Modellen Track 1
Über den Kurs
Erfahren Sie mehr über das Entwickeln, Trainieren und Bereitstellen von Machine Learning (ML)-Modellen für jeden Anwendungsfall mit vollständig verwalteter Infrastruktur, Tools und Workflows
Starten Sie mit Amazon SageMaker in wenigen Minuten (Level 200)
Amazon SageMaker bietet jedem Entwickler, Geschäftsanalysten und Datenwissenschaftler die Möglichkeit, Machine-Learning-Modelle für jeden Anwendungsfall mit vollständig verwalteter Infrastruktur, Tools und Workflows zu erstellen, zu trainieren und bereitzustellen. Amazon SageMaker nimmt Ihnen die komplexen Aufgaben rund um Machine Learning ab und beseitigt so die für Machine Learning typischen Barrieren. Dieser Vortrag befasst sich eingehend mit den technischen Details der einzelnen Module von Amazon SageMaker und präsentiert die Funktionen der Plattform.
Redner: Pauline Kelly, Solutions Architect, AWS
Dauer: 30 Min.
Halbstrukturierte verschachtelte JSON-Daten für Machine Learning mit No-Code-Lösungen in AWS transformieren (Level 200)
In vielen Branchen stammen Daten aus verschiedenen Quellen und haben strukturierte, halbstrukturierte und unstrukturierte Formate. Für halbstrukturierte Daten ist JSON eines der meistverbreiteten leichten Dateiformate. Aufgrund seiner Komplexität enthält der JSON-Datentyps jedoch häufig eine verschachtelte Schlüsselwertstruktur und es ist schwierig, ihn direkt in ML-Aufgaben zu verwenden. In diesem Vortrag besprechen wir, wie Sie AWS Glue DataBrew nutzen können, um die Verschachtelung der Daten aufzuheben, vertrauliche Informationen zu verarbeiten und die Datenqualität für die ML-Datenaufbereitung sicherzustellen. Wir zeigen Ihnen, wie Sie die No-Code-Lösung von Amazon SageMaker verwenden können, um ML-Modelle automatisch mit den verarbeiteten Daten zu trainieren, um schnell umsetzbare Erkenntnisse zu gewinnen.
Redner:
Melanie Li, Senior Technical Account Manager, AI/ML, AWS
Partha Sarathi Sahoo, Senior Technical Account Manager, Analytics, AWSDauer: 30 Min.
Genaue Modelle, die verschiedene Datentypen kombinieren, mit AutoGluon in Amazon SageMaker erstellen (Level 300)
Reale Machine-Learning-Anwendungsfälle beinhalten oft Daten in verschiedenen Formen. In diesem Vortrag geben wir einen Überblick über Amazon SageMaker JumpStart, das automatisch Hunderte ML-Modelle trainiert und optimiert und Ihnen dabei hilft, das beste Modell für Ihren Anwendungsfall auszuwählen. Wir zeigen, wie Sie AutoGluon, eine Open-Source-Bibliothek für AutoML, in Amazon SageMaker verwenden, um Ihr hochwertiges Modell zu erstellen. Wir teilen auch bewährte Methoden, Best Practices und Tools, damit Sie tiefer in benutzerdefiniertes multimodales ML eintauchen können.
Rednerin: Seema Gupta, Senior Solutions Architect, AWS
Dauer: 30 Min.
Schnelles und kostengünstiges Trainieren von ML-Modellen mit Amazon SageMaker (Level 200)
Das umfangreiche Training von Machine-Learning-Modellen geht oft mit erheblichen Investitionen einher. In diesem Vortrag zeigen wir, wie Sie mit Amazon SageMaker den Zeit- und Kostenaufwand für das Training und die Optimierung von Machine-Learning-Modellen (ML) reduzieren können, ohne die Infrastruktur verwalten zu müssen. Erfahren Sie, wie Sie Modelle mithilfe integrierter Tools verwenden, um Trainingsexperimente zu verwalten und zu verfolgen, automatisch optimale Hyperparameter auszuwählen, Trainingsaufträge zu debuggen und die Auslastung von Systemressourcen wie GPUs, CPUs und Netzwerkbandbreite zu überwachen. Wir zeigen, wie die SageMaker-Trainingstools ein schnelleres verteiltes Training ermöglichen, einschließlich Bibliotheken für Daten- und Modellparallelität. Die verteilten Trainingsbibliotheken von Amazon SageMaker teilen Modelle und Trainingsdatensätze automatisch auf GPU-Instances auf, damit Sie das verteilte Training schneller abschließen können.
Redner: Gaurav Singh, Solutions Architect, AWS India
Dauer: 30 Min.
Mehr als nur Modellentwicklung, Training und Bereitstellung – Detaillierter Einblick in die Modellüberwachung mit Amazon SageMaker (Level 200)
Im Gegensatz zur herkömmlichen Softwareentwicklung ist die Entwicklung von ML-Modellen ein iterativer Prozess, der die kontinuierliche Überwachung der Ein- und Ausgabe des verwendeten Modells erfordert, um optimale Ergebnisse sicherzustellen. In diesem Vortrag erfahren Sie mehr über die Grundlagen der Modellüberwachung mit Amazon SageMaker. Wir besprechen, wie Sie Abweichungen in Ihren Daten und Modellen erkennen können, und teilen Ihnen wichtige Schritte mit, mit denen die Qualität Ihrer Modelle in der Produktion sichergestellt wird.
Redner: Sahil Verma, Solutions Architect, AWS India
Dauer: 30 Min.
Mit Amazon SageMaker und Amazon Rekognition ein Text-zu-Bild-Modell bereitstellen (Level 200)
Nehmen Sie an diesem Vortrag teil, wenn Sie erfahren möchten, wie die globale visuelle Kommunikationsplattform Canva ihre neue Text-zu-Bild-Funktion mit Stable Diffusion in Amazon SageMaker entwickelt hat, sodass die Text-zu-Bild-Funktion in weniger als 3 Wochen schnell auf 100 Millionen Benutzer skaliert werden kann. Wir befassen uns eingehend mit dem Architekturrahmen, der der Komplettlösung zugrunde liegt, und wie jeder Schritt des ML-Prozesses entlastet werden kann, sodass es einfacher wird, qualitativ hochwertige Modelle zu entwickeln, innovative neue Funktionen für Benutzer schnell bereitzustellen und mit Hinblick auf zukünftiges Wachstum zu skalieren. Wir zeigen auch, wie Canva Amazon Rekognition nutzt, das vortrainierte und anpassbare Computer Vision (CV)-Funktionen bietet, um Informationen und Erkenntnisse aus Bildern und Videos zu extrahieren. Erfahren Sie, wie sie mit dieser Lösung das Vertrauen und die Sicherheit der Benutzer stärken und die Produktivität steigern konnten, da Canva für die manuelle Moderation rund um die Uhr Hudnerte Moderatoren hätte einsetzen müssen.
Redner:
Ben Friebe, Senior ISV Solutions Architect, AWS
Greg Roodt, Head of Data Platforms, CanvaDauer: 30 Min.
Schnelle Einführung von ML-Lösungen in großem Maßstab in der AWS-Infrastruktur (Level 200)
AWS bietet die umfassendsten und tiefgreifendsten Services rund um den schnellen Aufbau und die Einführung von KI und Machine Learning für alle Arten von Organisationen, Unternehmen und Branchen. In diesem Vortrag erklären wir, wie Sie Ihre Inferenzmodelle in AWS bereitstellen, welche Faktoren zu berücksichtigen sind und wie Sie die Bereitstellungen optimieren können. Wir teilen bewährte Methoden und Ansätze, damit Ihre ML-Workloads in AWS reibungslos und effizient funktionieren.
Redner: Santhosh Urukonda, Senior Prototyping Engineer, AWS India
Dauer: 30 Min. -
Schnelles Erstellen, Trainieren und Bereitstellen von ML-Modellen Track 2
-
Schnelles Erstellen, Trainieren und Bereitstellen von ML-Modellen Track 2
Über den Kurs
Erfahren Sie mehr über das Entwickeln, Trainieren und Bereitstellen von Machine Learning (ML)-Modellen für jeden Anwendungsfall mit vollständig verwalteter Infrastruktur, Tools und Workflows
Mit AWS NLP-Pipeline operationalisieren und automatisieren (Level 200)
NLP-Modelle bestehen oft aus mehrere hundert Millionen Modellparametern, weshalb ihre Erstellung, ihr Training und ihre Optimierung Zeit, Ressourcen und Fähigkeiten erfordert. In diesem Vortrag wird beschrieben, wie Amazon SageMaker Ihnen hilft, schnell große NLP-Modelle mithilfe beliebter Frameworks wie PyTorch zu erstellen und zu trainieren. Wir stellen Ihnen die verschiedenen verteilten Trainings und Inferenzen für große Sprachmodelle in Amazon SageMaker vor und erläutern, wie Sie Ihre NLP-Pipeline operationalisieren können.
Redner: Hariharan Suresh, Senior Solutions Architect, AWS
Dauer: 30 Min.
Hugging-Face-Modelle in Amazon SageMaker erstellen, trainieren, bereitstellen und operationalisieren (Level 200)
Das Gebiet der natürlichen Sprachverarbeitung (NLP) entwickelt sich rasant weiter, und NLP-Modelle werden immer größer und komplexer. Durch starke Ökosystempartnerschaften mit Organisationen wie Hugging Face und fortschrittliche verteilte Trainingsmöglichkeiten ist Amazon SageMaker eine der einfachsten Plattformen für das schnelle Training von NLP-Modellen. In diesem Vortrag erfahren Sie, wie Sie mit PyTorch oder TensorFlow sowie den verteilten Trainingsbibliotheken von SageMaker schnell und mit nur wenigen Codezeilen ein NLP-Modell aus der Hugging-Face-Transformatorbibliothek trainieren können.
Redner: Tapan Hoskeri, Principal Solutions Architect, AWS India
Dauer: 30 Min.
End-to-End-MLOps mit Amazon SageMaker und GitHub Actions (Level 300)
Wenn Sie Ihre Workloads für Machine Learning (ML) in die Produktion verlagern, müssen Sie sich mit der Erstellung automatisierter Pipelines für das erneute Training und die Bereitstellung von Modellen befassen. Der Aufbau von CI/CD rund um ML-Workflows und die Integration von bewährten Methoden wie Quell- und Versionskontrolle, automatische Auslöser und sichere Bereitstellungen können jedoch eine Herausforderung sein. In diesem Vortrag erfahren Sie, wie Sie Ihre ML-Modelle mit Amazon SageMaker Pipelines effizient in der Produktion operationalisieren und verwalten und CI/CD-Pipelines in ML integrieren können, sodass anstelle der zuvor benötigten Monate nur wenige Stunden für die Programmierung anfallen. Wir zeigen, wie Workflows erstellt und entwickelt werden können, indem Prozesse mit Tools von Drittanbietern wie GitHub-Aktionen automatisiert werden.
Redner:
Romina Sharifpour, Senior Solutions Architect, AWS
Pooya Vahidi, Enterprise Solutions Architect, AWSDauer: 30 Min.
-
Dateninfrastruktur für ML-Workloads
-
Dateninfrastruktur für ML-Workloads
Über den Kurs
Die Unternehmen und Volkswirtschaften von heute werden von Daten angetrieben. Erfahren Sie, wie Sie eine solide Dateninfrastruktur aufbauen, die Sie bei der Bereitstellung leistungsstarker KI- und ML-Modelle unterstützt, die auf Daten basieren. Nutzen Sie das Potenzial von Daten, um heute Erkenntnisse zu gewinnen und neue Möglichkeiten zu schaffen.
Datenverarbeitung und ML-Workloads mit AWS skalieren (Level 200)
Der Aufbau skalierbarer Daten sowie von KI- und Maschinen-Workloads ist eine teamübergreifende Aufgabe, für die mehrere Ressourcen verwaltet werden müssen. Bei unzureichender Verwaltung müssen Teams viel Zeit für operative Aufgaben aufwenden, was die Markteinführungszeit verlangsamt und sie davon abhält, sich auf die Entwicklung innovativer Produkte und Lösungen zu konzentrieren. In diesem Vortrag erläutern wir die Optionen zur Skalierung komplexer Daten und KI/ML-Workloads in AWS. Erfahren Sie, wie Amazon SageMaker Pipelines CI/CD-Pipelines auf ML umstellt und so den monatelangen Programmieraufwand, der zuvor erforderlich war, auf nur wenige Stunden reduziert. Entdecken Sie weitere Optionen für die Bereitstellung erstklassiger Open-Source-Systeme für Machine Learning in AWS, sodass Entwickler, Datenwissenschaftler und Builder mit den richtigen Tools ausgestattet werden, um Machine Learning in der Cloud auszuführen.
Redner: Vatsal Shah, Senior Solutions Architect, AWS India
Dauer: 30 Min.
Stimmungsanalyse mit Machine Learning von Amazon Aurora (Stufe 200)
Heute befinden sich die meisten Unternehmensdaten in relationalen Datenbanken, und es wird immer wichtiger, diese Daten für das Training und die Verwendung von ML-Modellen zugänglich zu machen, um Vorhersagen in datenbankbasierten Anwendungen generieren zu können. In diesem Vortrag wird gezeigt, wie Sie Ihre Produktionsdaten aus der relationalen Datenbank extrahieren, ein ML-Modell in Amazon SageMaker erstellen und die Ergebnisse des Modells in Ihre Produktionsdatenbank und Apps integrieren. Wir befassen uns eingehend damit, wie Sie mit Amazon Aurora ML ganz einfach ML-basierte Vorhersagen über die vertraute SQL-Programmiersprache zu Anwendungen hinzufügen können, ohne vorherige Erfahrung mit Machine Learning haben zu müssen. Erfahren Sie, wie Sie eine optimierte und sichere Integration mit AWS-ML-Services aufbauen können, ohne Daten verschieben zu müssen.
Redner: Roneel Kumar, Senior Relational Databases Specialist Solutions Architect, AWS
Dauer: 30 Min.
Operative Intelligenz mit Amazon Redshift Streaming und Amazon Redshift ML (Level 200)
Daten, die Sie für Erkenntnisse benötigen, werden nicht nur mehr, sondern auch immer vielfältiger. Sie befinden sich oft in verschiedenen Datensilos oder sogar bei Drittunternehmen. Darüber hinaus wird von Benutzern erwartet, dass sie mit transaktionskonsistenten Daten arbeiten, aber der Prozess der Transformation der Daten zwischen diesen Silos ist mit Problemen wie Datenduplizierung, Datenverlust, Inkonsistenzen, Ungenauigkeiten und Datenübertragungsverzögerungen behaftet. In diesem Vortrag zeigen wir, wie Amazon Redshift die tiefgreifende Integration in das AWS-Datenökosystem über Data Lakes und speziell entwickelte Datenspeicher hinweg bietet und Ihnen ohne umständliche Datenverschiebungen oder Datentransformationen die von Ihnen benötigten Einblicke in Echtzeit sowie vorausschauende Einblicke liefert.
Redner: Mary Law, Senior Analytics Solutions Architect Manager, AWS
Dauer: 30 Min.
Nachhaltiges und skalierbares Machine Learning mit Amazon EKS und Argo-Workflows (Level 200)
Datenwissenschaft, Machine Learning, künstliche Intelligenz und Kubernetes sind in den letzten Jahren immer beliebter geworden. Das hat dazu geführt, dass Unternehmen sich auf den Aufbau dedizierter ML-Teams konzentrieren, um die Bereitstellung von ML-gestützten Ergebnissen zu unterstützen. Wenn Unternehmen den Einsatz dieser Technologien und Verfahren skalieren, stehen sie vor einer Reihe von Herausforderungen, darunter die Reproduzierbarkeit der Modellergebnisse, die Wiederverwendbarkeit von Pipelines, die Versionierung von Pipelines, die Verwaltbarkeit der Modellbereitstellung sowie die Bereitstellung und Automatisierung dieser End-to-End-Prozesse. In diesem Vortrag befassen wir uns eingehend damit, wie Sie mithilfe von Argo-Workflows und Amazon Elastic Kubernetes Services (Amazon EKS) eine skalierbare Architektur für ML-Datenaufbereitung, Modelltraining und Bereitstellung erstellen können.
Redner: Mitch Beaumont, Principal Solutions Architect, AWS
Dauer: 30 Min. -
ML für Entwickler und Builder
-
ML für Entwickler und Builder
Über den Kurs
Bei AWS möchten wir Machine Learning (ML) in die Hände aller Entwickler und Datenwissenschaftler legen. Erfahren und experimentieren Sie, wie Sie ML einsetzen und die Art und Weise, wie wir unser tägliches Leben leben, verändern können.
Mit AWS-Datenbanken, Analysen und ML den Builders das Machine Learning übertragen (Level 200)
Bei AWS wollen wir Machine Learning (ML) in die Hände aller Builder legen. In diesem Vortrag erfahren Sie, wie AWS Builder mithilfe von Services wie Amazon Aurora, Amazon Redshift, Amazon Neptune und Amazon QuickSight ML bereitstellt, damit sie neue Erlebnisse schaffen und bestehende Prozesse neu gestalten.
Redner: Tom McMeekin, Enterprise Solutions Architect, AWS
Dauer: 30 Min.
Machine Learning zu Ihrem Software-Engineering-Toolbelt hinzufügen (Level 200)
Machine Learning wird in fast allen Anwendungen, Geschäftsprozessen und Endbenutzererlebnissen eingewoben sein. Es gibt jedoch wichtige Hindernisse für die Einführung von ML, die bewältigt werden müssen, darunter die Demokratisierung von Machine Learning und das Upskilling. In diesem Vortrag werden die pragmatischen Ansätze, Tipps und Tricks beschrieben, damit Builder ML-Fähigkeiten entwickeln können, beginnend mit dem Einsatz von Machine Learning als Codeassistent. Wir zeigen, wie Amazon CodeWhisperer verwendet wird, ein durch Machine Learning (ML) gestützter Service, der die Builder-Produktivität steigert, indem Code-Empfehlungen basierend auf Entwicklerkommentaren in natürlicher Sprache und ihrem Code in der integrierten Entwicklungsumgebung (IDE) generiert werden. Anschließend befassen wir uns eingehend mit anderen AWS-Services, die Sie nutzen und mit denen Sie Ihre eigenen Machine-Learning-Modelle erstellen können.
Redner: Matt Coles, Principal Engineer, AWS
Dauer: 30 Min.
Die besten Methoden der Softwareentwicklung in die Datenwissenschaft und Machine Learning einbringen (Level 300)
In der Welt von MLOps und datenwissenschaftlichen Modellen in der Produktion steht die Verbesserung der Zuverlässigkeit, des Designs und der Implementierung unseres Machine-Learning-Codes für Datenwissenschaftler an erster Stelle. Bewährte Methoden der Softwareentwicklung wie testgesteuerte Entwicklung (TDD) können dazu beitragen, diese Ziele zu erreichen. Es gibt jedoch nur begrenzte Anleitungen zur Anwendung dieser Methoden auf datenwissenschaftliche Workflows. Dieser Vortrag untersucht, welche nützlichen Methoden der Softwareentwicklung wann und aus welchem Grund in einem datenwissenschaftlichen Kontext angewendet werden sollten, und behandelt praktische Lösungen und Designs, die bei den täglichen Aufgaben Anwendung finden können.
Redner:
Joshua Goyder, Senior Data Scientist, AWS
Dr. Marcel Vonlanthen, Senior Data Scientist, AWSDauer: 30 Min.
Mit ML-Tools Ihre ML-Wertschöpfung ohne Code/Low-Code von Monaten auf Stunden beschleunigen (Level 200)
Die Fähigkeit, Systeme zu entwickeln, um Erkenntnisse wie Verkaufsprognosen, Betrugserkennung und Nachfrageprognosen zu erhalten, wird für Unternehmen, die täglich mit Daten zu tun haben, immer wichtiger. Dadurch können Unternehmen schneller vorankommen, indem sie langsame Prozesse automatisieren und Informationen in ihre Systeme einbetten. Viele Benutzer möchten Vorhersagesysteme auf der Grundlage der Daten erstellen und verwenden, die sie täglich analysieren und verarbeiten, ohne sich mit Hunderten Algorithmen, Trainingsparametern, Bewertungsmetriken und bewährten Methoden für die Bereitstellung vertraut machen zu müssen. In diesem Vortrag erfahren Sie, wie Sie AWS-Tools ohne Code/mit Low-Code verwenden, um die gängigen ML-Anwendungsfälle auszuführen. Sie verwenden dafür eine visuelle Oberfläche und gewinnen schnell einen echten Mehrwert aus Ihren Daten, ohne einen einzigen Code schreiben oder über ML-Kenntnisse verfügen zu müssen.
Redner: Aman Sharma, Senior Solutions Architect, SMB APJ, AWS
Dauer: 30 Min.
Analytik und Machine Learning mit AWS-Services und ohne Code demokratisieren (Level 200)
Der Zugriff auf alle Daten zwecks schneller, umfangreicher Analysen ist entscheidend für 360-Grad-Projekte, an denen Dateningenieure, Entwickler, Analysten, Datenwissenschaftler, BI-Experten und andere Benutzer beteiligt sind. Die Erstellung solcher Modelle erfordert jedoch fundiertes technisches Wissen und Ressourcen. In diesem Vortrag wird gezeigt, wie genaue ML-Vorhersagen in BI-Lösungen erstellt und visualisiert werden können. Erfahren Sie, wie Sie tabellarische Datensätze vorbereiten und ein ML-Modell mit Amazon SageMaker trainieren, ohne eine einzige Codezeile schreiben zu müssen. Anschließend demonstrieren wir, wie Amazon QuickSight, eine cloudnative, serverlose Business Intelligence mit nativen ML-Integrationen und nutzungsabhängiger Preisgestaltung, es Benutzern ermöglicht, unterschiedliche Analyseanforderungen aus derselben Informationsquelle durch moderne interaktive Dashboards, paginierte Berichte, eingebettete Analysen und Abfragen in natürlicher Sprache zu erfüllen.
Redner: Darshit Vora, Senior Startup Solutions Architect, AWS India
Dauer: 30 Min.
Verbesserung der Leistung und Verfügbarkeit von serverlosen Anwendungen mit KI/ML-Vorgängen (Level 200)
Da IT-Infrastrukturen ständig Rekordmengen an neuen Daten produzieren, stehen ITOps oft unter ständigem Druck, ihre Workloads mit herkömmlichen Tools zu verwalten und zu analysieren. Neue Ansätze sind erforderlich, um die IT dabei zu unterstützen, von der reaktiven zur proaktiven Behebung von Managementvorfällen überzugehen, wodurch die Anwendungsverfügbarkeit erhöht, Zeit bei der Erkennung und Lösung der kritischsten Probleme gespart und die Kosten gesenkt werden. In diesem Vortrag behandeln wir, wie Sie KI und ML anwenden können, um Ihre Anwendungen proaktiv vor Ausfallzeiten zu schützen.
Redner: Paul Kukiel, Enterprise Solutions Architect, AWS
Dauer: 30 Min.
Erste Schritte mit Reinforcement Learning und AWS DeepRacer (Level 200)
Suchen Sie nach einer interessanten und unterhaltsamen Möglichkeit, mehr über Reinforcement Learning (RL) zu erfahren? Dann sind Sie bei AWS DeepRacer genau richtig, wo Sie lernen können, wie Sie ML-Modelle schnell erstellen können. Anschließend können Sie mit verschiedenen Algorithmen und neuronalen Netzwerkkonfigurationen experimentieren und auf einer virtuellen Rennstrecke simulieren. Sobald Sie Ihr ML-Modell erstellt haben, können Sie an der AWS DeepRacer League teilnehmen, der weltweit ersten globalen autonomen Racing-Liga, in der jeder um Preise und Ruhm kämpfen kann. Entwickler, startet heute noch eure Motoren!
Redner: Donnie Prakoso, Principal Developer Advocate, AWS
Dauer: 30 Min. -
Entwicklerzone
-
Entwicklerzone
Über den Kurs
Tauchen Sie tief in technische Stacks ein, erfahren Sie, wie AWS-Experten geholfen haben, reale Probleme für Kunden zu lösen, probieren Sie diese Demos mit schrittweisen Anleitungen aus und gehen Sie mit der Fähigkeit nach Hause, diese oder ähnliche Lösungen in Ihrer eigenen Organisation zu implementieren.
Gedankengesteuerter Roboter (Level 300)
Das Brain Computer Interface (BCI) ist ein direkter Kommunikationsweg, der Gehirnsignale sammelt, auswertet und Befehle an ein angeschlossenes Gerät ausgibt. Zukunftsorientierte Unternehmen aus allen Branchen setzen nun auf BCI, um das Benutzererlebnis in verschiedenen Anwendungsfällen zu verändern, z. B. um die Sicherheit von Fahrern zu gewährleisten, indem sie Belastungen verfolgen, Müdigkeitseingaben überwachen und anhand der Daten Ruhepausen empfehlen oder es Mitarbeitern ermöglichen, mit einem verbundenen Gerät mit Roboterarm zu interagieren und es als Verlängerung des eigenen Körpers zu steuern und zu bedienen, ohne einen Controller in den Händen zu halten. In diesem Vortrag zeigen wir, wie das Brain Computer Interface (BCI)-Gerät Gehirnwellen liest und sie mithilfe von Machine Learning in Echtzeit-Steuersignale für einen Roboter übersetzt. Wir erläutern, wie dieses von Amazon SageMaker und AWS IoT betriebene Gerät die Aktivitäten im Gehirn klassifiziert und präzise in Aktionen übersetzt.
Redner:
K V Sureshkumar, Prototyping Architect, AWS India
Arun Balaji, Principal Prototyping Engineer, AWS India
Mit Amazon Forecast den Energieverbrauch vorhersagen, um Kosteneinsparungen zu erzielen (Level 200)
Der Anstieg der Energiepreise hat auf viele Unternehmen in vielen Branchen finanzielle Auswirkungen. In diesem Vortrag zeigen wir, wie Sie mithilfe von Analytik und Machine Learning zeitnah und kostengünstig hochgenaue Energieprognosen erstellen können, ohne dass Vorkenntnisse in Machine Learning erforderlich sind. Unternehmen können proaktiv nach Möglichkeiten suchen, den Energieverbrauch im Voraus oder am Monatsende vorherzusagen und so hohe Energierechnungen zu vermeiden, die sich auf die Betriebskosten auswirken, oder können die Prognosedaten verwenden, um potenzielle Einsparungen bei der Anwendung verschiedener Energieeffizienzmaßnahmen vorherzusagen und die beste Maßnahme zu empfehlen.
Redner:
Jeffrey Zeng, Associate Data Scientist, AWS
Laine Wishart, Data Scientist, AWS
Mit AWS ein ansprechendes Live-Video-Streaming-Erlebnis schaffen und Ihre Umsatzchancen optimieren (Level 200)
Die meisten Anbieter von Videostreaming-Inhalten wollen ein erstklassiges visuelles Erlebnis bieten, das Engagement der Zuschauer in Echtzeit steigern und die Monetarisierung ihrer Videoressourcen verbessern. In diesem Vortrag erfahren Sie, wie Sie qualitativ hochwertige, robuste Live-Streams mit geringer Latenz in AWS ausführen. Wir zeigen, wie Sie Amazon Rekognition verwenden können, um die Interaktionsrate von Inhalten zu verbessern, indem aus einem IVS-Livestream automatisch der Käuferkatalog generiert wird. Durch das Hinzufügen von KI/ML zum Workstream können die Zuschauer die Produkte oder Services kaufen, die während des Livestreams gezeigt werden.
Rednerin: Ally Yong, Solutions Architect, AWS
ML-Anwendungen für Drohnen-Videostreams in Echtzeit entwickeln (Level 200)
Drohnendaten gewinnen für viele Unternehmen zunehmend an Bedeutung, da Drohnen Informationen sammeln können, die nicht einfach zugänglich sind oder die nicht schnell bearbeitet werden können. Dies gilt beispielsweise für schnelle Lieferungen während der Hauptverkehrszeit, Objektinspektion, Lecksuche, Berechnung des Lagervolumens oder digitale Vermessung. In diesem Vortrag erfahren Sie, wie Sie Drohnenaufnahmen in Echtzeit analysieren und mithilfe von Machine Learning Erkenntnisse aus Ihren Drohnenbildern gewinnen können, anhand derer Sie bessere und schnellere Entscheidungen treffen.Redner: Ishan Joshi, Data Scientist, Professional Services, AWS
Mit Graph Machine Learning gefälschte Nachrichten in sozialen Medien erkennen (Level 200)
Soziale Medien werden heute häufig zum Teilen und Konsumieren von Nachrichten genutzt, aber die Verbreitung von Fake News kann sich negativ auf die Unternehmensmarke auswirken, das Vertrauen der Kunden verringern und den Umsatz beeinflussen. In diesem Vortrag wird gezeigt, wie gefälschte Nachrichten in sozialen Medien mithilfe von Machine Learning in AWS anhand des Inhalts und des sozialen Kontextes der Nachrichten erkannt werden können. Wir zeigen, wie Amazon Neptune ML, eine Machine-Learning-Methode, die speziell für Graphen entwickelt wurde, mithilfe von Graph-Daten genaue Vorhersagen innerhalb von Stunden statt Wochen ermöglicht, ohne dass neue Tools und ML-Technologien erlernt werden müssen.Redner: Ganesh Sawhney, Solutions Architect, AWS India
Einen Audio-Klassifikator mit Amazon SageMaker erstellen (Level 200)
Die Audio.Klassifizierung hat zahlreiche Anwendungsgebiete im Bereich der KI, wie Chatbots, automatische Sprachübersetzer, virtuelle Assistenten, Identifizierung von Musikgenres und Text-zu-Sprache-Anwendungen. In diesem Vortrag erfahren Sie, wie Sie mit Amazon SageMaker Ihren eigenen Audio-Klassifikator erstellen. Wir präsentieren einen umfassenden Überblick von der Datenerfassung bis zur Ergebnismodellierung.Vortragende:
Emma Arrigo, Associate Solutions Architect, AWS
Anushree Umesh, Associate Solutions Architect, AWS
Verbesserung der Callcenter-Effizienz und des Omnichannel-Kundenerlebnisses mit einem AWS QnA Bot (Level 200)
Finden Sie heraus, wie Sie einen interaktiven und intelligenten QnA-Bot erstellen. Der AWS QnABot ist ein auf Amazon Lex basierender Open-Source-, Multikanal- und mehrsprachiger Konversations-Chatbot, der auf die Fragen, Antworten und das Feedback Ihrer Kunden antwortet. Ohne Programmierung ermöglicht die AWS QnABot-Lösung den Kunden die schnelle Bereitstellung von Self-Service-Konversations-KI auf mehreren Kanälen, einschließlich ihrer Kontaktcenter, Websites, Social-Media-Kanäle, SMS-Textnachrichten oder Amazon Alexa.
Vortragende:
Nieves Gracia, AI/ML Specialist Lead, Public Sector, APJ, AWS
Melwin Pais, Senior Solutions Architect, AWS
Mit AWS Lookout für Metrics einen Echtzeit-Detektor für Luftqualitätsanomalien erstellen (Level 300)
Der Einsatz von KI/ML zur Erkennung von Anomalien in den Daten erfordert viel Komplexität bei der Erfassung, Kuratierung und Aufbereitung von Daten im richtigen Format und der anschließenden Optimierung und Aufrechterhaltung der Effektivität dieser ML-Modelle über einen langen Zeitraum. In diesem Vortrag erfahren Sie, wie Sie mit Amazon Lookout für Metrics, Amazon Kinesis und Amazon Simple Notification Service (Amazon SNS) einen automatischen Detektor für Luftqualitätsanomalien erstellen. Erfahren Sie, wie Sie Anomalien unkompliziert erkennen können, sodass Unternehmen schnell auf die Daten reagieren können, um die Auswirkungen auf Geschäftsergebnisse wie Mitarbeiterproduktivität und Kundenfrequenz zu verringern.
Redner: Dhiraj Thakur, Senior Partner Solutions Architect, AWS India
-
Abschluss
-
Abschluss
Beschleunigen der schnellen Innovationen mit Daten und KI/ML (Level 200)
Der wichtigste Wert, den sich Unternehmen aus ihren Daten erhoffen, sind intelligentere Entscheidungen, um bessere Produkte und Dienstleistungen zu entwickeln, das Kundenerlebnis zu transformieren, die betriebliche Effizienz zu verbessern und Geschäftsergebnisse zu erzielen. Diese Session bietet eine kurze Wiederholung der Themen des Tages und behandelt einige der häufigsten Fragen in Bezug auf Daten und KI/ML mit AWS. Erfahren Sie, wie AWS Unternehmen und Entwickler in jeder Branche dabei unterstützt, die Schwerstarbeit des Datenmanagements durch Automatisierung und Intelligenz zu erledigen. Erfahren Sie, wie die neuen Entwicklungen bei AWS KI/ML und Demos der neuen Technologien Einblicke in die Nutzung ungenutzter Potenziale und die sichere Umsetzung von Innovationen bieten.
Vortragende:
Dean Samuels, Chief Technologist, ASEAN, AWS
Kris Howard, Head of Dev Relations, APJ, AWS
Vorträge für jede Kenntnisstufe
Die Vorträge geben einen Überblick über AWS-Services und -Funktionen, wobei davon ausgegangen wird, dass die Themen für die Teilnehmenden neu sind.
Die Vorträge liefern bewährten Methoden, Einzelheiten zu Servicefunktionen und Demos, wobei davon ausgegangen wird, dass die Teilnehmenden über einführende Kenntnisse zu den Themen verfügen.
Die Vorträge geben detaillierte Informationen über das ausgewählte Thema. Die Vortragenden gehen davon aus, dass das Publikum mit dem Thema vertraut ist, aber eventuell noch keine direkte Erfahrungen mit der Implementierung einer ähnlichen Lösung hat.
Ausgewählte AWS-Sprecher:innen
Dean Samuels
Chief Technologist, ASEAN, AWS
.
Kris Howard
Head of Developer Relations, APJ, AWS
.
Swami Sivasubramanian
Vice President, Data and Machine Learning, AWS
.
Weitere Informationen zu KI und Machine Learning auf AWS
AWS wurde in IDC MarketScape für KI-Lifecycle-Softwaretools und Plattform-APEJ als führendes Unternehmen positioniert
AWS ist ein führender Anbieter im Gartner Magic Quadrant für Cloud-KI-Entwicklerservices
Häufig gestellte Fragen
-
Wo wird die AWS Innovate gehostet?
Die AWS Innovate ist eine Online-Konferenz. Nach dem Ausfüllen des Anmeldeformulars erhalten Sie eine Bestätigungs-E-Mail.
-
Wer sollte an AWS Innovate teilnehmen?
Unabhängig davon, ob die Cloud für Sie neu ist oder Sie ein erfahrener Benutzer sind, können Sie bei AWS Innovate etwas Neues lernen. AWS Innovate wurde entwickelt, um Ihnen dabei zu helfen, die richtigen Fähigkeiten zu entwickeln, um schneller Innovationen zu entwickeln, neue Effizienzen zu ermöglichen und schnellere, genaue Entscheidungen zu treffen.
-
Gibt es Sessions in verschiedenen Sprachen?
Die Online-Konferenz ist auf Englisch, Japanisch, Koreanisch und Indonesisch verfügbar.
-
Wie viel kostet die Teilnahme an der AWS Innovate?
AWS Innovate ist eine kostenlose Online-Konferenz.
-
Kann ich eine Bestätigung meiner AWS-Innovate-Anmeldung erhalten?
Nach dem Ausfüllen des Anmeldeformulars erhalten Sie eine Bestätigungs-E-Mail. Bitte kontaktieren Sie uns, falls Sie die Bestätigungs-E-Mail nicht erhalten.
-
Wie kann ich die Organisatoren der Online-Konferenz kontaktieren?
Wenn Sie Fragen haben, die in den häufig gestellten Fragen noch nicht beantwortet wurden, wenden Sie sich bitte per E-Mail an uns.
Beginnen Sie noch heute mit der Entwicklung von Machine-Learning-Lösungen mit dem kostenlosen Kontingent von AWS
Swami Sivasubramanian ist Vice President of Data, Analytics, and Machine Learning bei Amazon Web Services. Sein Team hat es sich zur Aufgabe gemacht, allen Unternehmen, einschließlich Entwicklern, Datenwissenschaftlern und Geschäftsanwendern, die Leistungsfähigkeit von Datenbanken, Analysen und Machine Learning zu vermitteln. Swami und sein Team entwickeln Innovationen in verschiedenen Bereichen, von Datenbanken über Analysen bis hin zu Machine Learning- und KI-Services. Sein Team arbeitet auch daran, wegweisende Daten- und ML-Funktionen für bestimmte Branchen, Anwendungsfälle und Initiativen wie Health AI, Industrial, Contact Center AI, Finanzdienstleistungen, Enterprise Search und mehr bereitzustellen.
Swami wurde mit mehr als 250 Patenten ausgezeichnet, hat 40 renommierte wissenschaftliche Arbeiten und Artikel verfasst und nimmt an mehreren akademischen Kreisen und Konferenzen teil.
Swami verbringt gerne Zeit mit seiner Familie, wandert in der Region des pazifischen Nordwestens und geht verschiedenen anderen Outdoor-Aktivitäten nach. In seiner Freizeit liest er gerne Sachbücher und Forschungsartikel über Machine Learning, verteilte Systeme und andere wichtige Computerbereiche.
Kristine verfügt über zwanzig Jahre Erfahrung in der Unterstützung von Unternehmen beim Aufbau als Software-Ingenieurin, Geschäftsanalystin und Teamdirektorin. Sie ist eine häufige Rednerin bei technischen Veranstaltungen und Meetups wie AWS Summits und TEDx Melbourne. Kristine widmet sich der Begegnung und Zusammenarbeit mit Entwicklern in der gesamten Region und leitet jetzt die Developer Relations für AWS in APJ.
Dean hat einen Hintergrund in der IT-Infrastruktur und verfügt über umfangreiche Erfahrung in der Virtualisierung und Automatisierung von Infrastrukturen. Er arbeitet seit zehn Jahren bei AWS und hatte die Gelegenheit, mit Unternehmen aller Größen und Branchen zusammenzuarbeiten. Dean engagiert sich dafür, Kunden bei der Gestaltung, Implementierung und Optimierung ihrer Anwendungsumgebungen für die Public Cloud zu unterstützen, damit sie innovativer, agiler und sicherer werden können.
Hitesh Bhatia leitet die Devops für Airtel Digital und verwaltet die Infrastruktur für Indiens größte Musik-App — WynkMusic, Indiens führendes OTT und Liveapp AirtelXStream. Hitesh verfügt über mehr als 12 Jahre Erfahrung in der Zusammenarbeit mit AWS und ist zertifizierter Professional Solution Architect. Er verfügt über umfangreiche Erfahrung im Management von DevOps/SRE und verfügt über nachgewiesene Fachkenntnisse in den Bereichen Cloud Computing, DevOps/SRE-Praktiken, Continuous Integration, Continuous Deployments (CI/CD), Monitoring, Python, IaC (Terraform) und Konfigurationsmanagement (Ansible). Er hat auch eine kostenoptimierte Architektur und Best Practices für FinOps entwickelt.
Donnie Prakoso verfügt über mehr als 17 Jahre Erfahrung in der Technologiebranche, von Telekommunikation über Bankwesen bis hin zu Startups. In seiner aktuellen Position als Principal Developer Advocate bei AWS für ASEAN und AEM ist Donnie auf Container, serverlose Datenverarbeitung sowie Integrationsmuster und Machine Learning für Microservices spezialisiert.
Derek Bingham verfügt über mehr als 18 Jahre Erfahrung in der Planung, Architektur und dem Bau komplexer Lösungen in einer Reihe von Branchen wie Gesundheit, Telekommunikation, Versicherungen, Finanzen und Verteidigung. Derek hat ein besonderes Interesse an cloudnativer Architektur, Frontend- und mobiler Entwicklung. In seiner aktuellen Position bei AWS konzentriert sich Derek darauf, Entwicklern dabei zu helfen, ihre Anwendungen auf AWS zu erstellen. Er bindet aktiv technische Zielgruppen, Communitys und Benutzergruppen ein, um die neuesten AWS-Services zu teilen und ihnen dabei zu helfen, Anwendungen auf AWS zu entwickeln.
Wendy Wong ist Absolventin von AWS She Builds und AWS Data Community-Entwicklerin mit Sitz in Sydney, Australien. Sie hat einen Master-Abschluss in Datenwissenschaft und ein Abschlusszertifikat für Redaktion und das Veröffentlichen. Wendy hat an der PwC Digital Academy über 200 Unternehmensberater im Bereich Geschäftsanalytik weitergebildet und ist derzeit als leitende Ausbilderin für Datenanalyse bei der Generalversammlung Sydney tätig. Mit über 7 Jahren Erfahrung in Analytik und Datenwissenschaft gibt Wendy ihr Wissen durch Unterricht und Inhaltserstellung auf dev.to weiter. Wendy hat eine Leidenschaft für Gemeinschaft. Sie war Direktorin von Women in Big Data Sydney und hat die Konferenz Frauen in Datenwissenschaft Sydney mit der Stanford University organisiert. Wendy hat auch Qantas, Westpac, Regierung, Lendlease, Kleinunternehmen, Startups und Regierungsbehörden beraten.
Jones ist eine Developer Relations Personal bei Freshworks und eine AWS Community-Entwickler (Serverless). Er hat den Weg vom Full-Stack-Entwickler zum Cloud Architect for Serverless erlebt, wo er nicht nur zusammen mit seinen Teamkollegen Serverless bekannt gemacht hat, sondern Kunden auch dabei geholfen hat, ihre Anforderungen mit dem AWS Serverless Tech Stack zu lösen. Er war in der AWS-Community in Indien, ASEAN und Kolumbien aktiv. Er hilft auch dabei, Serverless auf verschiedenen UG-Meetups, dem AWS Community Day, dem AWS Summit India und dem APAC Community Summit zu fördern.
Faizal ist ein Tech-Unternehmer und derzeit Gründer und CEO von eComm.in und Xite Logic. Beide sind in der Cloud geborene Startups, die Organisationen bei der digitalen Transformation in die AWS-Cloud begleiten und E-Commerce-Plattformlösungen für Community-Management- und Engagement-Plattformen anbieten. Faizal leistet einen leidenschaftlichen Beitrag zur AWS-Community. Als Organisator der AWS Hyderabad User Group half er bei der Organisation von AWS-Hackathons, AWS-Treffen, re:Invent-Rückblicken, Webinaren und AWS Certification-Bootcamps. Er ist auch Redner auf vielen dieser Veranstaltungen zu den Themen Networking, IoT, Speicher und Datenverarbeitung. Seine VPC-Masterclass auf YouTube wurde über eine halbe Million Mal angesehen. Er war ein wichtiges organisatorisches Mitglied und Gastgeber des AWS Community Day South Asia 2021 Online, der über 24 000 Zuschauer anzog. Seit 2020 ist er auch ein aktiver AWS Community-Entwickler und hat ein AWS-Fragen-und-Antworten-Diskussionsforum für die Community aufgebaut.
Dipali ist Vice President of Data Engineering bei der Natwest Group und verfügt über mehr als 18 Jahre IT-Erfahrung, spezialisiert auf Lösungsarchitektur und Anwendungsmodernisierung sowie einen Schwerpunkt auf datenintensive Anwendungen. Ihre Leidenschaft ist es, einfach zu implementierende und leicht zu wartende Lösungen für komplexe Geschäftsprobleme zu entwickeln. Dipali besitzt die Zertifizierung AWS Solution Architect — Professional. Dipali teilt ihr Wissen und ihre Erfahrung leidenschaftlich gerne mit der Community. Sie ist auch eine AWS-Community-Hero und LinkedIn Learning Instructor für AWS Cloud.
Salvian arbeitet als Software-Ingenieur für das Backend-Infrastrukturteam in Traveloka und ist für die Verbesserung der Produktivität der Backend-Produktentwicklungsteams verantwortlich. Insbesondere ist er auch für die Modernisierung des Entwicklungsprozesses und der Plattform (CI/CD) der Backend-Infrastrukturteams verantwortlich.
Chetan ist Vice President of Cloud Engineering bei Biofourmis und verfügt über mehr als 18 Jahre Erfahrung im Aufbau und Management von Produktteams für Unternehmen auf der ganzen Welt. Er hat Forschungs- und Entwicklungsteams mit mehr als 60 Ingenieuren aufgebaut, die sich auf die Bereitstellung sicherer, hochverfügbarer SaaS-Lösungen konzentrieren, indem er die DevSecOps- und Kundenentwicklungsteams für alle Produktlinien gebildet hat. Er hat auch das DevOps-Team für den Aufbau der CI/CD-Pipeline aufgebaut und Best Practices für agiles Projektmanagement in allen Produktlinien etabliert.
Ali ist ein führender Software-Ingenieur, der in Auckland, Neuseeland, lebt und sich auf die Lösung echter Probleme mit Technologie konzentriert. Ali verfügt über umfangreiche Erfahrung im Softwareentwicklungszyklus und konzentriert sich auf die Erstellung von Software mithilfe von JS/TS- und AWS-Services. Ali glaubt, dass gute Software durch Zusammenarbeit entsteht. Er betreut und coacht auch Entwickler und Ersteller, damit sie lernen und in ihrer Karriere erfolgreich sein können.
Kristine verfügt über zwanzig Jahre Erfahrung in der Unterstützung von Unternehmen beim Aufbau als Software-Ingenieurin, Geschäftsanalystin und Teamdirektorin. Sie ist eine häufige Rednerin bei technischen Veranstaltungen und Meetups wie AWS Summits und TEDx Melbourne. Kristine widmet sich der Begegnung und Zusammenarbeit mit Entwicklern in der gesamten Region und leitet jetzt die Developer Relations für AWS in APJ.