- Analisi dei dati›
- Servizio gestito da Amazon per Apache Flink›
- Nozioni di base
Nozioni di base su Servizio gestito da Amazon per Apache Flink
Perché dovrei scegliere Servizio gestito per Apache Flink?
Crea applicazioni di streaming con Apache Flink e Apache Beam
1
Fase 1: scarica le librerie open source nel tuo ambiente IDE preferito
Puoi iniziare scaricando le librerie open source che includono gli SDK AWS, Apache Flink e i connettori per i servizi AWS.
2
Fase 2: crea un'applicazione campione utilizzando Apache Flink e Apache Beam
Scrivi il codice della tua applicazione Apache Flink utilizzando flussi di dati e operatori di flussi. I flussi di dati dell'applicazione sono la struttura dei dati rispetto ai quali esegui l'elaborazione utilizzando il codice dell'applicazione. I dati fluiscono continuamente dalle origini nei flussi di dati dell'applicazione. Per definire l'elaborazione sui flussi di dati dell'applicazione vengono utilizzati uno o più operatori di flussi.
3
Fase 3: carica il codice sul servizio gestito da Amazon per Apache Flink
Una volta creato, carica il codice nel servizio gestito da Amazon per Apache Flink. Questo servizio si occupa di tutte le operazioni necessarie per eseguire le applicazioni in tempo reale in modo continuo, ricalibrando automaticamente le risorse in base al volume e alla velocità di trasmissione effettiva dei dati in entrata.
Usa in modo intuitivo il servizio gestito da Amazon per Apache Flink Studio
1
Fase 1: crea un'applicazione del servizio gestito da Amazon per Apache Flink Studio
Inizia dalla console del Servizio gestito da Amazon per Apache Flink, di Amazon MSK o del flusso di dati Amazon Kinesis. Puoi anche usare connettori personalizzati e connetterti a qualsiasi altra origine dati.
2
Fase 2: scrivi codice nel notebook serverless in SQL, Python e Scala e sviluppa applicazioni Apache Flink
Esegui singoli paragrafi nel notebook, visualizza i risultati nel contesto e utilizza la visualizzazione integrata di Apache Zeppelin per accelerare lo sviluppo. Puoi anche usare funzioni definite dall'utente nel codice.
3
Fase 3: crea e implementa la soluzione come applicazione di streaming del servizio gestito da Amazon per Apache Flink
Implementa il codice come applicazione di elaborazione di flussi in esecuzione continua con pochi clic. L'applicazione implementata sarà un'applicazione del servizio gestito da Amazon per Apache Flink con stato durevole e dimensionamento automatico. Prima di mettere in produzione il codice, puoi cambiare le origini, le destinazioni, la registrazione e i livelli di monitoraggio.
E-learning
In questo workshop, costruirai un'architettura di streaming end-to-end per importare, analizzare e visualizzare i dati di streaming in tempo quasi reale. Inizierai a ottimizzare le operazioni della flotta di una compagnia di taxi a New York analizzando i dati di telemetria della flotta di taxi quasi in tempo reale.
Usa una soluzione preconfigurata per iniziare rapidamente. Usa la soluzione per i dati in streaming AWS per il servizio gestito da Amazon per Apache Flink per risolvere casi d'uso di streaming in tempo reale, come l'acquisizione di log dell'applicazione a volume elevato, l'analisi dei dati di clickstream, la distribuzione continua a un data lake e molto altro ancora.
In questo workshop, creerai un'applicazione di elaborazione degli stream per identificare i clienti che entrano nel tuo casinò che scommettono grandi somme. L'applicazione ti invierà un'e-mail quando chi spende molto si siede a un tavolo da gioco. Identificherai anche i tavoli che necessitano di una ricarica di fiches e identificherai i potenziali imbroglioni nel tuo casinò attraverso i loro schemi di scommesse e vincite.
In questa serie didattica in cinque parti costruirai una moderna architettura di flusso di dati per una classifica di gioco in tempo reale utilizzando il servizio gestito da Amazon per Apache Flink Studio. Questa architettura include l'importazione dei dati, l'arricchimento in tempo reale con acquisizione dei dati di modifica del database (CDC), l'elaborazione dei dati, nonché l'elaborazione, l'archiviazione e la visualizzazione dei risultati.