Il modo migliore per iniziare a usare Amazon Kinesis Data Analytics è acquisire esperienza diretta creando un'applicazione di esempio. Accedi alla console di Amazon Kinesis Data Analytics e crea una nuova applicazione correlata. Segui i seguenti passaggi, a seconda che tu scelga (i) un'applicazione Apache Flink utilizzando un IDE (Java, Scala o Python) o un'applicazione Apache Beam (Java), (ii) un'applicazione notebook Studio (Apache Flink SQL, Python o Scala tramite un'esperienza di sviluppo interattiva), oppure (iii) un'applicazione Kinesis Data Analytics basata su SQL tramite un editor di console:

Per iniziare crea un’applicazione Kinesis Data Analytics che legge ed elabora dati in streaming in modo continuo. Scarica le librerie open source di Apache Flink utilizzando il tuo ambiente IDE. poi scrivi il tuo codice dell'applicazione e verificalo con flussi di dati in streaming. È possibile configurare le destinazioni in cui vuoi inviare i risultati di Kinesis Data Analytics.

Puoi ottenere istruzioni su come scaricare le librerie e creare la prima applicazione nella Guida per sviluppatori di Amazon Kinesis Data Analytics per Apache Flink. Qui troverai i componenti necessari per eseguire applicazioni che utilizzano Apache Beam. Puoi trovare il codice equivalente nelle altre lingue supportate da Apache Flink nella documentazione ufficiale di Apache Flink per la versione di Apache Flink che utilizzi su Amazon Kinesis Data Analytics.

Primo passaggio: scarica le librerie open source nel tuo ambiente IDE preferito

Crea un'applicazione Java

Puoi iniziare scaricando le librerie open source che includono il kit SDK AWS, Apache Flink e i connettori per i servizi AWS. 

Codice di esempio Java

Scrivi il codice della tua applicazione Apache Flink utilizzando flussi di dati e operatori di flussi. I flussi di dati dell'applicazione sono la struttura dei dati rispetto ai quali esegui l'elaborazione utilizzando il codice dell'applicazione. I dati fluiscono continuamente dalle origini nei flussi di dati dell'applicazione. Per definire l'elaborazione sui flussi di dati dell'applicazione vengono utilizzati uno o più operatori di flussi.

Terzo passaggio: carica il tuo codice su Kinesis Data Analytics

Configura un'applicazione Java

Una volta creato il codice, caricalo nel servizio Amazon Kinesis Data Analytics, che si occuperà di tutte le operazioni necessarie per eseguire le applicazioni in tempo reale in modo continuo, compreso il ridimensionamento automatico in base al volume e alla velocità di throughput dei dati in entrata.

La sezione della Guida per sviluppatori Nozioni di base su Amazon Kinesis Data Analytics per applicazioni Apache Flink fornisce una spiegazione passo per passo per realizzare la tua prima applicazione.

Utilizza una soluzione preconfigurata per iniziare in modo rapido

Usa la soluzione per i dati in streaming di AWS per Amazon Kinesis per risolvere casi d'uso di streaming in tempo reale, come l'acquisizione di log dell'applicazione a volume elevato, l'analisi dei dati di clickstream, la distribuzione continua a un data lake e molto altro ancora.

Il video di formazione di 15 minuti spiega come utilizzare le applicazioni Apache Flink in Amazon Kinesis Data Analytics informazioni più tempestive dai tuoi dati.

Amazon Kinesis Data Analytics Studio è molto semplice da utilizzare

Per iniziare crea un'applicazione Kinesis Data Analytics Studio. Avvia l'applicazione, apri il notebook Apache Zeppelin e scrivi il codice della tua applicazione in SQL, Python o Scala, con un motore di elaborazione dei flussi supportato da Apache Flink. Testa la tua applicazione con dati in streaming dal vivo ed esplora l'aspetto dei tuoi dati in streaming con le query SQL e la visualizzazione integrata. È possibile configurare le destinazioni in cui vuoi inviare i risultati di Kinesis Data Analytics. Facoltativamente puoi spostare il tuo codice presente nel notebook a un'applicazione di streaming Apache Flink a lunga esecuzione con stato durevole e autoscaling.

Puoi trovare le istruzioni su come iniziare nella Guida per lo sviluppatore Amazon Kinesis Data Analytics Studio. Sono presenti anche esempi per provare varie query SQL e programmi di esempio in Python e Scala sui dati in streaming.

Fase 1: crea un'applicazione Amazon Kinesis Data Analytics Studio

Creare un'applicazione Java

Puoi iniziare dalla console di Amazon Kinesis Data Analytics, Amazon MSK o Amazon Kinesis Data Streams. Puoi anche usare connettori personalizzati per connetterti a qualsiasi altra origine dati.

Codice di esempio Java

È possibile eseguire singoli paragrafi nel notebook, visualizzare i risultati nel contesto e utilizzare la visualizzazione integrata di Apache Zeppelin per accelerare lo sviluppo. Puoi anche usare funzioni definite dall'utente nel codice.

Fase 3: costruisci e distribuisci come applicazione di streaming di Kinesis Data Analytics

Configura un'applicazione Java

Puoi distribuire il tuo codice come applicazione di elaborazione di flussi in esecuzione continua con pochi clic. La tua applicazione distribuita sarà un'applicazione Kinesis Data Analytics per Apache Flink con stato durevole e autoscaling. Puoi anche cambiare le origini, le destinazioni, il logging e i livelli di monitoraggio prima di mettere in produzione il codice.

Nozioni di base su Amazon Kinesis Data Analytics SQL

Per iniziare crea una nuova applicazione Amazon Kinesis Data Analytics. Seleziona il flusso di dati dimostrativo fornito come input, scegli un modello e modifica la query SQL. Puoi vedere immediatamente i risultati nella console, oppure caricarli in Amazon Elasticsearch Service e aprirli con Kibana.  In pochi minuti sarai in grado di distribuire un'applicazione completa di elaborazione di flussi.

Fase 1: configurare il flusso in ingresso

Configura il flusso in ingresso

Prima di tutto, accedi alla console di Amazon Kinesis Data Analytics e seleziona un flusso Kinesis o un flusso di distribuzione di Kinesis Data Firehose in ingresso. Amazon Kinesis Data Analytics acquisisce i dati, procede con il riconoscimento automatico dei formati standard e suggerisce uno schema.  Puoi ottimizzare lo schema oppure, se desideri dati non strutturati, definire un nuovo schema utilizzando un intuitivo editor apposito.

Leggi la documentazione 

Fase 2: scrivere nuove query SQL

Scrivi nuove query SQL

Quindi, puoi scrivere query SQL per elaborare i flussi di dati tramite l'editor SQL di Amazon Kinesis Data Analytics e i modelli precompilati, mettendoli alla prova sui dati reali.

Leggi la documentazione 

Fase 3: configurare il flusso in uscita

Configura il flusso in uscita

Infine, scegli la destinazione in cui desideri caricare i risultati. Amazon Kinesis Data Analytics si integra di default con Amazon Kinesis Data Streams e Amazon Kinesis Data Firehose, perciò è semplice inviare i risultati dell'elaborazione ad Amazon S3, Amazon Redshift, Amazon Elasticsearch Service o ad altre destinazioni personalizzate.

Leggi la documentazione 

Esempi sulle nozioni di base

Queste risorse forniscono esempi di applicazioni di streaming dei dati e istruzioni dettagliate per poterle provare e acquisire esperienza diretta.

Come funziona

Questa Guida per sviluppatori SQL fornisce una panoramica dell'architettura di Amazon Kinesis Data Analytics per la creazione di applicazioni e la configurazione di flussi in ingresso e in uscita.

Nozioni di base

Nella guida alle operazioni di base, ti guidiamo attraverso la configurazione di un account AWS, l'interfaccia a riga di comando (CLI di AWS) e la creazione dell'applicazione starter di Amazon Kinesis Data Analytics

Applicazioni di esempio

La guida di applicazioni di esempio fornisce esempi di codice e istruzioni dettagliate per aiutarti a creare applicazioni Amazon Kinesis Data Analytics per l'analisi dei dati e la verifica dei risultati.

Video dimostrativi

Kinesis Data Analytics è molto semplice da utilizzare. Con i video dimostrativi è ancora più facile, perché forniscono analisi dettagliate di casi di utilizzo comune e di flussi di lavoro di elaborazione di flussi. Inoltre, offrono panoramiche complete sulle caratteristiche chiave dei prodotti che facilitano il lavoro.  Apri i collegamenti di seguito per guardare le registrazioni:

Presentazione di Amazon Kinesis Data Analytics (2:21)
Pannelli di controllo per feed in tempo reale
Come creare allarmi in tempo reale (2:59)
Generazione di analisi di serie di dati temporali (2:32)

Nozioni di base su Amazon Kinesis Data Analytics

Registrati per creare un account AWS
Registrati per creare un account AWS

Ottieni accesso istantaneo al piano gratuito di AWS.

Consulta la Guida alle operazioni di base
Consulta la Guida alle operazioni di base

Scopri come usare Amazon Kinesis Data Analytics con questa guida dettagliata per SQL o Apache Flink.

Inizia a lavorare nella console
Inizia a creare applicazioni di streaming

Crea la tua applicazione di streaming tramite la console di Amazon Kinesis Data Analytics.