Introduzione

I dati devono essere accessibili e analizzati in modo sicuro da applicazioni e persone. I volumi di dati provengono da origini nuove e diverse e aumentano a un ritmo senza precedenti. Le organizzazioni devono estrarre valore dai dati, ma faticano ad acquisire, archiviare e analizzare tutti i dati generati dalle aziende moderne di oggi.

Affrontare queste sfide significa creare un'architettura di dati moderna che scomponga tutti i silos di dati per analisi e approfondimenti, compresi i dati di terze parti, e li metta nelle mani di tutti i membri dell'organizzazione, con una governance end-to-end. Inoltre, è sempre più importante collegare i sistemi di analisi e machine learning (ML) per consentire l'analisi predittiva. 

Questa guida decisionale ti aiuta a porre le domande giuste per creare la tua architettura di dati moderna sui servizi AWS. Spiega come suddividere i silos di dati (collegando il data lake e i data warehouse), i silos di sistema (collegando ML e analisi) e i silos di persone (mettendo i dati nelle mani di tutti i membri dell'organizzazione).

Questo estratto di sei minuti è tratto da una presentazione di un'ora di G2 Krishnamoorthy, VP di AWS Analytics presso re:Invent 2022. Fornisce una panoramica dei servizi di analisi AWS. La presentazione completa illustra lo stato attuale dell'analisi su AWS e le più recenti innovazioni di servizio relative ai dati ed evidenzia i successi dei clienti con l’analisi AWS.

Tempo di lettura

20 minuti

Scopo

Aiutarci a determinare quale/i database AWS sono più adatti alla tua organizzazione.

Livello

Principiante

Ultimo aggiornamento

8 agosto 2023

Scopri

Una moderna strategia dei dati è resa possibile da una serie di elementi tecnologici che consentono di gestire, accedere, analizzare e agire sui dati. Offre inoltre diverse opzioni per connettersi alle origini dati. Una strategia di dati moderna dovrebbe consentire ai tuoi team di:

  • Eseguire analisi o ML utilizzando gli strumenti o le tecniche che preferisci
  • Gestire chi ha accesso ai dati con i controlli adeguati di sicurezza e governance dei dati
  • Scomporre i silos di dati per offrirti il meglio sia dei data lake che dei datastore creati appositamente
  • Archiviare qualsiasi quantità di dati di cui hai bisogno a basso costo e in formati di dati aperti e basati su standard. La moderna architettura dei dati di AWS collega il tuo lago, il tuo magazzino e altri servizi appositamente progettati in un insieme coerente.

L'implementazione di una moderna strategia di dati su AWS si basa sui seguenti cinque principi fondamentali:

Data lake scalabili

Per prendere decisioni rapidamente, è necessario archiviare qualsiasi quantità di dati in formati aperti ed essere in grado di suddividere i silo di dati disconnessi. Potresti anche avere bisogno di consentire alle persone della tua organizzazione di eseguire analisi o ML (utilizzando gli strumenti o le tecniche che preferisci per farlo), oltre a gestire chi può accedere a dati specifici con i controlli di sicurezza e governance dei dati adeguati.

Un'architettura di dati moderna inizia con il data lake. Un data lake consente di archiviare tutti i dati (relazionali, non relazionali, strutturati e non strutturati) a costi contenuti. Con AWS, puoi spostare qualsiasi quantità di dati da vari silos in un data lake Amazon S3. Amazon S3 archivierà quindi i dati utilizzando un formato aperto basato su standard.

Costruito appositamente per prestazioni e costi

Le pipeline di dati on-premise vengono spesso adattate agli strumenti attualmente in uso, fornendo un'esperienza non ottimale. AWS offre una serie ampia e approfondita di servizi dati appositamente progettati che ti consentono di scegliere lo strumento giusto per il lavoro giusto senza dover scendere a compromessi su funzionalità, prestazioni, scalabilità o costi.

Serverless e semplice da utilizzare

Per molti tipi di esigenze di analisi, AWS offre opzioni serverless progettate per consentirti di concentrarti sulla tua applicazione, senza dover toccare alcuna infrastruttura.

Il processo di trasferimento dei dati grezzi in uno stato che possa essere utilizzato per ricavare informazioni aziendali ed eseguito dalla fase di estrazione, trasformazione e caricamento (ETL) della pipeline di dati può essere impegnativo. AWS si sta muovendo verso un approccio zero-ETL (che elimina la necessità di processi ETL tradizionali). Questo approccio ti aiuterà ad analizzare i dati dove si trovano, senza la necessità di utilizzare ETL. Le funzionalità dei servizi AWS che supportano questo approccio includono:


  • Da Amazon Zero-ETL Aurora a Redshift
  • Amazon Redshift Streaming Ingestion direttamente da Kinesis e MSK a Redshift
  • Query federata in Amazon Redshift e Amazon Athena

Accesso, sicurezza e governance dei dati unificati

Una volta che si dispone di un data lake centralizzato e di una raccolta di servizi di analisi appositamente progettati, è necessaria la possibilità di accedere ai dati ovunque si trovino, proteggerli e disporre di policy di governance per conformarsi alle normative pertinenti e alle best practice di sicurezza.

La governance inizia con AWS Lake Formation. Questo servizio ti consente di accedere ai tuoi dati ovunque si trovino, che si trovino in un database, un data warehouse, un datastore creato appositamente o un data lake, e quindi di proteggerli indipendentemente da dove li memorizzi.

Per quanto riguarda la governance dei dati, AWS rileva, etichetta, cataloga e mantiene i dati sincronizzati automaticamente e puoi definire e gestire centralmente le politiche di sicurezza, governance e controllo per soddisfare le normative specifiche del tuo settore e della tua area geografica.

Machine learning integrato

AWS offre un'integrazione incorporata di ML come parte dei suoi servizi di analisi dei dati dedicati. Costruisci, addestra e implementa modelli di machine learning (ML) usando comandi SQL familiari senza nessuna esperienza pregressa di machine learning.

Non è raro utilizzare diversi tipi di archivi dati (relazionali, non relazionali, data warehouse e servizi di analisi) per diversi casi d'uso. AWS offre una gamma di integrazioni per offrirti opzioni per addestrare modelli sui tuoi dati o aggiungere risultati di inferenza direttamente dal tuo archivio dati, senza dover esportare ed elaborare i dati.

Prendi in esame

Esistono molte ragioni per creare una pipeline di analisi su AWS. Potrebbe essere necessario supportare un progetto sperimentale o un progetto pilota come primo passo nel percorso di migrazione al cloud. In alternativa, potresti migrare un carico di lavoro esistente con il minor numero di interruzioni possibile. Qualunque sia il tuo obiettivo, le seguenti considerazioni possono essere utili per fare la tua scelta.

  • Analizza le origini dati e i tipi di dati disponibili per acquisire una comprensione completa della diversità, della frequenza e della qualità dei dati. Scopri gli eventuali problemi nell'elaborazione e nell'analisi dei dati. Questa analisi è fondamentale perché:

    • Le origini dati sono diverse e provengono da vari sistemi, applicazioni, dispositivi e piattaforme esterne.
    • Le origini dati hanno una struttura, un formato e una frequenza di aggiornamento dei dati unici. L'analisi di queste origini aiuta a identificare metodi e tecnologie di raccolta dati adeguati.
    • L'analisi dei tipi di dati, come i dati strutturati, semistrutturati e non strutturati, determina gli approcci appropriati per l'elaborazione e l'archiviazione dei dati.
    • L'analisi delle origini dati e dei tipi di dati facilita la valutazione della qualità dei dati, aiuta a prevedere potenziali problemi di qualità dei dati: valori mancanti, incongruenze o imprecisioni.
  • Determina i requisiti di elaborazione dei dati per il modo in cui i dati vengono acquisiti, trasformati, puliti e preparati per l'analisi. Le principali considerazioni includono:

    • Trasformazione dei dati: determina le trasformazioni specifiche necessarie per rendere i dati grezzi adatti all'analisi. Ciò comporta attività come l'aggregazione, la normalizzazione, il filtraggio e l'arricchimento dei dati.
    • Pulizia dei dati: valuta la qualità dei dati e definisci i processi per gestire i dati mancanti, imprecisi o incoerenti. Implementa tecniche di pulizia dei dati per garantire dati di alta qualità per approfondimenti affidabili.
    • Frequenza di elaborazione: determina se è necessaria l'elaborazione in tempo reale, quasi in tempo reale o in batch in base alle esigenze analitiche. L'elaborazione in tempo reale consente informazioni immediate, mentre l'elaborazione in batch può essere sufficiente per le analisi periodiche.
    • Scalabilità e produttività: valuta i requisiti di scalabilità per la gestione dei volumi di dati, la velocità di elaborazione e il numero di richieste di dati simultanee. Assicurati che l'approccio di elaborazione scelto possa adattarsi alla crescita futura.
    • Latenza: considera la latenza accettabile per l'elaborazione dei dati e il tempo necessario dall'inserimento dei dati ai risultati dell'analisi. Ciò è particolarmente importante per le analisi in tempo reale o sensibili al fattore tempo.
  • Determina le esigenze di archiviazione determinando come e dove vengono archiviati i dati in tutta la pipeline di analisi. Le considerazioni importanti includono:

    • Volume di dati: valuta la quantità di dati generati e raccolti e stima la crescita futura dei dati per pianificare una capacità di archiviazione sufficiente.
    • Conservazione dei dati: definisci la durata per la quale i dati devono essere conservati per l'analisi storica o per scopi di conformità. Determina le policy appropriate di conservazione dei dati.
    • Modelli di accesso ai dati: scopri come verrà effettuato l'accesso ai dati e come verranno interrogati per scegliere la soluzione di archiviazione più adatta. Prendi in considerazione le operazioni di lettura e scrittura, la frequenza di accesso ai dati e la località dei dati.
    • Sicurezza dei dati: dai priorità alla sicurezza dei dati valutando le opzioni di crittografia, i controlli di accesso e i meccanismi di protezione dei dati per salvaguardare le informazioni sensibili.
    • Ottimizzazione dei costi: ottimizza i costi di archiviazione selezionando le soluzioni di archiviazione più convenienti in base ai modelli di accesso e all'utilizzo dei dati.
    • Integrazione con i servizi di analisi: garantisce una perfetta integrazione tra la soluzione di archiviazione scelta e gli strumenti di elaborazione e analisi dei dati nella pipeline.
  • Quando scegli i servizi di analisi per la raccolta e l'inserimento dei dati, prendi in considerazione vari tipi di dati pertinenti alle esigenze e agli obiettivi della tua organizzazione. I tipi comuni di dati che potresti dover prendere in considerazione includono:

    • Dati transazionali: includono informazioni sulle interazioni o transazioni individuali, come acquisti dei clienti, transazioni finanziarie, ordini online e registri delle attività degli utenti.
    • Dati basati su file: si riferisce a dati strutturati o non strutturati archiviati in file, come file di registro, fogli di calcolo, documenti, immagini, file audio e file video. I servizi di analisi dovrebbero supportare l'inserimento di diversi formati di file/
    • Dati sugli eventi: acquisiscono eventi o incidenti significativi, come azioni degli utenti, eventi di sistema, eventi delle macchine o eventi aziendali. Gli eventi possono includere qualsiasi dato che arriva ad alta velocità e che viene acquisito per l'elaborazione on-stream o downstream.
  • La responsabilità operativa è condivisa tra te e AWS, con una divisione delle responsabilità che varia tra diversi livelli di modernizzazione. Hai la possibilità di gestire autonomamente la tua infrastruttura di analisi su AWS o di sfruttare i numerosi servizi di analisi serverless per alleggerire il carico di gestione dell'infrastruttura.

    Le opzioni autogestite garantiscono agli utenti un maggiore controllo sull'infrastruttura e sulle configurazioni, ma richiedono un maggiore impegno operativo.

    Le opzioni serverless eliminano gran parte del carico operativo, fornendo scalabilità automatica, alta disponibilità e solide funzionalità di sicurezza, consentendo agli utenti di concentrarsi maggiormente sulla creazione di soluzioni analitiche e sulla ricerca di informazioni piuttosto che sulla gestione dell'infrastruttura e delle attività operative. Prendi in considerazione questi vantaggi delle soluzioni di analisi serverless:

    • Astrazione dell'infrastruttura: servizi serverless di gestione astratta dell'infrastruttura, che solleva gli utenti dalle attività di provisioning, scalabilità e manutenzione. AWS gestisce questi aspetti operativi, riducendo il sovraccarico di gestione.
    • Scalabilità e prestazioni automatiche: i servizi serverless ridimensionano automaticamente le risorse in base alle richieste del carico di lavoro, garantendo prestazioni ottimali senza interventi manuali.
    • Alta disponibilità e ripristino di emergenza: AWS offre un'elevata disponibilità per i servizi serverless. AWS gestisce la ridondanza, la replica e il ripristino di emergenza dei dati per migliorare la disponibilità e l'affidabilità dei dati.
    • Sicurezza e conformità: AWS gestisce le misure di sicurezza, la crittografia dei dati e la conformità per i servizi serverless, aderendo agli standard e alle best practice del settore.
    • Monitoraggio e registrazione: AWS offre funzionalità integrate di monitoraggio, registrazione e avviso per servizi serverless. Gli utenti possono accedere a parametri e log dettagliati tramite AWS CloudWatch.
  • Quando si crea una pipeline di analisi moderna, decidere i tipi di carico di lavoro da supportare è fondamentale per soddisfare efficacemente le diverse esigenze analitiche. I principali punti decisionali da considerare per ogni tipo di carico di lavoro includono:

    Carico di lavoro in batch

    • Volume e frequenza dei dati: l'elaborazione in batch è adatta per grandi volumi di dati con aggiornamenti periodici.
    • Latenza dei dati: l'elaborazione in batch potrebbe introdurre un certo ritardo nella fornitura di informazioni rispetto all'elaborazione in tempo reale.

    Analisi interattiva

    • Complessità delle interrogazioni sui dati: l'analisi interattiva richiede risposte a bassa latenza per un feedback rapido.
    • Visualizzazione dei dati: valuta la necessità di strumenti interattivi di visualizzazione dei dati per consentire agli utenti aziendali di esplorare i dati visivamente.

    Carichi di lavoro in streaming

    • Velocità e volume dei dati: i carichi di lavoro di streaming richiedono l'elaborazione in tempo reale per gestire dati ad alta velocità.
    • Finestre temporali dei dati: definisci le finestre temporali dei dati e le aggregazioni basate sul tempo per lo streaming dei dati per estrarre informazioni pertinenti.
  • Definisci chiaramente gli obiettivi aziendali e le informazioni che intendi ricavare dalle analisi. I diversi tipi di analisi servono a scopi diversi. Ad esempio:

    • L'analisi descrittiva è ideale per ottenere una panoramica storica
    • L'analisi diagnostica aiuta a comprendere le ragioni alla base degli eventi passati
    • L'analisi predittiva prevede i risultati futuri
    • L'analisi prescrittiva fornisce consigli per azioni ottimali

    Abbina i tuoi obiettivi aziendali ai tipi di analisi pertinenti. Ecco alcuni criteri decisionali chiave per aiutarti a scegliere i tipi di analisi giusti:

    • Disponibilità e qualità dei dati: le analisi descrittive e diagnostiche si basano su dati storici, mentre l'analisi predittiva e prescrittiva richiede dati storici sufficienti e dati di alta qualità per creare modelli accurati.
    • Volume e complessità dei dati: l'analisi predittiva e l’analisi prescrittiva richiedono notevoli risorse di elaborazione e calcolo dei dati. Assicurati che l'infrastruttura e gli strumenti siano in grado di gestire il volume e la complessità dei dati.
    • Complessità decisionale: se le decisioni coinvolgono più variabili, vincoli e obiettivi, l'analisi prescrittiva può essere più adatta a guidare azioni ottimali.
    • Tolleranza al rischio: l'analisi prescrittiva può fornire raccomandazioni, ma comporta incertezze associate. Assicurati che i responsabili delle decisioni comprendano i rischi associati ai risultati dell'analisi.
  • Valuta le esigenze di scalabilità e prestazioni dell'architettura. La progettazione deve gestire volumi di dati crescenti, richieste degli utenti e carichi di lavoro analitici. I fattori decisionali chiave da considerare includono:

    • Volume e crescita dei dati: valuta il volume di dati attuale e anticipa la crescita futura. 
    • Velocità dei dati e requisiti in tempo reale: determina se i dati devono essere elaborati e analizzati in tempo reale o quasi in tempo reale.
    • Complessità dell'elaborazione dei dati: analizza la complessità delle attività di elaborazione e analisi dei dati. Per attività a uso intensivo di calcolo, servizi come Amazon EMR forniscono un ambiente scalabile e gestito per l'elaborazione di big data.
    • Simultaneità e carico utente: considera il numero di utenti simultanei e il livello di carico degli utenti sul sistema. 
    • Funzionalità di scalabilità automatica: prendi in considerazione i servizi che offrono funzionalità di scalabilità automatica, che consentono alle risorse di scalare automaticamente verso l'alto o verso il basso in base alla domanda. Ciò garantisce un utilizzo efficiente delle risorse e l'ottimizzazione dei costi.
    • Distribuzione geografica: prendi in considerazione i servizi con replica globale e accesso ai dati a bassa latenza se la tua architettura dei dati deve essere distribuita su più regioni o posizioni.
    • Compromesso tra costi e prestazioni: bilanciamento delle esigenze prestazionali con considerazioni relative ai costi. I servizi ad alte prestazioni possono avere un costo maggiore.
    • Accordi sui livelli di servizio (SLA): verifica gli SLA forniti dai servizi AWS per assicurarti che soddisfino le tue aspettative di scalabilità e prestazioni.
  • La governance dei dati è l'insieme di processi, policy e controlli che devi implementare per garantire una gestione, qualità, sicurezza e conformità efficaci delle tue risorse di dati. I punti decisionali chiave da considerare includono:

    • Policy di conservazione dei dati: definisci le policy di conservazione dei dati in base ai requisiti normativi e alle esigenze aziendali e stabilisci processi per lo smaltimento sicuro dei dati quando non sono più necessari.
    • Audit trail e registrazione: decidi i meccanismi di registrazione e controllo per monitorare l'accesso e l'utilizzo dei dati. Implementa percorsi di controllo completi per tenere traccia delle modifiche ai dati, dei tentativi di accesso e delle attività degli utenti per il monitoraggio della conformità e della sicurezza.
    • Requisiti di conformità: comprendi le normative di conformità dei dati geografici e di settore che si applicano alla tua organizzazione. Assicurati che l'architettura dei dati sia in linea con queste normative e linee guida.
    • Classificazione dei dati: classifica i dati in base alla loro sensibilità e definisci i controlli di sicurezza appropriati per ciascuna classe di dati. 
    • Ripristino di emergenza e continuità aziendale: pianifica il ripristino di emergenza e la continuità aziendale per garantire la disponibilità e la resilienza dei dati in caso di eventi imprevisti o guasti del sistema.
    • Condivisione di dati con terze parti: se condividi dati con entità terze, implementa protocolli e accordi di condivisione dei dati sicuri per proteggere la riservatezza dei dati e prevenire l'uso improprio dei dati.
  • La sicurezza dei dati nella pipeline di analisi implica la protezione dei dati in ogni fase della pipeline per garantirne la riservatezza, l'integrità e la disponibilità. I punti decisionali chiave da considerare includono:

    • Controllo e autorizzazione degli accessi: implementa solidi protocolli di autenticazione e autorizzazione per garantire che solo gli utenti autorizzati possano accedere a risorse di dati specifiche.
    • Crittografia dei dati: scegli i metodi di crittografia appropriati per i dati archiviati nei database, nei data lake e durante lo spostamento dei dati tra i diversi componenti dell'architettura.
    • Mascheramento e anonimizzazione dei dati: considera la necessità di mascherare o rendere anonimi i dati per proteggere i dati sensibili, come le informazioni personali o i dati aziendali sensibili, consentendo al contempo il proseguimento di determinati processi analitici.
    • Integrazione sicura dei dati: stabilisci pratiche di integrazione dei dati sicure per garantire che i dati fluiscano in modo sicuro tra i diversi componenti dell'architettura, evitando fughe di dati o accessi non autorizzati durante lo spostamento dei dati.
    • Isolamento della rete: prendi in considerazione i servizi che supportano gli endpoint AWS VPC per evitare di esporre le risorse alla rete Internet pubblica.
  • Definisci i punti di integrazione e i flussi di dati tra i vari componenti della pipeline di analisi per garantire un flusso di dati e l'interoperabilità senza interruzioni. I punti decisionali chiave da considerare includono:

    • Integrazione delle fonti di dati: identifica le fonti di dati da cui verranno raccolti i dati, come database, applicazioni, file o API esterne. Decidi i metodi di inserimento dei dati (batch, in tempo reale, basati sugli eventi) per inserire i dati nella pipeline in modo efficiente e con una latenza minima.
    • Trasformazione dei dati: determina le trasformazioni necessarie per preparare i dati per l'analisi. Decidi gli strumenti e i processi per pulire, aggregare, normalizzare o arricchire i dati man mano che si muovono attraverso la pipeline.
    • Architettura di spostamento dei dati: scegli l'architettura appropriata per lo spostamento dei dati tra i componenti della pipeline. Prendi in considerazione l'elaborazione in batch, l'elaborazione in streaming o una combinazione di entrambi in base ai requisiti in tempo reale e al volume di dati.
    • Replica e sincronizzazione dei dati: scegli i meccanismi di replica e sincronizzazione dei dati per mantenere i dati aggiornati su tutti i componenti. Prendi in considerazione soluzioni di replica in tempo reale o sincronizzazioni periodiche dei dati a seconda dei requisiti di aggiornamento dei dati.
    • Qualità e convalida dei dati: implementa controlli e procedure di convalida della qualità dei dati per garantire l'integrità dei dati durante il loro spostamento nella pipeline. Decidi le azioni da intraprendere quando i dati non vengono convalidati, come avvisi o gestione degli errori.
    • Sicurezza e crittografia dei dati: determina in che modo i dati saranno protetti durante il transito e a riposo. Decidi i metodi di crittografia per proteggere i dati sensibili in tutta la pipeline, considerando il livello di sicurezza richiesto in base alla sensibilità dei dati.
    • Scalabilità e resilienza: assicurati che la progettazione del flusso di dati consenta la scalabilità orizzontale e possa gestire un aumento dei volumi e del traffico di dati.
  • La creazione di una pipeline di analisi su AWS offre diverse opportunità di ottimizzazione dei costi. Per garantire l'efficienza in termini di costi, prendi in considerazione le seguenti strategie:

    • Dimensionamento e selezione delle risorse: ridimensiona le risorse in base ai requisiti effettivi del carico di lavoro. Scegli i servizi e i tipi di istanza AWS che soddisfino le esigenze prestazionali dei carichi di lavoro evitando il provisioning eccessivo.
    • Dimensionamento automatico: implementa il dimensionamento automatico per i servizi con carichi di lavoro diversi. Il dimensionamento automatico regola dinamicamente il numero di istanze in base alla domanda, riducendo i costi durante i periodi di traffico ridotto.
    • Istanze spot: utilizza le istanze spot di AWS EC2 per carichi di lavoro non critici e con tolleranza ai guasti. Le istanze spot possono ridurre significativamente i costi rispetto alle istanze on demand.
    • Istanze riservate: prendi in considerazione l'acquisto di istanze riservate AWS per ottenere risparmi significativi sui costi rispetto ai prezzi on demand per carichi di lavoro stabili con un utilizzo prevedibile.
    • Archiviazione dei dati su più livelli: ottimizza i costi di archiviazione dei dati utilizzando diverse classi di archiviazione in base alla frequenza di accesso ai dati.
    • Policy del ciclo di vita dei dati: configura le policy del ciclo di vita dei dati per spostare o eliminare automaticamente i dati in base all'età e ai modelli di utilizzo. Questo aiuta a gestire i costi di archiviazione e mantiene l'archiviazione di dati allineata al suo valore.

Scegli

Ora che conosci i criteri per valutare le tue esigenze di analisi, sei pronto a scegliere quali servizi di analisi AWS sono adatti alle tue esigenze organizzative. La tabella seguente classifica i set di servizi in base a ciò che sarà necessario realizzare per i propri obiettivi aziendali, come l'esecuzione di analisi avanzate, l'esecuzione di analisi predittive o di gestione dei dati e il machine learning.

Aree obiettivo
Chiudi

Analisi avanzata

AWS fornisce un ampio e conveniente insieme di servizi di analisi che consentono di ottenere informazioni più velocemente da tutti i propri dati.

Casi d'uso
Servizi di analisi correlati

Analisi interattiva
Il processo di esecuzione dell'analisi e dell'esplorazione dei dati in tempo reale, che consente agli utenti di interrogare e visualizzare i dati in modo interattivo per ottenere informazioni e prendere decisioni basate sui dati in modo rapido.

Chiudi

Amazon Athena

Amazon Athena è un servizio di analisi interattivo serverless basato su framework open source, che supporta formati di file e tabelle aperte. Athena fornisce un modo semplificato e flessibile per analizzare petabyte di dati dove risiede. Analizza i dati o crea applicazioni da un data lake Amazon S3 e oltre 30 origini dati, incluse origini dei dati on-premise o altri sistemi cloud utilizzando SQL o Python. Athena è basato su motori Trino e Presto open source e framework Apache Spark, senza necessità di provisioning o configurazione.

Elaborazione di big data
I big data sono caratterizzati da tre dimensioni, volume, velocità e varietà. Le soluzioni di elaborazione dei big data mirano a superare le sfide poste dalla vastità e dalla complessità dei big data.

Chiudi

Amazon EMR

Amazon EMR è la soluzione cloud di big data leader del settore per l'elaborazione dei dati a livello di petabyte, l'analisi interattiva e il machine learning che utilizza framework open source come Apache Spark, Apache Hive e Presto.

Data warehousing
L'archiviazione, l'organizzazione e il recupero centralizzati di grandi volumi di dati strutturati e talvolta semistrutturati da varie fonti all'interno di un'organizzazione.

Chiudi

Amazon Redshift

Amazon Redshift utilizza SQL per analizzare dati strutturati e semi-strutturati su data warehouse, database operativi e data lake, utilizzando l'hardware progettato da AWS e il machine learning per offrire le migliori prestazioni in termini di prezzo su qualsiasi scala.

Analisi in tempo reale
Il processo di analisi ed elaborazione dei dati così come vengono generati, ricevuti o ingeriti, senza ritardi significativi.

Chiudi

Analisi dei dati Amazon Kinesis

Con Analisi dei dati Amazon Kinesis puoi trasformare e analizzare dati in streaming in tempo reale con Apache Flink.

Analisi operative
L'uso di analisi e approfondimenti dei dati in tempo reale per ottimizzare e migliorare i processi e le attività operative in corso all'interno di un'organizzazione.

Chiudi

Servizio OpenSearch di AWS

OpenSearch è una suite per l'analisi dei dati e ricerca distribuita, controllata dalla community, con licenza Apache 2.0 e open source al 100% utilizzata per un'ampia gamma di casi d'uso come il monitoraggio delle applicazioni in tempo reale, l'analisi dei dati di log e la ricerca di siti Web. OpenSearch fornisce un sistema altamente scalabile per fornire accesso e risposta rapidi a grandi volumi di dati con uno strumento di visualizzazione integrato, OpenSearch Dashboards, che semplifica l'esplorazione dei dati da parte degli utenti

Pannelli di controllo e visualizzazioni
I pannelli di controllo e le visualizzazioni forniscono una rappresentazione visiva di set di dati complessi, rendendo più facile per gli utenti comprendere modelli, tendenze e approfondimenti a colpo d'occhio. Semplificano la comprensione dei dati, anche per gli utenti non tecnici, presentando le informazioni in modo visivamente accattivante e intuitivo.

Chiudi

Amazon QuickSight

Amazon QuickSight potenzia le organizzazioni basate sui dati con una business intelligence (BI) unificata su larga scala. Con QuickSight, tutti gli utenti possono soddisfare diverse esigenze analitiche partendo dalla stessa fonte di dati tramite dashboard interattivi moderni, report impaginati, analisi integrate e query in linguaggio naturale.

Preparazione dei dati visivi
Utilizzo di strumenti e interfacce visive per esplorare, pulire, trasformare e manipolare i dati in modo visivo e intuitivo.

Chiudi

AWS Glue DataBrew

AWS Glue DataBrew è uno strumento di preparazione visiva dei dati che semplifica la pulizia e la normalizzazione dei dati da parte di analisti e data scientist per prepararli all'analisi e al machine learning. È possibile scegliere tra oltre 250 trasformazioni precostituite per automatizzare le attività di preparazione dei dati, senza dover scrivere alcun codice. 

Chiudi

Gestione dei dati

Questi servizi semplificano la combinazione, il trasferimento e la replica dei dati su più datastore e data lake.

Casi d'uso
Servizi di analisi correlati

Spostamento dati in tempo reale
Lo spostamento dei dati in tempo reale comporta un ritardo minimo nel trasferimento dei dati, in genere entro pochi secondi o millisecondi dalla loro disponibilità.

Chiudi

Amazon MSK

Lo streaming gestito da Amazon per Apache Kafka (Amazon MSK) è un servizio completamente gestito che ti consente una semplice compilazione ed esecuzione delle applicazioni che sfruttano Apache Kafka per elaborare i flussi di dati. Amazon MSK fornisce le operazioni del piano di controllo, come quelle per la creazione, l'aggiornamento e l'eliminazione dei cluster.

Chiudi

Flusso di dati Amazon Kinesis

Flusso di dati Amazon Kinesis è un servizio di streaming dei dati serverless che facilita la cattura, l'elaborazione e l'archiviazione dei flussi di dati su qualsiasi scala.

Chiudi

Amazon Kinesis Data Firehose

Amazon Kinesis Data Firehose è un servizio di estrazione, trasformazione e caricamento (ETL) che acquisisce, trasforma e distribuisce in modo affidabile dati in streaming a data lake, data store e servizi di analisi dei dati.

Chiudi

Flusso di video Amazon Kinesis

Flusso di video Amazon Kinesis semplifica lo streaming in sicurezza di video da dispositivi connessi ad AWS per l'analisi, il machine learning, la riproduzione e altre attività di elaborazione. Effettua automaticamente il provisioning e ricalibra in modo elastico tutta l'infrastruttura necessaria per acquisire i dati dei flussi video da milioni di dispositivi. Permette inoltre di memorizzare, crittografare e indicizzare in modo duraturo i dati video dei flussi, consentendo l'accesso tramite API intuitive.

Chiudi

AWS Glue

AWS Glue è un servizio di integrazione dei dati serverless che facilita la scoperta, la preparazione, lo spostamento e l'integrazione dei dati da più origini per l'analisi, il machine learning (ML) e lo sviluppo di applicazioni.

Governance dei dati
Una serie di processi, policy e linee guida che garantiscono la corretta gestione, disponibilità, usabilità, integrità e sicurezza dei dati durante tutto il loro ciclo di vita.

Chiudi

Amazon DataZone

Usa Amazon DataZone per condividere, cercare e scoprire i dati su larga scala oltre i confini dell'organizzazione. Collabora a progetti di dati attraverso un portale di analisi dei dati unificato che ti offre una visualizzazione personalizzata di tutti i tuoi dati applicando al contempo le tue policy di governance e conformità.

Chiudi

AWS Lake Formation

AWS Lake Formation è un servizio completamente gestito che facilita il processo di costruzione, protezione e gestione dei data lake. Lake Formation semplifica e automatizza molti dei complessi passaggi manuali che di solito sono necessari per creare data lake. Questi passaggi includono la raccolta, la pulizia, lo spostamento e la catalogazione dei dati e la messa a disposizione in modo sicuro di tali dati per l'analisi e il machine learning.

Archiviazione di oggetti per data lake
Un data lake basato su AWS utilizza Amazon S3 come piattaforma di archiviazione principale. Amazon S3 fornisce una base ottimale per un data lake grazie alla sua scalabilità praticamente illimitata e all'elevata durabilità. 

Chiudi

Amazon S3

Amazon Simple Storage Service (Amazon S3) è un servizio di archiviazione di oggetti che offre scalabilità, disponibilità dei dati, sicurezza e prestazioni. Amazon S3 offre funzionalità di gestione che ti consentono di ottimizzare, organizzare e configurare l'accesso ai tuoi dati per soddisfare requisiti aziendali, di pianificazione e di conformità specifici.

Chiudi

AWS Lake Formation

AWS Lake Formation è un servizio completamente gestito che facilita il processo di costruzione, protezione e gestione dei data lake. Lake Formation semplifica e automatizza molti dei complessi passaggi manuali che di solito sono necessari per creare data lake. Questi passaggi includono la raccolta, la pulizia, lo spostamento e la catalogazione dei dati e la messa a disposizione in modo sicuro di tali dati per l'analisi e il machine learning.

Backup e archiviazione per data lake
I data lake, basati su Amazon S3, forniscono alle organizzazioni la disponibilità, l'agilità e la flessibilità necessarie per approcci di analisi moderni per acquisire informazioni più approfondite. La protezione delle informazioni sensibili o critiche per l'azienda archiviate in questi bucket S3 è una priorità assoluta per le organizzazioni.

Chiudi

Amazon S3 Glacier

Le classi di archiviazione di Amazon S3 Glacier sono dedicate all'archiviazione dei dati e forniscono le più alte prestazioni, la massima flessibilità in termini di recupero e il costo di archiviazione più basso nel cloud. Tutte le classi di archiviazione S3 Glacier forniscono una scalabilità virtualmente illimitata e sono progettate per il 99,999999999% (11 nove) di durabilità dei dati. 

Chiudi

Backup AWS

Backup AWS è un servizio a costi ridotti, completamente gestito e basato su policy che semplifica la protezione dei dati su larga scala.

Catalogo dati
Uno strumento di gestione dei metadati, che fornisce informazioni dettagliate sui dati disponibili, sulla loro struttura, caratteristiche e relazioni.

Chiudi

Amazon Glue

AWS Glue è un servizio di integrazione dei dati serverless che facilita la scoperta, la preparazione, lo spostamento e l'integrazione dei dati da più origini per l'analisi, il machine learning (ML) e lo sviluppo di applicazioni.

Dati di terze parti
I dati di terze parti e i dati Software-as-a-Service (SaaS) stanno diventando sempre più importanti per le operazioni aziendali nel moderno panorama basato sui dati.

Chiudi

Scambio dati su AWS

Scambio dati su AWS è un nuovo servizio che semplifica per milioni di clienti AWS la ricerca, la registrazione e l'utilizzo di dati di terze parti in tutta sicurezza nel cloud.

Chiudi

Amazon AppFlow

Grazie ad Amazon AppFlow puoi automatizzare i flussi di dati bidirezionali tra le applicazioni SaaS e i servizi AWS in pochi clic. Esegui flussi di dati alla frequenza che stabilisci: pianificata, in risposta a un evento aziendale oppure on demand. 

Chiudi

Analisi predittiva e machine learning

Per i casi d’uso di analisi predittiva, AWS offre una vasto set di servizi di machine learning e strumenti che vengono eseguiti sul tuo data lake AWS.

Casi d'uso
Servizi di analisi correlati

Framework e interfacce
L'infrastruttura AWS ML supporta tutti i principali framework ML. 

Chiudi

AWS Deep Learning AMI

AWS Deep Learning AMI (DLAMI) forniscono ai professionisti e ai ricercatori del ML una serie di framework, dipendenze e strumenti consolidati curati e sicuri per accelerare il deep learning nel cloud. Create per Amazon Linux e Ubuntu, le Amazon Machine Image (AMI) sono preconfigurate con TensorFlow, PyTorch, Apache MXNet, Chainer, Microsoft Cognitive Toolkit, Gluon, Horovod, e Keras, e permettono di implementare ed eseguire rapidamente questi framework e strumenti su vasta scala.

Servizi della piattaforma
Infrastruttura completamente gestita per la creazione, l'addestramento e la distribuzione di modelli di machine learning. 

Chiudi

Amazon SageMaker

Costruisci, addestra e implementa modelli di machine learning (ML) per qualsiasi caso d'uso con infrastrutture, strumenti e flussi di lavoro completamente gestiti.

Integrazioni dirette dei dati
Creazione, addestramento e implementazione di modelli di machine learning (ML) usando comandi SQL comuni.

Chiudi

Amazon Athena ML

Athena ML ti consente di creare e distribuire modelli ML in Amazon SageMaker e utilizzare le funzioni SQL in Amazon Athena per generare previsioni dai tuoi modelli SageMaker. 

Ciò consente ai team di analisi di rendere disponibili informazioni basate su modelli agli utenti aziendali e agli analisti senza la necessità di strumenti e infrastrutture specializzati.

Chiudi

Amazon QuickSight ML

QuickSight ML Insights sfrutta le comprovate funzionalità di machine learning e linguaggio naturale di AWS per aiutarti a ottenere informazioni più approfondite dai tuoi dati. Queste potenti funzionalità pronte all'uso consentono a chiunque di scoprire facilmente tendenze nascoste e anomalie, identificare i principali fattori di business ed eseguire potenti analisi e previsioni ipotetiche senza bisogno di competenze tecniche o esperienza di machine learning.

Chiudi

Amazon Redshift ML

Amazon Redshift ML consente agli analisti di dati e agli sviluppatori di database di creare, addestrare e applicare modelli di machine learning utilizzando i comuni comandi SQL nei data warehouse di Amazon Redshift. Con Redshift ML, puoi sfruttare Amazon SageMaker, un servizio di machine learning completamente gestito, senza dover apprendere l’uso di nuovi strumenti o linguaggi. Basta usare le istruzioni SQL per creare e addestrare modelli di machine learning di Amazon SageMaker, utilizzando i dati Redshift, e quindi utilizzare questi modelli per fare previsioni.

Utilizza

Ora dovresti avere una chiara comprensione dei tuoi obiettivi aziendali e del volume e della velocità dei dati che acquisirai e analizzerai per iniziare a creare le tue pipeline di dati.

Per scoprire come utilizzare e saperne di più su ciascuno dei servizi di integrazione delle applicazioni AWS disponibili, abbiamo creato un percorso dove puoi esplorare il funzionamento di ciascuno dei servizi. Le sezioni seguenti forniscono collegamenti a documentazione approfondita, tutorial pratici e risorse per iniziare dall'utilizzo di base a immersioni approfondite più avanzate.

Analisi avanzata

  • Analisi interattiva
  • Amazon Athena

    Nozioni di base su Amazon Athena

    Scopri come usare Amazon Athena per interrogare i dati e creare una tabella basata su dati di esempio archiviati in Amazon S3, interrogare la tabella e verificare i risultati della query.

    Inizia con il tutorial »

    Amazon Athena

    Inizia a usare Apache Spark su Amazon Athena

    Usa l'esperienza notebook semplificata nella console Amazon Athena per sviluppare applicazioni Apache Spark utilizzando le API per notebook Python o Athena.

    Inizia con il tutorial »

    Amazon Athena

    AWS re:Invent 2022 - Novità in Amazon Athena

    Scopri come puoi integrare Athena nei tuoi dati, applicandolo a tutti i tuoi dati, compresi data lake, origini esterne e altro ancora.


    Guarda la sessione »

    Amazon Athena

    Analisi dei dati in S3 utilizzando Amazon Athena
     
    Scopri come utilizzare Athena sui log di Elastic Load Balancer, generati come file di testo in un formato predefinito. Ti mostriamo come creare una tabella, partizionare i dati in un formato usato da Athena, convertirli in Parquet e confrontare le prestazioni delle query.

    Leggi il post del blog »

  • Elaborazione di big data
  • Amazon EMR

    Nozioni di base su AWS EMR

    Scopri come avviare un cluster di esempio utilizzando Spark e come eseguire un semplice script PySpark archiviato in un bucket Amazon S3.
     


    Inizia con il tutorial »


    Amazon EMR

    Nozioni di base su Amazon EMR su EKS
     

    Ti mostriamo come iniziare a usare Amazon EMR su EKS implementando un'applicazione Spark su un cluster virtuale.

    Inizia con il tutorial »

    Amazon EMR

    Nozioni di base su EMR serverless
     

    Scopri come EMR serverless fornisce un ambiente di runtime serverless che semplifica il funzionamento delle applicazioni di analisi che utilizzano i framework open source più recenti.

    Inizia con il tutorial »

    Amazon EMR

    Novità di Amazon EMR  

    Scopri gli ultimi sviluppi di Amazon EMR, tra cui Amazon EMR serverless, Amazon EMR Studio e altro ancora.

    Guarda la sessione »

  • Data warehousing
  • Amazon Redshift

    Nozioni di base su Amazon Redshift

    Scopri il flusso di base di Amazon Redshift serverless per creare risorse serverless, connetterti ad Amazon Redshift serverless, caricare dati di esempio ed eseguire query sui dati.

    Esplora la guida »

    Amazon Redshift

    Modernizza il tuo data warehouse


    Scopri come utilizzare le nuove funzionalità di Amazon Redshift per modernizzare il tuo data warehouse ottenendo l'accesso a tutti i tuoi dati.



    Guarda il video »

    Amazon Redshift

    Implementa un data warehouse su AWS


    Scopri come creare e configurare un data warehouse Amazon Redshift, caricare dati di esempio e analizzarli utilizzando un client SQL.


    Inizia con il tutorial »

    Amazon Redshift

    Workshop di approfondimento su Amazon Redshift

    Esplora una serie di esercizi che aiutano gli utenti a iniziare a utilizzare la piattaforma Redshift.

    Inizia con il workshop »

  • Analisi in tempo reale
  • Analisi dei dati Amazon Kinesis

    Nozioni di base su Analisi dei dati Amazon Kinesis per Apache Flink
     

    Scopri i concetti fondamentali di Kinesis Data Analytics per Apache Flink e dell'API DataStream.

    Esplora la guida »

    Analisi dei dati Amazon Kinesis

    Workshop sull'analisi dello streaming
     


    Scopri come costruire un'architettura di streaming end-to-end per importare, analizzare e visualizzare i dati di streaming quasi in tempo reale.

    Inizia con il workshop »

    Analisi dei dati Amazon Kinesis

    Presentazione di Analisi dei dati Amazon Kinesis per le applicazioni java
     

    Il video di formazione di 15 minuti spiega come utilizzare le applicazioni Apache Flink in Analisi dei dati Amazon Kinesis per ottenere informazioni più tempestive dai tuoi dati.

    Guarda la sessione (è richiesto il login) »

    Analisi dei dati Amazon Kinesis

    Laboratorio clickstream

    Laboratorio completo per un caso d'uso clickstream utilizzando Amazon MSK per l’archiviazione in streaming e Amazon KDA per le applicazioni Java con il motore Apache Flink per l'elaborazione dello streaming.

    Inizia con il laboratorio »

  • Analisi operative
  • Servizio OpenSearch di Amazon

    Nozioni di base sul servizio OpenSearch di Amazon


    Scopri come utilizzare il servizio OpenSearch di Amazon per creare e configurare un dominio di test.

     





    Inizia con il tutorial »

    Servizio OpenSearch di Amazon

    Visualizzazione delle chiamate all'assistenza clienti con il servizio OpenSearch e OpenSearch Dashboards

    Scopri una panoramica completa della seguente situazione: un'azienda riceve un certo numero di chiamate all'assistenza clienti e desidera analizzarle. Qual è l'oggetto di ogni chiamata? Quante sono state positive? Quante erano negative? In che modo i responsabili possono cercare o rivedere le trascrizioni di queste chiamate?

    Inizia con il tutorial »

    Servizio OpenSearch di Amazon

    Workshop Nozioni di base su Amazon OpenSearch serverless

    Scopri come configurare un nuovo dominio Amazon OpenSearch serverless nella console AWS. Esplora i diversi tipi di query di ricerca disponibili e progetta visualizzazioni accattivanti e scopri come proteggere il tuo dominio e i tuoi documenti in base ai privilegi utente assegnati.


    Inizia con il workshop »

    Servizio OpenSearch di Amazon

    Creazione di una soluzione di analisi dei log con il servizio OpenSearch di Amazon

    Scopri come dimensionare un cluster OpenSearch per un carico di lavoro di analisi dei log. 


    Leggi il post del blog »

  • Pannelli di controllo e visualizzazioni
  • Amazon QuickSight

    Nozioni di base sull'analisi dei dati di Amazon QuickSight

    Scopri come creare la tua prima analisi. Usa dati di esempio per creare un'analisi semplice o più avanzata. Oppure puoi connetterti ai tuoi dati per creare un'analisi.


    Esplora la guida »

    Amazon QuickSight

    Visualizzazione con QuickSight


    Scopri il lato tecnico della business intelligence (BI) e della visualizzazione dei dati con AWS. Scopri come incorporare i pannelli di controllo in applicazioni e siti Web e gestire in modo sicuro l'accesso e le autorizzazioni.

    Inizia con il corso »

    Amazon QuickSight

    Workshop QuickSight


    Inizia subito il tuo percorso verso QuickSight con i workshop.

     



    Inizia con i workshop »

  • Preparazione dei dati visivi
  • AWS Glue DataBrew

    Nozioni di base su AWS Glue DataBrew

    Scopri come creare il tuo primo progetto DataBrew. Carichi un set di dati di esempio, esegui trasformazioni su quel set di dati, crei una ricetta per acquisire tali trasformazioni ed esegui un processo per scrivere i dati trasformati su Amazon S3.

    Inizia con il tutorial »

    AWS Glue DataBrew

    Trasformazione dei dati con AWS Glue DataBrew

    Scopri di più su AWS Glue DataBrew, un nuovo strumento di preparazione visiva dei dati che semplifica la pulizia e la normalizzazione dei dati da parte di analisti e data scientist per prepararli all'analisi e al machine learning. Scopri come creare un processo ETL utilizzando AWS Glue DataBrew.

    Inizia con i laboratori »

    AWS Glue DataBrew

    Giornata immersiva AWS Glue DataBrew

    Scopri come utilizzare AWS Glue DataBrew per pulire e normalizzare i dati a fini di analisi e machine learning. 





    Inizia con il workshop »

Gestione dei dati

  • Spostamento dati in tempo reale
  • Flusso di dati Amazon Kinesis

    Guida introduttiva all'acquisizione di streaming da un flusso di dati Amazon Kinesis

    Scopri come trasmettere direttamente i dati da un flusso di dati Kinesis ad Amazon Redshift, riducendo il tempo necessario per l'accesso ai dati e riducendo i costi di storage.

    Esplora la guida »

    Amazon MSK

    Guida introduttiva all'inserimento in streaming da Amazon Managed Streaming per Apache Kafka

    Scopri come trasmettere direttamente i dati da Amazon MSK ad Amazon Redshift, riducendo i tempi di accesso ai dati e i costi di archiviazione.

    Esplora la guida »

    Amazon Redshift

    Nozioni di base sull’integrazione Zero-ETL Amazon Aurora con Amazon Redshift

    Scopri come iniziare a utilizzare analisi operative quasi in tempo reale con l'integrazione Zero-ETL di Amazon Aurora con Amazon Redshift.

    Leggi il post del blog »

    AWS Glue

    Workshop Giornata immersiva con AWS Glue
     
    Collabora in diversi laboratori pratici per mostrarti come risolvere problemi reali utilizzando AWS Glue e i servizi AWS associati.


    Inizia con il workshop »

    Amazon Kinesis Firehose

    Giornata immersiva in Amazon Kinesis Data Firehose

    Scopri come inserire facilmente dati di streaming in Amazon OpenSearch e Amazon Redshift con pochi passaggi di configurazione.


    Inizia con il workshop »

    Flusso di video Amazon Kinesis

    Workshop Flusso di video Amazon Kinesis

    Scopri come importare e archiviare video da dispositivi con fotocamera, riprodurli dal vivo e su richiesta e scaricare file video utilizzando Flusso di video Amazon Kinesis.

    Inizia con il workshop »

  • Governance dei dati
  • AWS Lake Formation

    Centralizza la governance per il tuo data lake utilizzando AWS Lake Formation

    Scopri come utilizzare AWS Lake Formation per centralizzare la governance dei dati e la gestione dell'accesso ai dati utilizzando Amazon Redshift Spectrum per interrogare il tuo data lake.  

    Leggi il post del blog »

     

    Amazon EMR

    Nozioni di base su Amazon DataZone
     


    Scopri come creare il dominio root di Amazon DataZone, ottenere l'URL del portale dati, esaminare i flussi di lavoro di base di Amazon DataZone per producer e consumer di dati.

    Esplora la guida »

    Amazon EMR

    Nozioni di base su EMR serverless
     



    Scopri come EMR serverless fornisce un ambiente di runtime serverless che semplifica il funzionamento delle applicazioni di analisi che utilizzano il framework open source più recente..

    Esplora la guida »

  • Archiviazione di oggetti per data lake
  • AWS Lake Formation

    Nozioni di base su AWS Lake Formation

    Scopri come configurare Lake Formation per la prima volta per gestire gli oggetti e le posizioni dei dati esistenti del Catalogo dati AWS Glue in Amazon S3.

    Esplora la guida »

    AWS Lake Formation

    Workshop su AWS Lake Formation


    Scopri come usare AWS Lake Formation per creare, proteggere e gestire un data lake su AWS.



    Inizia con il workshop »

    Amazon S3

    Archiviazione centrale: Amazon S3 come piattaforma di archiviazione per data lake

    Scopri come Amazon S3 è una base ottimale per un data lake grazie alla sua scalabilità praticamente illimitata e all'elevata durabilità.


    Leggi il whitepaper »

  • Catalogo dati
  • Catalogo dati AWS Glue

    Catalogo dati e crawler in AWS Glue

    Scopri come utilizzare le informazioni nel Catalogo dati per creare e monitorare i tuoi processi ETL.


    Esplora la guida »

    Catalogo dati AWS Glue

    Nozioni di base sul Catalogo dati AWS Glue

    Scopri come creare il tuo primo catalogo dati AWS Glue, che utilizza un bucket Amazon S3 come origine dati.

    Inizia con il tutorial »

  • Dati di terze parti
  • Scambio dati su AWS

    Operazioni preliminari come abbonato di Scambio dati su AWS

    Scopri il processo completo per diventare abbonato a un prodotto di dati su Scambio dati su AWS utilizzando la console Scambio dati su AWS.

    Esplora la guida »

    Scambio dati su AWS

    Operazioni preliminari come fornitore di Scambio dati su AWS

    Scopri il processo completo per diventare un fornitore di prodotti dati su Scambio dati su AWS utilizzando la console Scambio dati su AWS.

    Esplora la guida »

    Amazon AppFlow icon

    Nozioni di base su Amazon AppFlow

    Scopri Amazon AppFlow e i prerequisiti per iniziare.



    Esplora la guida »

    Scambio dati su AWS

    Workshop su Scambio dati su AWS

    Esplora i laboratori self-service che puoi utilizzare per comprendere e imparare come i servizi AWS possono essere utilizzati insieme a dati di terze parti per aggiungere approfondimenti ai tuoi progetti di analisi dei dati.  

    Inizia con il workshop »

    Amazon AppFlow icon

    Workshop Amazon AppFlow

    Scopri Amazon AppFlow e come trasferire facilmente dati tra i servizi SaaS più diffusi e AWS.



    Inizia con il workshop »

Analisi predittiva e ML

  • Framework e interfacce
  • AMI di deep learning Amazon

    Inizia a usare le AMI di deep learning AWS

    Scopri i suggerimenti su come scegliere il DLAMI più adatto a te, selezionare un tipo di istanza adatto al tuo caso d'uso e al tuo budget e informazioni aggiuntive che descrivono le configurazioni personalizzate.
    Esplora la guida »

    AMI Deep Learning di Amazon

    Tutorial sulle AMI Deep Learning


    Set di tutorial per mostrarti come utilizzare l'AMI Deep Learning con il software Conda.



    Inizia con i tutorial »

    Amazon Deep Learning AMI

    Inizia a utilizzare il deep learning con AWS Deep Learning AMI

    Scopri le AMI (Amazon Machine Images) Deep Learning di AWS, che ti consentono di creare ambienti e flussi di lavoro personalizzati.


    Leggi il post del blog »

  • Servizi della piattaforma
  • Amazon SageMaker

    Come funziona Amazon SageMaker


    Esplora la panoramica del machine learning e di Amazon su come funziona SageMaker. 



    Esplora la guida »

    Amazon SageMaker

    Nozioni di base su Amazon SageMaker

    Ti mostriamo come iniziare a usare Amazon EMR su EKS implementando un'applicazione Spark su un cluster virtuale.

    Esplora la guida »

    Amazon SageMaker

    Generazione di previsioni di machine learning senza scrivere codice
     

    Scopri come utilizzare Amazon SageMaker Canvas per creare modelli di machine learning (ML) e generare previsioni accurate senza scrivere una singola riga di codice.

    Inizia con il tutorial »

  • Integrazioni dirette dei dati
  • AWS Athena ML

    Utilizzo del machine learning con Amazon Athena

    Scopri in che modo il ML con Amazon Athena ti consente di usare Athena per scrivere istruzioni SQL che eseguono inferenze di machine learning (ML) tramite Amazon SageMaker.



    Esplora la guida »

    AWS QuickSight ML

    Ottenere informazioni dettagliate con il machine learning in Amazon QuickSight

    Scopri come le funzionalità di machine learning e linguaggio naturale di Amazon QuickSight Enterprise Edition ti spingono oltre l'analisi descrittiva e diagnostica e ti introducono nella previsione e nel processo decisionale.

    Esplora la guida »

    AWS Redshift ML

    Nozioni di base su Amazon Redshift ML

    Scopri come utilizzare i dati nel tuo cluster Redshift per addestrare modelli con Amazon SageMaker.





    Esplora la guida »

    AWS Neptune ML

    Come iniziare a utilizzare Neptune ML

    Ti mostriamo come configurare facilmente Neptune ML e dedurre le proprietà dei vertici all'interno di un grafo.

    Leggi il post del blog »

Esplora

Diagrammi di architettura

Esplora i diagrammi dell'architettura sviluppare, scalare e testare i tuoi database su AWS.

Esplora i diagrammi di architettura »

 

Whitepaper

Esplora i whitepaper per iniziare, apprendere le best practice e scoprire le tue opzioni di analisi.

Esplora i whitepaper »

 

Soluzioni AWS

Esplora soluzioni verificate e linee guida architettoniche per i casi d'uso più comuni per i servizi di analisi.

Esplora le soluzioni »

 

Questa pagina è stata utile?