per supportare un'architettura di dati moderna
Introduzione
I dati devono essere accessibili e analizzati in modo sicuro da applicazioni e persone. I volumi di dati provengono da origini nuove e diverse e aumentano a un ritmo senza precedenti. Le organizzazioni devono estrarre valore dai dati, ma faticano ad acquisire, archiviare e analizzare tutti i dati generati dalle aziende moderne di oggi.
Affrontare queste sfide significa creare un'architettura di dati moderna che scomponga tutti i silos di dati per analisi e approfondimenti, compresi i dati di terze parti, e li metta nelle mani di tutti i membri dell'organizzazione, con una governance end-to-end. Inoltre, è sempre più importante collegare i sistemi di analisi e machine learning (ML) per consentire l'analisi predittiva.
Questa guida decisionale ti aiuta a porre le domande giuste per creare la tua architettura di dati moderna sui servizi AWS. Spiega come suddividere i silos di dati (collegando il data lake e i data warehouse), i silos di sistema (collegando ML e analisi) e i silos di persone (mettendo i dati nelle mani di tutti i membri dell'organizzazione).
Questo estratto di sei minuti è tratto da una presentazione di un'ora di G2 Krishnamoorthy, VP di AWS Analytics presso re:Invent 2022. Fornisce una panoramica dei servizi di analisi AWS. La presentazione completa illustra lo stato attuale dell'analisi su AWS e le più recenti innovazioni di servizio relative ai dati ed evidenzia i successi dei clienti con l’analisi AWS.
Tempo di lettura
20 minuti
Scopo
Aiutarci a determinare quale/i database AWS sono più adatti alla tua organizzazione.
Livello
Principiante
Ultimo aggiornamento
8 agosto 2023
Servizi coperti
Altre guide decisionali su
Scopri
Una moderna strategia dei dati è resa possibile da una serie di elementi tecnologici che consentono di gestire, accedere, analizzare e agire sui dati. Offre inoltre diverse opzioni per connettersi alle origini dati. Una strategia di dati moderna dovrebbe consentire ai tuoi team di:
- Eseguire analisi o ML utilizzando gli strumenti o le tecniche che preferisci
- Gestire chi ha accesso ai dati con i controlli adeguati di sicurezza e governance dei dati
- Scomporre i silos di dati per offrirti il meglio sia dei data lake che dei datastore creati appositamente
- Archiviare qualsiasi quantità di dati di cui hai bisogno a basso costo e in formati di dati aperti e basati su standard. La moderna architettura dei dati di AWS collega il tuo lago, il tuo magazzino e altri servizi appositamente progettati in un insieme coerente.
L'implementazione di una moderna strategia di dati su AWS si basa sui seguenti cinque principi fondamentali:
Data lake scalabili
Per prendere decisioni rapidamente, è necessario archiviare qualsiasi quantità di dati in formati aperti ed essere in grado di suddividere i silo di dati disconnessi. Potresti anche avere bisogno di consentire alle persone della tua organizzazione di eseguire analisi o ML (utilizzando gli strumenti o le tecniche che preferisci per farlo), oltre a gestire chi può accedere a dati specifici con i controlli di sicurezza e governance dei dati adeguati.
Un'architettura di dati moderna inizia con il data lake. Un data lake consente di archiviare tutti i dati (relazionali, non relazionali, strutturati e non strutturati) a costi contenuti. Con AWS, puoi spostare qualsiasi quantità di dati da vari silos in un data lake Amazon S3. Amazon S3 archivierà quindi i dati utilizzando un formato aperto basato su standard.
Costruito appositamente per prestazioni e costi
Le pipeline di dati on-premise vengono spesso adattate agli strumenti attualmente in uso, fornendo un'esperienza non ottimale. AWS offre una serie ampia e approfondita di servizi dati appositamente progettati che ti consentono di scegliere lo strumento giusto per il lavoro giusto senza dover scendere a compromessi su funzionalità, prestazioni, scalabilità o costi.
Serverless e semplice da utilizzare
Per molti tipi di esigenze di analisi, AWS offre opzioni serverless progettate per consentirti di concentrarti sulla tua applicazione, senza dover toccare alcuna infrastruttura.
Il processo di trasferimento dei dati grezzi in uno stato che possa essere utilizzato per ricavare informazioni aziendali ed eseguito dalla fase di estrazione, trasformazione e caricamento (ETL) della pipeline di dati può essere impegnativo. AWS si sta muovendo verso un approccio zero-ETL (che elimina la necessità di processi ETL tradizionali). Questo approccio ti aiuterà ad analizzare i dati dove si trovano, senza la necessità di utilizzare ETL. Le funzionalità dei servizi AWS che supportano questo approccio includono:
- Da Amazon Zero-ETL Aurora a Redshift
- Amazon Redshift Streaming Ingestion direttamente da Kinesis e MSK a Redshift
- Query federata in Amazon Redshift e Amazon Athena
Accesso, sicurezza e governance dei dati unificati
Una volta che si dispone di un data lake centralizzato e di una raccolta di servizi di analisi appositamente progettati, è necessaria la possibilità di accedere ai dati ovunque si trovino, proteggerli e disporre di policy di governance per conformarsi alle normative pertinenti e alle best practice di sicurezza.
La governance inizia con AWS Lake Formation. Questo servizio ti consente di accedere ai tuoi dati ovunque si trovino, che si trovino in un database, un data warehouse, un datastore creato appositamente o un data lake, e quindi di proteggerli indipendentemente da dove li memorizzi.
Per quanto riguarda la governance dei dati, AWS rileva, etichetta, cataloga e mantiene i dati sincronizzati automaticamente e puoi definire e gestire centralmente le politiche di sicurezza, governance e controllo per soddisfare le normative specifiche del tuo settore e della tua area geografica.
Machine learning integrato
AWS offre un'integrazione incorporata di ML come parte dei suoi servizi di analisi dei dati dedicati. Costruisci, addestra e implementa modelli di machine learning (ML) usando comandi SQL familiari senza nessuna esperienza pregressa di machine learning.
Non è raro utilizzare diversi tipi di archivi dati (relazionali, non relazionali, data warehouse e servizi di analisi) per diversi casi d'uso. AWS offre una gamma di integrazioni per offrirti opzioni per addestrare modelli sui tuoi dati o aggiungere risultati di inferenza direttamente dal tuo archivio dati, senza dover esportare ed elaborare i dati.
Prendi in esame
Esistono molte ragioni per creare una pipeline di analisi su AWS. Potrebbe essere necessario supportare un progetto sperimentale o un progetto pilota come primo passo nel percorso di migrazione al cloud. In alternativa, potresti migrare un carico di lavoro esistente con il minor numero di interruzioni possibile. Qualunque sia il tuo obiettivo, le seguenti considerazioni possono essere utili per fare la tua scelta.
-
Valuta le origini dati e i tipi di dati
-
Requisiti di elaborazione dei dati
-
Requisiti di archiviazione
-
Tipi di dati
-
Ulteriori considerazioni
-
Tipo di carico di lavoro
-
Tipo di analisi necessario
-
Valutazione di scalabilità e prestazioni
-
Governance dei dati
-
Sicurezza
-
Piano per l'integrazione e i flussi di dati
-
Architetto per l'ottimizzazione dei costi
-
Analizza le origini dati e i tipi di dati disponibili per acquisire una comprensione completa della diversità, della frequenza e della qualità dei dati. Scopri gli eventuali problemi nell'elaborazione e nell'analisi dei dati. Questa analisi è fondamentale perché:
- Le origini dati sono diverse e provengono da vari sistemi, applicazioni, dispositivi e piattaforme esterne.
- Le origini dati hanno una struttura, un formato e una frequenza di aggiornamento dei dati unici. L'analisi di queste origini aiuta a identificare metodi e tecnologie di raccolta dati adeguati.
- L'analisi dei tipi di dati, come i dati strutturati, semistrutturati e non strutturati, determina gli approcci appropriati per l'elaborazione e l'archiviazione dei dati.
- L'analisi delle origini dati e dei tipi di dati facilita la valutazione della qualità dei dati, aiuta a prevedere potenziali problemi di qualità dei dati: valori mancanti, incongruenze o imprecisioni.
-
Determina i requisiti di elaborazione dei dati per il modo in cui i dati vengono acquisiti, trasformati, puliti e preparati per l'analisi. Le principali considerazioni includono:
- Trasformazione dei dati: determina le trasformazioni specifiche necessarie per rendere i dati grezzi adatti all'analisi. Ciò comporta attività come l'aggregazione, la normalizzazione, il filtraggio e l'arricchimento dei dati.
- Pulizia dei dati: valuta la qualità dei dati e definisci i processi per gestire i dati mancanti, imprecisi o incoerenti. Implementa tecniche di pulizia dei dati per garantire dati di alta qualità per approfondimenti affidabili.
- Frequenza di elaborazione: determina se è necessaria l'elaborazione in tempo reale, quasi in tempo reale o in batch in base alle esigenze analitiche. L'elaborazione in tempo reale consente informazioni immediate, mentre l'elaborazione in batch può essere sufficiente per le analisi periodiche.
- Scalabilità e produttività: valuta i requisiti di scalabilità per la gestione dei volumi di dati, la velocità di elaborazione e il numero di richieste di dati simultanee. Assicurati che l'approccio di elaborazione scelto possa adattarsi alla crescita futura.
- Latenza: considera la latenza accettabile per l'elaborazione dei dati e il tempo necessario dall'inserimento dei dati ai risultati dell'analisi. Ciò è particolarmente importante per le analisi in tempo reale o sensibili al fattore tempo.
-
Determina le esigenze di archiviazione determinando come e dove vengono archiviati i dati in tutta la pipeline di analisi. Le considerazioni importanti includono:
- Volume di dati: valuta la quantità di dati generati e raccolti e stima la crescita futura dei dati per pianificare una capacità di archiviazione sufficiente.
- Conservazione dei dati: definisci la durata per la quale i dati devono essere conservati per l'analisi storica o per scopi di conformità. Determina le policy appropriate di conservazione dei dati.
- Modelli di accesso ai dati: scopri come verrà effettuato l'accesso ai dati e come verranno interrogati per scegliere la soluzione di archiviazione più adatta. Prendi in considerazione le operazioni di lettura e scrittura, la frequenza di accesso ai dati e la località dei dati.
- Sicurezza dei dati: dai priorità alla sicurezza dei dati valutando le opzioni di crittografia, i controlli di accesso e i meccanismi di protezione dei dati per salvaguardare le informazioni sensibili.
- Ottimizzazione dei costi: ottimizza i costi di archiviazione selezionando le soluzioni di archiviazione più convenienti in base ai modelli di accesso e all'utilizzo dei dati.
- Integrazione con i servizi di analisi: garantisce una perfetta integrazione tra la soluzione di archiviazione scelta e gli strumenti di elaborazione e analisi dei dati nella pipeline.
-
Quando scegli i servizi di analisi per la raccolta e l'inserimento dei dati, prendi in considerazione vari tipi di dati pertinenti alle esigenze e agli obiettivi della tua organizzazione. I tipi comuni di dati che potresti dover prendere in considerazione includono:
- Dati transazionali: includono informazioni sulle interazioni o transazioni individuali, come acquisti dei clienti, transazioni finanziarie, ordini online e registri delle attività degli utenti.
- Dati basati su file: si riferisce a dati strutturati o non strutturati archiviati in file, come file di registro, fogli di calcolo, documenti, immagini, file audio e file video. I servizi di analisi dovrebbero supportare l'inserimento di diversi formati di file/
- Dati sugli eventi: acquisiscono eventi o incidenti significativi, come azioni degli utenti, eventi di sistema, eventi delle macchine o eventi aziendali. Gli eventi possono includere qualsiasi dato che arriva ad alta velocità e che viene acquisito per l'elaborazione on-stream o downstream.
-
La responsabilità operativa è condivisa tra te e AWS, con una divisione delle responsabilità che varia tra diversi livelli di modernizzazione. Hai la possibilità di gestire autonomamente la tua infrastruttura di analisi su AWS o di sfruttare i numerosi servizi di analisi serverless per alleggerire il carico di gestione dell'infrastruttura.
Le opzioni autogestite garantiscono agli utenti un maggiore controllo sull'infrastruttura e sulle configurazioni, ma richiedono un maggiore impegno operativo.
Le opzioni serverless eliminano gran parte del carico operativo, fornendo scalabilità automatica, alta disponibilità e solide funzionalità di sicurezza, consentendo agli utenti di concentrarsi maggiormente sulla creazione di soluzioni analitiche e sulla ricerca di informazioni piuttosto che sulla gestione dell'infrastruttura e delle attività operative. Prendi in considerazione questi vantaggi delle soluzioni di analisi serverless:
- Astrazione dell'infrastruttura: servizi serverless di gestione astratta dell'infrastruttura, che solleva gli utenti dalle attività di provisioning, scalabilità e manutenzione. AWS gestisce questi aspetti operativi, riducendo il sovraccarico di gestione.
- Scalabilità e prestazioni automatiche: i servizi serverless ridimensionano automaticamente le risorse in base alle richieste del carico di lavoro, garantendo prestazioni ottimali senza interventi manuali.
- Alta disponibilità e ripristino di emergenza: AWS offre un'elevata disponibilità per i servizi serverless. AWS gestisce la ridondanza, la replica e il ripristino di emergenza dei dati per migliorare la disponibilità e l'affidabilità dei dati.
- Sicurezza e conformità: AWS gestisce le misure di sicurezza, la crittografia dei dati e la conformità per i servizi serverless, aderendo agli standard e alle best practice del settore.
- Monitoraggio e registrazione: AWS offre funzionalità integrate di monitoraggio, registrazione e avviso per servizi serverless. Gli utenti possono accedere a parametri e log dettagliati tramite AWS CloudWatch.
-
Quando si crea una pipeline di analisi moderna, decidere i tipi di carico di lavoro da supportare è fondamentale per soddisfare efficacemente le diverse esigenze analitiche. I principali punti decisionali da considerare per ogni tipo di carico di lavoro includono:
Carico di lavoro in batch
- Volume e frequenza dei dati: l'elaborazione in batch è adatta per grandi volumi di dati con aggiornamenti periodici.
- Latenza dei dati: l'elaborazione in batch potrebbe introdurre un certo ritardo nella fornitura di informazioni rispetto all'elaborazione in tempo reale.
Analisi interattiva
- Complessità delle interrogazioni sui dati: l'analisi interattiva richiede risposte a bassa latenza per un feedback rapido.
- Visualizzazione dei dati: valuta la necessità di strumenti interattivi di visualizzazione dei dati per consentire agli utenti aziendali di esplorare i dati visivamente.
Carichi di lavoro in streaming
- Velocità e volume dei dati: i carichi di lavoro di streaming richiedono l'elaborazione in tempo reale per gestire dati ad alta velocità.
- Finestre temporali dei dati: definisci le finestre temporali dei dati e le aggregazioni basate sul tempo per lo streaming dei dati per estrarre informazioni pertinenti.
-
Definisci chiaramente gli obiettivi aziendali e le informazioni che intendi ricavare dalle analisi. I diversi tipi di analisi servono a scopi diversi. Ad esempio:
- L'analisi descrittiva è ideale per ottenere una panoramica storica
- L'analisi diagnostica aiuta a comprendere le ragioni alla base degli eventi passati
- L'analisi predittiva prevede i risultati futuri
- L'analisi prescrittiva fornisce consigli per azioni ottimali
Abbina i tuoi obiettivi aziendali ai tipi di analisi pertinenti. Ecco alcuni criteri decisionali chiave per aiutarti a scegliere i tipi di analisi giusti:
- Disponibilità e qualità dei dati: le analisi descrittive e diagnostiche si basano su dati storici, mentre l'analisi predittiva e prescrittiva richiede dati storici sufficienti e dati di alta qualità per creare modelli accurati.
- Volume e complessità dei dati: l'analisi predittiva e l’analisi prescrittiva richiedono notevoli risorse di elaborazione e calcolo dei dati. Assicurati che l'infrastruttura e gli strumenti siano in grado di gestire il volume e la complessità dei dati.
- Complessità decisionale: se le decisioni coinvolgono più variabili, vincoli e obiettivi, l'analisi prescrittiva può essere più adatta a guidare azioni ottimali.
- Tolleranza al rischio: l'analisi prescrittiva può fornire raccomandazioni, ma comporta incertezze associate. Assicurati che i responsabili delle decisioni comprendano i rischi associati ai risultati dell'analisi.
-
Valuta le esigenze di scalabilità e prestazioni dell'architettura. La progettazione deve gestire volumi di dati crescenti, richieste degli utenti e carichi di lavoro analitici. I fattori decisionali chiave da considerare includono:
- Volume e crescita dei dati: valuta il volume di dati attuale e anticipa la crescita futura.
- Velocità dei dati e requisiti in tempo reale: determina se i dati devono essere elaborati e analizzati in tempo reale o quasi in tempo reale.
- Complessità dell'elaborazione dei dati: analizza la complessità delle attività di elaborazione e analisi dei dati. Per attività a uso intensivo di calcolo, servizi come Amazon EMR forniscono un ambiente scalabile e gestito per l'elaborazione di big data.
- Simultaneità e carico utente: considera il numero di utenti simultanei e il livello di carico degli utenti sul sistema.
- Funzionalità di scalabilità automatica: prendi in considerazione i servizi che offrono funzionalità di scalabilità automatica, che consentono alle risorse di scalare automaticamente verso l'alto o verso il basso in base alla domanda. Ciò garantisce un utilizzo efficiente delle risorse e l'ottimizzazione dei costi.
- Distribuzione geografica: prendi in considerazione i servizi con replica globale e accesso ai dati a bassa latenza se la tua architettura dei dati deve essere distribuita su più regioni o posizioni.
- Compromesso tra costi e prestazioni: bilanciamento delle esigenze prestazionali con considerazioni relative ai costi. I servizi ad alte prestazioni possono avere un costo maggiore.
- Accordi sui livelli di servizio (SLA): verifica gli SLA forniti dai servizi AWS per assicurarti che soddisfino le tue aspettative di scalabilità e prestazioni.
-
La governance dei dati è l'insieme di processi, policy e controlli che devi implementare per garantire una gestione, qualità, sicurezza e conformità efficaci delle tue risorse di dati. I punti decisionali chiave da considerare includono:
- Policy di conservazione dei dati: definisci le policy di conservazione dei dati in base ai requisiti normativi e alle esigenze aziendali e stabilisci processi per lo smaltimento sicuro dei dati quando non sono più necessari.
- Audit trail e registrazione: decidi i meccanismi di registrazione e controllo per monitorare l'accesso e l'utilizzo dei dati. Implementa percorsi di controllo completi per tenere traccia delle modifiche ai dati, dei tentativi di accesso e delle attività degli utenti per il monitoraggio della conformità e della sicurezza.
- Requisiti di conformità: comprendi le normative di conformità dei dati geografici e di settore che si applicano alla tua organizzazione. Assicurati che l'architettura dei dati sia in linea con queste normative e linee guida.
- Classificazione dei dati: classifica i dati in base alla loro sensibilità e definisci i controlli di sicurezza appropriati per ciascuna classe di dati.
- Ripristino di emergenza e continuità aziendale: pianifica il ripristino di emergenza e la continuità aziendale per garantire la disponibilità e la resilienza dei dati in caso di eventi imprevisti o guasti del sistema.
- Condivisione di dati con terze parti: se condividi dati con entità terze, implementa protocolli e accordi di condivisione dei dati sicuri per proteggere la riservatezza dei dati e prevenire l'uso improprio dei dati.
- Policy di conservazione dei dati: definisci le policy di conservazione dei dati in base ai requisiti normativi e alle esigenze aziendali e stabilisci processi per lo smaltimento sicuro dei dati quando non sono più necessari.
-
La sicurezza dei dati nella pipeline di analisi implica la protezione dei dati in ogni fase della pipeline per garantirne la riservatezza, l'integrità e la disponibilità. I punti decisionali chiave da considerare includono:
- Controllo e autorizzazione degli accessi: implementa solidi protocolli di autenticazione e autorizzazione per garantire che solo gli utenti autorizzati possano accedere a risorse di dati specifiche.
- Crittografia dei dati: scegli i metodi di crittografia appropriati per i dati archiviati nei database, nei data lake e durante lo spostamento dei dati tra i diversi componenti dell'architettura.
- Mascheramento e anonimizzazione dei dati: considera la necessità di mascherare o rendere anonimi i dati per proteggere i dati sensibili, come le informazioni personali o i dati aziendali sensibili, consentendo al contempo il proseguimento di determinati processi analitici.
- Integrazione sicura dei dati: stabilisci pratiche di integrazione dei dati sicure per garantire che i dati fluiscano in modo sicuro tra i diversi componenti dell'architettura, evitando fughe di dati o accessi non autorizzati durante lo spostamento dei dati.
- Isolamento della rete: prendi in considerazione i servizi che supportano gli endpoint AWS VPC per evitare di esporre le risorse alla rete Internet pubblica.
-
Definisci i punti di integrazione e i flussi di dati tra i vari componenti della pipeline di analisi per garantire un flusso di dati e l'interoperabilità senza interruzioni. I punti decisionali chiave da considerare includono:
- Integrazione delle fonti di dati: identifica le fonti di dati da cui verranno raccolti i dati, come database, applicazioni, file o API esterne. Decidi i metodi di inserimento dei dati (batch, in tempo reale, basati sugli eventi) per inserire i dati nella pipeline in modo efficiente e con una latenza minima.
- Trasformazione dei dati: determina le trasformazioni necessarie per preparare i dati per l'analisi. Decidi gli strumenti e i processi per pulire, aggregare, normalizzare o arricchire i dati man mano che si muovono attraverso la pipeline.
- Architettura di spostamento dei dati: scegli l'architettura appropriata per lo spostamento dei dati tra i componenti della pipeline. Prendi in considerazione l'elaborazione in batch, l'elaborazione in streaming o una combinazione di entrambi in base ai requisiti in tempo reale e al volume di dati.
- Replica e sincronizzazione dei dati: scegli i meccanismi di replica e sincronizzazione dei dati per mantenere i dati aggiornati su tutti i componenti. Prendi in considerazione soluzioni di replica in tempo reale o sincronizzazioni periodiche dei dati a seconda dei requisiti di aggiornamento dei dati.
- Qualità e convalida dei dati: implementa controlli e procedure di convalida della qualità dei dati per garantire l'integrità dei dati durante il loro spostamento nella pipeline. Decidi le azioni da intraprendere quando i dati non vengono convalidati, come avvisi o gestione degli errori.
- Sicurezza e crittografia dei dati: determina in che modo i dati saranno protetti durante il transito e a riposo. Decidi i metodi di crittografia per proteggere i dati sensibili in tutta la pipeline, considerando il livello di sicurezza richiesto in base alla sensibilità dei dati.
- Scalabilità e resilienza: assicurati che la progettazione del flusso di dati consenta la scalabilità orizzontale e possa gestire un aumento dei volumi e del traffico di dati.
-
La creazione di una pipeline di analisi su AWS offre diverse opportunità di ottimizzazione dei costi. Per garantire l'efficienza in termini di costi, prendi in considerazione le seguenti strategie:
- Dimensionamento e selezione delle risorse: ridimensiona le risorse in base ai requisiti effettivi del carico di lavoro. Scegli i servizi e i tipi di istanza AWS che soddisfino le esigenze prestazionali dei carichi di lavoro evitando il provisioning eccessivo.
- Dimensionamento automatico: implementa il dimensionamento automatico per i servizi con carichi di lavoro diversi. Il dimensionamento automatico regola dinamicamente il numero di istanze in base alla domanda, riducendo i costi durante i periodi di traffico ridotto.
- Istanze spot: utilizza le istanze spot di AWS EC2 per carichi di lavoro non critici e con tolleranza ai guasti. Le istanze spot possono ridurre significativamente i costi rispetto alle istanze on demand.
- Istanze riservate: prendi in considerazione l'acquisto di istanze riservate AWS per ottenere risparmi significativi sui costi rispetto ai prezzi on demand per carichi di lavoro stabili con un utilizzo prevedibile.
- Archiviazione dei dati su più livelli: ottimizza i costi di archiviazione dei dati utilizzando diverse classi di archiviazione in base alla frequenza di accesso ai dati.
- Policy del ciclo di vita dei dati: configura le policy del ciclo di vita dei dati per spostare o eliminare automaticamente i dati in base all'età e ai modelli di utilizzo. Questo aiuta a gestire i costi di archiviazione e mantiene l'archiviazione di dati allineata al suo valore.
Scegli
Ora che conosci i criteri per valutare le tue esigenze di analisi, sei pronto a scegliere quali servizi di analisi AWS sono adatti alle tue esigenze organizzative. La tabella seguente classifica i set di servizi in base a ciò che sarà necessario realizzare per i propri obiettivi aziendali, come l'esecuzione di analisi avanzate, l'esecuzione di analisi predittive o di gestione dei dati e il machine learning.
Analisi avanzata
AWS fornisce un ampio e conveniente insieme di servizi di analisi che consentono di ottenere informazioni più velocemente da tutti i propri dati.
Analisi interattiva
Il processo di esecuzione dell'analisi e dell'esplorazione dei dati in tempo reale, che consente agli utenti di interrogare e visualizzare i dati in modo interattivo per ottenere informazioni e prendere decisioni basate sui dati in modo rapido.
Amazon Athena
Amazon Athena è un servizio di analisi interattivo serverless basato su framework open source, che supporta formati di file e tabelle aperte. Athena fornisce un modo semplificato e flessibile per analizzare petabyte di dati dove risiede. Analizza i dati o crea applicazioni da un data lake Amazon S3 e oltre 30 origini dati, incluse origini dei dati on-premise o altri sistemi cloud utilizzando SQL o Python. Athena è basato su motori Trino e Presto open source e framework Apache Spark, senza necessità di provisioning o configurazione.
Elaborazione di big data
I big data sono caratterizzati da tre dimensioni, volume, velocità e varietà. Le soluzioni di elaborazione dei big data mirano a superare le sfide poste dalla vastità e dalla complessità dei big data.
Amazon EMR è la soluzione cloud di big data leader del settore per l'elaborazione dei dati a livello di petabyte, l'analisi interattiva e il machine learning che utilizza framework open source come Apache Spark, Apache Hive e Presto.
Data warehousing
L'archiviazione, l'organizzazione e il recupero centralizzati di grandi volumi di dati strutturati e talvolta semistrutturati da varie fonti all'interno di un'organizzazione.
Amazon Redshift utilizza SQL per analizzare dati strutturati e semi-strutturati su data warehouse, database operativi e data lake, utilizzando l'hardware progettato da AWS e il machine learning per offrire le migliori prestazioni in termini di prezzo su qualsiasi scala.
Analisi in tempo reale
Il processo di analisi ed elaborazione dei dati così come vengono generati, ricevuti o ingeriti, senza ritardi significativi.
Analisi dei dati Amazon Kinesis
Con Analisi dei dati Amazon Kinesis puoi trasformare e analizzare dati in streaming in tempo reale con Apache Flink.
Analisi operative
L'uso di analisi e approfondimenti dei dati in tempo reale per ottimizzare e migliorare i processi e le attività operative in corso all'interno di un'organizzazione.
OpenSearch è una suite per l'analisi dei dati e ricerca distribuita, controllata dalla community, con licenza Apache 2.0 e open source al 100% utilizzata per un'ampia gamma di casi d'uso come il monitoraggio delle applicazioni in tempo reale, l'analisi dei dati di log e la ricerca di siti Web. OpenSearch fornisce un sistema altamente scalabile per fornire accesso e risposta rapidi a grandi volumi di dati con uno strumento di visualizzazione integrato, OpenSearch Dashboards, che semplifica l'esplorazione dei dati da parte degli utenti
Pannelli di controllo e visualizzazioni
I pannelli di controllo e le visualizzazioni forniscono una rappresentazione visiva di set di dati complessi, rendendo più facile per gli utenti comprendere modelli, tendenze e approfondimenti a colpo d'occhio. Semplificano la comprensione dei dati, anche per gli utenti non tecnici, presentando le informazioni in modo visivamente accattivante e intuitivo.
Amazon QuickSight potenzia le organizzazioni basate sui dati con una business intelligence (BI) unificata su larga scala. Con QuickSight, tutti gli utenti possono soddisfare diverse esigenze analitiche partendo dalla stessa fonte di dati tramite dashboard interattivi moderni, report impaginati, analisi integrate e query in linguaggio naturale.
Preparazione dei dati visivi
Utilizzo di strumenti e interfacce visive per esplorare, pulire, trasformare e manipolare i dati in modo visivo e intuitivo.
AWS Glue DataBrew
AWS Glue DataBrew è uno strumento di preparazione visiva dei dati che semplifica la pulizia e la normalizzazione dei dati da parte di analisti e data scientist per prepararli all'analisi e al machine learning. È possibile scegliere tra oltre 250 trasformazioni precostituite per automatizzare le attività di preparazione dei dati, senza dover scrivere alcun codice.
Gestione dei dati
Questi servizi semplificano la combinazione, il trasferimento e la replica dei dati su più datastore e data lake.
Spostamento dati in tempo reale
Lo spostamento dei dati in tempo reale comporta un ritardo minimo nel trasferimento dei dati, in genere entro pochi secondi o millisecondi dalla loro disponibilità.
Lo streaming gestito da Amazon per Apache Kafka (Amazon MSK) è un servizio completamente gestito che ti consente una semplice compilazione ed esecuzione delle applicazioni che sfruttano Apache Kafka per elaborare i flussi di dati. Amazon MSK fornisce le operazioni del piano di controllo, come quelle per la creazione, l'aggiornamento e l'eliminazione dei cluster.
Flusso di dati Amazon Kinesis è un servizio di streaming dei dati serverless che facilita la cattura, l'elaborazione e l'archiviazione dei flussi di dati su qualsiasi scala.
Amazon Kinesis Data Firehose è un servizio di estrazione, trasformazione e caricamento (ETL) che acquisisce, trasforma e distribuisce in modo affidabile dati in streaming a data lake, data store e servizi di analisi dei dati.
Flusso di video Amazon Kinesis
Flusso di video Amazon Kinesis semplifica lo streaming in sicurezza di video da dispositivi connessi ad AWS per l'analisi, il machine learning, la riproduzione e altre attività di elaborazione. Effettua automaticamente il provisioning e ricalibra in modo elastico tutta l'infrastruttura necessaria per acquisire i dati dei flussi video da milioni di dispositivi. Permette inoltre di memorizzare, crittografare e indicizzare in modo duraturo i dati video dei flussi, consentendo l'accesso tramite API intuitive.
Governance dei dati
Una serie di processi, policy e linee guida che garantiscono la corretta gestione, disponibilità, usabilità, integrità e sicurezza dei dati durante tutto il loro ciclo di vita.
Usa Amazon DataZone per condividere, cercare e scoprire i dati su larga scala oltre i confini dell'organizzazione. Collabora a progetti di dati attraverso un portale di analisi dei dati unificato che ti offre una visualizzazione personalizzata di tutti i tuoi dati applicando al contempo le tue policy di governance e conformità.
AWS Lake Formation è un servizio completamente gestito che facilita il processo di costruzione, protezione e gestione dei data lake. Lake Formation semplifica e automatizza molti dei complessi passaggi manuali che di solito sono necessari per creare data lake. Questi passaggi includono la raccolta, la pulizia, lo spostamento e la catalogazione dei dati e la messa a disposizione in modo sicuro di tali dati per l'analisi e il machine learning.
Archiviazione di oggetti per data lake
Un data lake basato su AWS utilizza Amazon S3 come piattaforma di archiviazione principale. Amazon S3 fornisce una base ottimale per un data lake grazie alla sua scalabilità praticamente illimitata e all'elevata durabilità.
Amazon Simple Storage Service (Amazon S3) è un servizio di archiviazione di oggetti che offre scalabilità, disponibilità dei dati, sicurezza e prestazioni. Amazon S3 offre funzionalità di gestione che ti consentono di ottimizzare, organizzare e configurare l'accesso ai tuoi dati per soddisfare requisiti aziendali, di pianificazione e di conformità specifici.
AWS Lake Formation è un servizio completamente gestito che facilita il processo di costruzione, protezione e gestione dei data lake. Lake Formation semplifica e automatizza molti dei complessi passaggi manuali che di solito sono necessari per creare data lake. Questi passaggi includono la raccolta, la pulizia, lo spostamento e la catalogazione dei dati e la messa a disposizione in modo sicuro di tali dati per l'analisi e il machine learning.
Backup e archiviazione per data lake
I data lake, basati su Amazon S3, forniscono alle organizzazioni la disponibilità, l'agilità e la flessibilità necessarie per approcci di analisi moderni per acquisire informazioni più approfondite. La protezione delle informazioni sensibili o critiche per l'azienda archiviate in questi bucket S3 è una priorità assoluta per le organizzazioni.
Le classi di archiviazione di Amazon S3 Glacier sono dedicate all'archiviazione dei dati e forniscono le più alte prestazioni, la massima flessibilità in termini di recupero e il costo di archiviazione più basso nel cloud. Tutte le classi di archiviazione S3 Glacier forniscono una scalabilità virtualmente illimitata e sono progettate per il 99,999999999% (11 nove) di durabilità dei dati.
Backup AWS è un servizio a costi ridotti, completamente gestito e basato su policy che semplifica la protezione dei dati su larga scala.
Catalogo dati
Uno strumento di gestione dei metadati, che fornisce informazioni dettagliate sui dati disponibili, sulla loro struttura, caratteristiche e relazioni.
AWS Glue è un servizio di integrazione dei dati serverless che facilita la scoperta, la preparazione, lo spostamento e l'integrazione dei dati da più origini per l'analisi, il machine learning (ML) e lo sviluppo di applicazioni.
Dati di terze parti
I dati di terze parti e i dati Software-as-a-Service (SaaS) stanno diventando sempre più importanti per le operazioni aziendali nel moderno panorama basato sui dati.
Scambio dati su AWS è un nuovo servizio che semplifica per milioni di clienti AWS la ricerca, la registrazione e l'utilizzo di dati di terze parti in tutta sicurezza nel cloud.
Grazie ad Amazon AppFlow puoi automatizzare i flussi di dati bidirezionali tra le applicazioni SaaS e i servizi AWS in pochi clic. Esegui flussi di dati alla frequenza che stabilisci: pianificata, in risposta a un evento aziendale oppure on demand.
Analisi predittiva e machine learning
Per i casi d’uso di analisi predittiva, AWS offre una vasto set di servizi di machine learning e strumenti che vengono eseguiti sul tuo data lake AWS.
Framework e interfacce
L'infrastruttura AWS ML supporta tutti i principali framework ML.
AWS Deep Learning AMI (DLAMI) forniscono ai professionisti e ai ricercatori del ML una serie di framework, dipendenze e strumenti consolidati curati e sicuri per accelerare il deep learning nel cloud. Create per Amazon Linux e Ubuntu, le Amazon Machine Image (AMI) sono preconfigurate con TensorFlow, PyTorch, Apache MXNet, Chainer, Microsoft Cognitive Toolkit, Gluon, Horovod, e Keras, e permettono di implementare ed eseguire rapidamente questi framework e strumenti su vasta scala.
Servizi della piattaforma
Infrastruttura completamente gestita per la creazione, l'addestramento e la distribuzione di modelli di machine learning.
Costruisci, addestra e implementa modelli di machine learning (ML) per qualsiasi caso d'uso con infrastrutture, strumenti e flussi di lavoro completamente gestiti.
Integrazioni dirette dei dati
Creazione, addestramento e implementazione di modelli di machine learning (ML) usando comandi SQL comuni.
Athena ML ti consente di creare e distribuire modelli ML in Amazon SageMaker e utilizzare le funzioni SQL in Amazon Athena per generare previsioni dai tuoi modelli SageMaker.
Ciò consente ai team di analisi di rendere disponibili informazioni basate su modelli agli utenti aziendali e agli analisti senza la necessità di strumenti e infrastrutture specializzati.
QuickSight ML Insights sfrutta le comprovate funzionalità di machine learning e linguaggio naturale di AWS per aiutarti a ottenere informazioni più approfondite dai tuoi dati. Queste potenti funzionalità pronte all'uso consentono a chiunque di scoprire facilmente tendenze nascoste e anomalie, identificare i principali fattori di business ed eseguire potenti analisi e previsioni ipotetiche senza bisogno di competenze tecniche o esperienza di machine learning.
Amazon Redshift ML consente agli analisti di dati e agli sviluppatori di database di creare, addestrare e applicare modelli di machine learning utilizzando i comuni comandi SQL nei data warehouse di Amazon Redshift. Con Redshift ML, puoi sfruttare Amazon SageMaker, un servizio di machine learning completamente gestito, senza dover apprendere l’uso di nuovi strumenti o linguaggi. Basta usare le istruzioni SQL per creare e addestrare modelli di machine learning di Amazon SageMaker, utilizzando i dati Redshift, e quindi utilizzare questi modelli per fare previsioni.
Utilizza
Ora dovresti avere una chiara comprensione dei tuoi obiettivi aziendali e del volume e della velocità dei dati che acquisirai e analizzerai per iniziare a creare le tue pipeline di dati.
Per scoprire come utilizzare e saperne di più su ciascuno dei servizi di integrazione delle applicazioni AWS disponibili, abbiamo creato un percorso dove puoi esplorare il funzionamento di ciascuno dei servizi. Le sezioni seguenti forniscono collegamenti a documentazione approfondita, tutorial pratici e risorse per iniziare dall'utilizzo di base a immersioni approfondite più avanzate.
Analisi avanzata
-
Analisi interattiva
-
Elaborazione di big data
-
Data warehousing
-
Analisi in tempo reale
-
Analisi operative
-
Pannelli di controllo e visualizzazioni
-
Preparazione dei dati visivi
-
Analisi interattiva
-
Nozioni di base su Amazon Athena
Scopri come usare Amazon Athena per interrogare i dati e creare una tabella basata su dati di esempio archiviati in Amazon S3, interrogare la tabella e verificare i risultati della query.
Inizia a usare Apache Spark su Amazon Athena
Usa l'esperienza notebook semplificata nella console Amazon Athena per sviluppare applicazioni Apache Spark utilizzando le API per notebook Python o Athena.
AWS re:Invent 2022 - Novità in Amazon Athena
Scopri come puoi integrare Athena nei tuoi dati, applicandolo a tutti i tuoi dati, compresi data lake, origini esterne e altro ancora.
Guarda la sessione »Analisi dei dati in S3 utilizzando Amazon Athena
Scopri come utilizzare Athena sui log di Elastic Load Balancer, generati come file di testo in un formato predefinito. Ti mostriamo come creare una tabella, partizionare i dati in un formato usato da Athena, convertirli in Parquet e confrontare le prestazioni delle query.
-
Elaborazione di big data
-
Nozioni di base su AWS EMR
Scopri come avviare un cluster di esempio utilizzando Spark e come eseguire un semplice script PySpark archiviato in un bucket Amazon S3.
Nozioni di base su Amazon EMR su EKS
Ti mostriamo come iniziare a usare Amazon EMR su EKS implementando un'applicazione Spark su un cluster virtuale.
Nozioni di base su EMR serverless
Scopri come EMR serverless fornisce un ambiente di runtime serverless che semplifica il funzionamento delle applicazioni di analisi che utilizzano i framework open source più recenti.Novità di Amazon EMR
Scopri gli ultimi sviluppi di Amazon EMR, tra cui Amazon EMR serverless, Amazon EMR Studio e altro ancora.
-
Data warehousing
-
Nozioni di base su Amazon Redshift
Scopri il flusso di base di Amazon Redshift serverless per creare risorse serverless, connetterti ad Amazon Redshift serverless, caricare dati di esempio ed eseguire query sui dati.Modernizza il tuo data warehouse
Scopri come utilizzare le nuove funzionalità di Amazon Redshift per modernizzare il tuo data warehouse ottenendo l'accesso a tutti i tuoi dati.
Implementa un data warehouse su AWS
Scopri come creare e configurare un data warehouse Amazon Redshift, caricare dati di esempio e analizzarli utilizzando un client SQL.
Workshop di approfondimento su Amazon Redshift
Esplora una serie di esercizi che aiutano gli utenti a iniziare a utilizzare la piattaforma Redshift.
-
Analisi in tempo reale
-
Nozioni di base su Analisi dei dati Amazon Kinesis per Apache Flink
Scopri i concetti fondamentali di Kinesis Data Analytics per Apache Flink e dell'API DataStream.
Esplora la guida »
Workshop sull'analisi dello streaming
Scopri come costruire un'architettura di streaming end-to-end per importare, analizzare e visualizzare i dati di streaming quasi in tempo reale.
Presentazione di Analisi dei dati Amazon Kinesis per le applicazioni java
Il video di formazione di 15 minuti spiega come utilizzare le applicazioni Apache Flink in Analisi dei dati Amazon Kinesis per ottenere informazioni più tempestive dai tuoi dati.
Laboratorio clickstream
Laboratorio completo per un caso d'uso clickstream utilizzando Amazon MSK per l’archiviazione in streaming e Amazon KDA per le applicazioni Java con il motore Apache Flink per l'elaborazione dello streaming.
-
Analisi operative
-
Nozioni di base sul servizio OpenSearch di Amazon
Scopri come utilizzare il servizio OpenSearch di Amazon per creare e configurare un dominio di test.Visualizzazione delle chiamate all'assistenza clienti con il servizio OpenSearch e OpenSearch Dashboards
Scopri una panoramica completa della seguente situazione: un'azienda riceve un certo numero di chiamate all'assistenza clienti e desidera analizzarle. Qual è l'oggetto di ogni chiamata? Quante sono state positive? Quante erano negative? In che modo i responsabili possono cercare o rivedere le trascrizioni di queste chiamate?
Workshop Nozioni di base su Amazon OpenSearch serverless
Scopri come configurare un nuovo dominio Amazon OpenSearch serverless nella console AWS. Esplora i diversi tipi di query di ricerca disponibili e progetta visualizzazioni accattivanti e scopri come proteggere il tuo dominio e i tuoi documenti in base ai privilegi utente assegnati.
Creazione di una soluzione di analisi dei log con il servizio OpenSearch di Amazon
Scopri come dimensionare un cluster OpenSearch per un carico di lavoro di analisi dei log.
-
Pannelli di controllo e visualizzazioni
-
Nozioni di base sull'analisi dei dati di Amazon QuickSight
Scopri come creare la tua prima analisi. Usa dati di esempio per creare un'analisi semplice o più avanzata. Oppure puoi connetterti ai tuoi dati per creare un'analisi.
Visualizzazione con QuickSight
Scopri il lato tecnico della business intelligence (BI) e della visualizzazione dei dati con AWS. Scopri come incorporare i pannelli di controllo in applicazioni e siti Web e gestire in modo sicuro l'accesso e le autorizzazioni.
Workshop QuickSight
Inizia subito il tuo percorso verso QuickSight con i workshop. -
Preparazione dei dati visivi
-
Nozioni di base su AWS Glue DataBrew
Scopri come creare il tuo primo progetto DataBrew. Carichi un set di dati di esempio, esegui trasformazioni su quel set di dati, crei una ricetta per acquisire tali trasformazioni ed esegui un processo per scrivere i dati trasformati su Amazon S3.
Trasformazione dei dati con AWS Glue DataBrew
Scopri di più su AWS Glue DataBrew, un nuovo strumento di preparazione visiva dei dati che semplifica la pulizia e la normalizzazione dei dati da parte di analisti e data scientist per prepararli all'analisi e al machine learning. Scopri come creare un processo ETL utilizzando AWS Glue DataBrew.
Giornata immersiva AWS Glue DataBrew
Scopri come utilizzare AWS Glue DataBrew per pulire e normalizzare i dati a fini di analisi e machine learning.
Gestione dei dati
-
Spostamento dati in tempo reale
-
Governance dei dati
-
Archiviazione di oggetti per data lake
-
Catalogo dati
-
Dati di terze parti
-
Spostamento dati in tempo reale
-
Guida introduttiva all'acquisizione di streaming da un flusso di dati Amazon Kinesis
Scopri come trasmettere direttamente i dati da un flusso di dati Kinesis ad Amazon Redshift, riducendo il tempo necessario per l'accesso ai dati e riducendo i costi di storage.
Guida introduttiva all'inserimento in streaming da Amazon Managed Streaming per Apache Kafka
Scopri come trasmettere direttamente i dati da Amazon MSK ad Amazon Redshift, riducendo i tempi di accesso ai dati e i costi di archiviazione.
Nozioni di base sull’integrazione Zero-ETL Amazon Aurora con Amazon Redshift
Scopri come iniziare a utilizzare analisi operative quasi in tempo reale con l'integrazione Zero-ETL di Amazon Aurora con Amazon Redshift.
Workshop Giornata immersiva con AWS Glue
Collabora in diversi laboratori pratici per mostrarti come risolvere problemi reali utilizzando AWS Glue e i servizi AWS associati.
Giornata immersiva in Amazon Kinesis Data Firehose
Scopri come inserire facilmente dati di streaming in Amazon OpenSearch e Amazon Redshift con pochi passaggi di configurazione.
Workshop Flusso di video Amazon Kinesis
Scopri come importare e archiviare video da dispositivi con fotocamera, riprodurli dal vivo e su richiesta e scaricare file video utilizzando Flusso di video Amazon Kinesis.
-
Governance dei dati
-
Centralizza la governance per il tuo data lake utilizzando AWS Lake Formation
Scopri come utilizzare AWS Lake Formation per centralizzare la governance dei dati e la gestione dell'accesso ai dati utilizzando Amazon Redshift Spectrum per interrogare il tuo data lake.
Nozioni di base su Amazon DataZone
Scopri come creare il dominio root di Amazon DataZone, ottenere l'URL del portale dati, esaminare i flussi di lavoro di base di Amazon DataZone per producer e consumer di dati.
-
Archiviazione di oggetti per data lake
-
Nozioni di base su AWS Lake Formation
Scopri come configurare Lake Formation per la prima volta per gestire gli oggetti e le posizioni dei dati esistenti del Catalogo dati AWS Glue in Amazon S3.
Workshop su AWS Lake Formation
Scopri come usare AWS Lake Formation per creare, proteggere e gestire un data lake su AWS.Archiviazione centrale: Amazon S3 come piattaforma di archiviazione per data lake
Scopri come Amazon S3 è una base ottimale per un data lake grazie alla sua scalabilità praticamente illimitata e all'elevata durabilità.
-
Catalogo dati
-
Catalogo dati e crawler in AWS Glue
Scopri come utilizzare le informazioni nel Catalogo dati per creare e monitorare i tuoi processi ETL.
Nozioni di base sul Catalogo dati AWS Glue
Scopri come creare il tuo primo catalogo dati AWS Glue, che utilizza un bucket Amazon S3 come origine dati. -
Dati di terze parti
-
Operazioni preliminari come abbonato di Scambio dati su AWS
Scopri il processo completo per diventare abbonato a un prodotto di dati su Scambio dati su AWS utilizzando la console Scambio dati su AWS.
Operazioni preliminari come fornitore di Scambio dati su AWS
Scopri il processo completo per diventare un fornitore di prodotti dati su Scambio dati su AWS utilizzando la console Scambio dati su AWS.
Nozioni di base su Amazon AppFlow
Scopri Amazon AppFlow e i prerequisiti per iniziare.
Workshop su Scambio dati su AWS
Esplora i laboratori self-service che puoi utilizzare per comprendere e imparare come i servizi AWS possono essere utilizzati insieme a dati di terze parti per aggiungere approfondimenti ai tuoi progetti di analisi dei dati.
Workshop Amazon AppFlow
Scopri Amazon AppFlow e come trasferire facilmente dati tra i servizi SaaS più diffusi e AWS.
Inizia con il workshop »
Analisi predittiva e ML
-
Framework e interfacce
-
Servizi della piattaforma
-
Integrazioni dirette dei dati
-
Framework e interfacce
-
Inizia a usare le AMI di deep learning AWS
Scopri i suggerimenti su come scegliere il DLAMI più adatto a te, selezionare un tipo di istanza adatto al tuo caso d'uso e al tuo budget e informazioni aggiuntive che descrivono le configurazioni personalizzate.
Esplora la guida »
Tutorial sulle AMI Deep Learning
Set di tutorial per mostrarti come utilizzare l'AMI Deep Learning con il software Conda.
Inizia con i tutorial »
Inizia a utilizzare il deep learning con AWS Deep Learning AMI
Scopri le AMI (Amazon Machine Images) Deep Learning di AWS, che ti consentono di creare ambienti e flussi di lavoro personalizzati.
Leggi il post del blog » -
Servizi della piattaforma
-
Come funziona Amazon SageMaker
Esplora la panoramica del machine learning e di Amazon su come funziona SageMaker.
Nozioni di base su Amazon SageMaker
Ti mostriamo come iniziare a usare Amazon EMR su EKS implementando un'applicazione Spark su un cluster virtuale.
Generazione di previsioni di machine learning senza scrivere codice
Scopri come utilizzare Amazon SageMaker Canvas per creare modelli di machine learning (ML) e generare previsioni accurate senza scrivere una singola riga di codice.
Inizia con il tutorial »
-
Integrazioni dirette dei dati
-
Utilizzo del machine learning con Amazon Athena
Scopri in che modo il ML con Amazon Athena ti consente di usare Athena per scrivere istruzioni SQL che eseguono inferenze di machine learning (ML) tramite Amazon SageMaker.
Ottenere informazioni dettagliate con il machine learning in Amazon QuickSight
Scopri come le funzionalità di machine learning e linguaggio naturale di Amazon QuickSight Enterprise Edition ti spingono oltre l'analisi descrittiva e diagnostica e ti introducono nella previsione e nel processo decisionale.
Nozioni di base su Amazon Redshift ML
Scopri come utilizzare i dati nel tuo cluster Redshift per addestrare modelli con Amazon SageMaker.
Come iniziare a utilizzare Neptune ML
Ti mostriamo come configurare facilmente Neptune ML e dedurre le proprietà dei vertici all'interno di un grafo.
Esplora
Esplora i diagrammi dell'architettura sviluppare, scalare e testare i tuoi database su AWS.
Esplora i diagrammi di architettura »
Esplora i whitepaper per iniziare, apprendere le best practice e scoprire le tue opzioni di analisi.
Esplora soluzioni verificate e linee guida architettoniche per i casi d'uso più comuni per i servizi di analisi.