Novità

Leggi il post sulle novità per scoprire le nuove caratteristiche introdotte e gli annunci per Amazon Redshift e Redshift Spectrum.

Serve assistenza per un proof of concept?

Se stai costruendo una soluzione proof of concept con Amazon Redshift, ti consigliamo di leggere Building a Proof of Concept for Amazon Redshift (Creare un proof of concept per Amazon Redshift). Per ricevere la nostra assistenza per il tuo proof of concept, fai clic qui.

Documentazione

Getting Started Guide (Guida alle operazioni di base): questa guida rappresenta un'introduzione ad Amazon Redshift; illustra come configurare un account e contiene un esempio dettagliato su come iniziare a usare Amazon Redshift. Contiene inoltre suggerimenti e collegamenti a caratteristiche e risorse avanzate del prodotto. HTML | PDF | Kindle

Amazon Redshift Cluster Management Guide (Guida alla gestione di cluster Amazon Redshift): mostra come creare e gestire cluster Amazon Redshift. HTML | PDF | Kindle

Amazon Redshift Database Developer Guide (Guida per sviluppatori di database Amazon Redshift): spiega come progettare, realizzare, interrogare ed eseguire la manutenzione dei database che compongono una soluzione di data warehousing. Include inoltre la sintassi per comandi e funzioni SQL per Amazon Redshift. HTML | PDF

Amazon Redshift API Reference (Riferimento API Amazon Redshift): descrive in dettaglio tutte le operazioni API per Amazon Redshift. Fornisce inoltre richieste, risposte ed errori di esempio per i protocolli di servizi Web supportati. HTML | PDF

Amazon Redshift CLI Guide (Guida CLI Amazon Redshift): descrive nel dettaglio l'interfaccia a riga di comando di Amazon Redshift. Illustra inoltre sintassi di base, opzioni ed esempi di utilizzo di ogni comando. HTML

Best practice

Loading Data (Caricamento dei dati): carica i dati in modo efficiente utilizzando comandi COPY, inserimenti in blocco e tabelle di gestione temporanea. Ulteriori informazioni »

Designing Data Warehouse Schema (Progettazione di schemi per soluzioni di data warehousing): progetta un database in modo da ottenere prestazioni di query elevate, requisiti di storage e memoria contenuti e operazioni I/O limitate. Ulteriori informazioni »

Tuning Query Performance (Ottimizzazione delle prestazioni delle query): ottimizza le prestazioni delle query con le strategie suggerite da AWS. Ulteriori informazioni »

Script e strumenti per ottimizzazione e gestione

Script amministrativi per Amazon Redshift

Script SQL per l'esecuzione di attività diagnostiche in cluster Amazon Redshift che usano tabelle di sistema. Scarica da questa pagina »

Elenco di script:

  • top_queries.sql: restituisce le 50 istruzioni con la durata più lunga degli ultimi 7 giorni.
  • perf_alerts.sql: restituisce le principali occorrenze di allarmi, con scansioni delle tabelle.
  • filter_used.sql: restituisce il filtro applicato alle tabelle nelle scansioni per aiutare a scegliere la chiave di ordinamento.
  • commit_stats.sql: mostra le informazioni sul consumo delle risorse dei cluster mediante istruzioni COMMIT.
  • current_session_info.sql: mostra le informazioni sulle sessioni con query in esecuzione.
  • missing_table_stats.sql: mostra i piani EXPLAIN con segnalazioni "missing statistics" sulle relative tabelle.
  • queuing_queries.sql: elenca le query in attesa in WLM Query Slot.
    table_info.sql: restituisce informazioni sullo storage della tabella (dimensioni, asimmetria e così via). 

Visualizzazioni SQL per amministratori    

Visualizzazioni SQL per gestire cluster Amazon Redshift e generare DDL di schema. Tutte le visualizzazioni presuppongono l'esistenza di uno schema denominato Admin. Scarica da questa pagina »

Elenco delle visualizzazioni:

  • v_check_data_distribution.sql: ottiene la distribuzione dei dati nelle sezioni.
  • v_constraint_dependency.sql: ottiene i vincoli di chiavi esterne tra tabelle.
  • v_generate_group_ddl.sql: ottiene il DDL per un gruppo.
  • v_generate_schema_ddl.sql: ottiene il DDL per gli schemi.
  • v_generate_tbl_ddl.sql: ottiene il DDL per una tabella e contiene chiave di distribuzione (distkey), chiave di ordinamento (sortkey) e limitazioni.
  • v_generate_unload_copy_cmd.sql: genera comandi di scaricamento e copia per un oggetto.
  • v_generate_user_object_permissions.sql: ottiene il DDL per le autorizzazioni di un utente relative a tabelle e visualizzazioni.
  • v_generate_view_ddl.sql: ottiene il DDL per una visualizzazione.
  • v_get_obj_priv_by_user.sql: ottiene: ottiene tabelle e visualizzazioni a cui può accedere un utente.
  • v_get_schema_priv_by_user.sql: ottiene lo schema a cui può accedere un utente.
  • v_get_tbl_priv_by_user.sql: ottiene le tabelle a cui può accedere un utente.
  • v_get_users_in_group.sql: ottiene tutti gli utenti in un gruppo.
  • v_get_view_priv_by_user.sql: ottiene le visualizzazioni a cui può accedere un utente.
  • v_object_dependency.sql: unisce le diverse visualizzazioni di una dipendenza.
  • v_space_used_per_tbl.sql: mostra lo spazio usato per tabella.
  • v_view_dependency.sql: ottiene i nomi delle visualizzazioni che dipendono da altre tabelle o visualizzazioni.
  • v_check_transaction_locks.sql: ottiene informazioni sui blocchi mantenuti da transazioni aperte.
  • v_check_wlm_query_time.sql: ottiene tempo di attesa e di esecuzione di WLM degli ultimi 7 giorni.
  • v_check_wlm_query_trend_daily.sql: ottiene il numero di query, tempo di attesa e tempo di esecuzione WLM, ordinati per giorno.
  • v_check_wlm_query_trend_hourly.sql: ottiene il numero di query, tempo di attesa e tempo di esecuzione WLM, ordinati per ora.
  • v_generate_cancel_query.sql: ottiene query di annullamento.
  • v_get_cluster_restart_ts.sql: ottiene data e ora recenti del riavvio di un cluster.
  • v_get_vacuum_details.sql: ottiene dettagli sulle operazioni vacuum.

Utility Column Encoding

Usa questa utilità per determinare il livello di compressione ottimale per i dati di Amazon Redshift. Scarica da questa pagina »

Utility Unload/Copy

Esegui con la massima semplicità la migrazione di dati tra due tabelle Amazon Redshift anche in database, cluster o regioni differenti. Tutti i dati esportati vengono crittografati con AWS Key Management Service (KMS). Puoi usare questa utility per impostare AWS Data Pipeline in modo che sposti regolarmente dati tra sistemi diversi, ad esempio tra un ambiente di produzione e uno di testing, oppure per mantenere copie in sola lettura su altri cluster. Scarica da questa pagina »

Funzioni e strumenti dalla community

Strumenti di analisi e amministrazione

Easily  

Funzioni definite dall'utente comuni. Una raccolta di utili funzioni definite dall'utente. Offerto da Periscope. Ulteriori informazioni » | Scarica da questa pagina »

Strumento di estrazione, trasformazione e caricamento dei dati di Yelp per Amazon Redshift. Usa Mycroft di Yelp per caricare i dati automaticamente in Amazon Redshift. Leggi questo post del blog per ulteriori informazioni. Scarica da questa pagina »

Framework per lo sviluppo di funzioni definite dall'utente. Per semplificare lo sviluppo, Periscope ha creato un framework per la gestione e il testing delle funzioni definite dall'utente. Offerto da Periscope Data. Scarica da questa pagina »

re:Dash. Una piattaforma open source gratuita per la collaborazione e la visualizzazione di dati che consente accesso rapido e semplice a miliardi di record. Include un browser per schemi, pianificazione migliorata, funzione di autocompletamento e la possibilità di scrivere query in Python. Offerta da EverythingMe. Scarica da questa pagina »

Pannello di controllo di EverythingMe per amministratori di Amazon Redshift. Utilizza questo strumento intuitivo per monitorare query in esecuzione, code WLM e tabelle/schemi. Offerto da EverythingMe. Scarica da questa pagina »

Libreria Spark-Redshift. Usa questa libreria per caricare dati da Amazon Redshift in Apache Spark SQL DataFrames e per riscrivere dati da Apache Spark in Amazon Redshift. Un buon esempio di come usare l'acquisizione tramite AVRO con Amazon Redshift. Offerta da Swiftkey. Scarica da questa pagina »

Articoli del blog

Sono disponibili moltissimi articoli del blog che descrivono casi d'uso e best practice per aiutare a ottenere il massimo da Amazon Redshift. Utilizzando le risorse di seguito è possibile accedere all'elenco completo di articoli del blog.

Leggi gli articoli su Amazon Redshift sul blog con le novità di AWS.

Scopri best practice, caratteristiche e casi d'uso sul blog di AWS sui Big Data.

Scopri come eseguire la migrazione da una soluzione di data warehousing locale verso Amazon Redshift e molto altro sul blog sui database di AWS.

Webinar

Introduzione ad Amazon Redshift Spectrum: interrogare exabyte di dati in S3

Redshift Spectrum estende Amazon Redshift oltre i dati memorizzati nella di data warehousing, consentendo di interrogare i dati in Amazon S3. È infatti possibile eseguire dati sui dati in S3 oppure unire i dati in S3 e in Redshift per ottenere informazioni altrimenti impossibili da ottenere da un silo di dati.

Analisi serverless: Amazon Redshift Spectrum, AWS Glue e Amazon QuickSight

Scopri come creare una soluzione di analisi serverless per Big Data utilizzando Amazon Redshift Spectrum, AWS Glue e Amazon QuickSight, eliminando la necessità di investire in database, data warehouse, soluzioni ETL complesse e applicazioni di business intelligence.

Analisi di data lake rapide e scalabili

Scopri come eseguire query SQL su formati di dati aperti memorizzati in Amazon S3 e su dati memorizzati nel data warehouse di Amazon Redshift. Sarà inoltre illustrato come analizzare data lake e data warehouse e ottenere rapidamente risultati su qualsiasi scala, da gigabyte a exabyte.

Rimani aggiornato con i webinar di AWS.

Sessioni presso eventi selezionati

Migrating Your Traditional Data Warehouse to a Modern Data Lake (ABD327)

Scopri gli ultimi miglioramenti in fatto di disponibilità, prestazioni e gestione, e ascolta la 21st Century Fox mentre spiega in che modo è stata eseguita la migrazione del data warehouse locale verso un'architettura composta da data lake e Amazon Redshift.

Developing an Insights Platform – Sysco's Journey from Disparate (ABD303)

Scopri in che modo il team Business Intelligence and Analytics di Sysco ha creato un data lake con motori di query e analisi scalabili utilizzando Amazon Redshift Spectrum, Amazon S3, Amazon EMR, AWS Glue, Amazon Elasticsearch Service e altri servizi AWS.

Best Practices for Data Warehousing with Amazon Redshift & Redsh (ABD304)

Uno sguardo approfondito su come le moderne soluzioni di data warehousing analizzano i dati, memorizzati sia internamente sia esternamente, senza trasferirli. Saranno illustrate le best practice per progettazione di schemi, caricamento efficiente dei dati e ottimizzazione delle query per ottenere throughput e prestazioni elevati.

Self-Service Analytics with AWS Big Data and Tableau (ARC217)

Apprendi in che modo il gruppo Expedia Global Payments Business Intelligence ha pianificato, progettato e realizzato da zero una soluzione completa di data mart nel cloud con AWS e Tableau online. Scopri best practice, tecniche di ottimizzazione e lezioni apprese.

Migrating Databases and Data Warehouses to the Cloud (DAT317)

Scopri come eseguire la migrazione di dati e codice procedurale in modo semplice e sicuro da database e data warehouse esistenti verso Amazon Redshift e altri servizi AWS utilizzando AWS Database Migration Service (AWS DMS) e AWS Schema Conversion Tool (AWS SCT).

GPS: Optimizing Tips: Amazon Redshift for Cloud Data Warehousing (GPSTEC315)

Apprendi suggerimenti e tecniche per ottimizzare la distribuzione Amazon Redshift, ricalibrare le risorse in modo efficiente e soddisfare la domanda crescente di data warehousing a costi contenuti.

Ulteriori informazioni sui prezzi di Amazon Glacier

Visita la pagina dei prezzi
Ti senti pronto?
Nozioni di base su Amazon Redshift
Hai altre domande?
Contattaci