Mostra come creare e gestire cluster Amazon Redshift.  HTML | PDF | Kindle

Spiega come progettare, realizzare, interrogare ed eseguire la manutenzione dei database che compongono una soluzione di data warehousing. Include inoltre la sintassi per comandi e funzioni SQL per Amazon Redshift.  HTML | PDF

Descrive in dettaglio tutte le operazioni API per Amazon Redshift. Fornisce inoltre richieste, risposte ed errori di esempio per i protocolli di servizi Web supportati.  HTML | PDF

Descrive nel dettaglio l'interfaccia a riga di comando di Amazon Redshift. Illustra inoltre sintassi di base, opzioni ed esempi di utilizzo di ogni comando.  HTML


Webcast di AWS che descrive le best practice per caricamento di dati e ottimizzazione delle prestazioni delle query in Amazon Redshift.  Guarda video – Parte 1 | Guarda video – Parte 2

Carica i dati in modo efficiente utilizzando comandi COPY, inserimenti in blocco e tabelle di gestione temporanea. Ulteriori informazioni »

Progetta un database in modo da ottenere prestazioni di query elevate, requisiti di storage e memoria contenuti e operazioni I/O limitate. Ulteriori informazioni »

Ottimizza le prestazioni delle query con le strategie suggerite da AWS. Ulteriori informazioni »


Script SQL per l'esecuzione di attività diagnostiche in cluster Amazon Redshift che usano tabelle di sistema.  Scarica da questa pagina »

Elenco di script:

  • top_queries.sql: restituisce le 50 istruzioni con la durata più lunga degli ultimi 7 giorni.
  • perf_alerts.sql: restituisce le principali occorrenze di allarmi, con scansioni delle tabelle.
  • filter_used.sql: restituisce il filtro applicato alle tabelle nelle scansioni. Aiuta a scegliere la chiave di ordinamento.
  • commit_stats.sql: mostra le informazioni sul consumo delle risorse dei cluster mediante istruzioni COMMIT.
  • current_session_info.sql: mostra le informazioni sulle sessioni con query in esecuzione.
  • missing_table_stats.sql: mostra i piani EXPLAIN con segnalazioni "missing statistics" sulle relative tabelle.
  • queuing_queries.sql: elenca le query in attesa in WLM Query Slot.
  • table_info.sql: restituisce informazioni sullo storage della tabella (dimensioni, asimmetria e così via).

Visualizzazioni SQL per gestire cluster Amazon Redshift e generare DDL di schema. Tutte le visualizzazioni presuppongono l'esistenza di uno schema denominato Admin.  Scarica da questa pagina »

Elenco delle visualizzazioni:

  • v_check_data_distribution.sql: ottiene la distribuzione dei dati nelle sezioni.
  • v_constraint_dependency.sql: ottiene i vincoli di chiavi esterne tra tabelle.
  • v_generate_group_ddl.sql: ottiene il DDL per un gruppo.
  • v_generate_schema_ddl.sql: ottiene il DDL per gli schemi.
  • v_generate_tbl_ddl.sql: ottiene il DDL per una tabella e contiene chiave di distribuzione (distkey), chiave di ordinamento (sortkey) e limitazioni.
  • v_generate_unload_copy_cmd.sql: genera comandi di scaricamento e copia per un oggetto.
  • v_generate_user_object_permissions.sql: ottiene il DDL per le autorizzazioni di un utente relative a tabelle e visualizzazioni.
  • v_generate_view_ddl.sql: ottiene il DDL per una visualizzazione.
  • v_get_obj_priv_by_user.sql: ottiene: ottiene tabelle e visualizzazioni a cui può accedere un utente.
  • v_get_schema_priv_by_user.sql: ottiene lo schema a cui può accedere un utente.
  • v_get_tbl_priv_by_user.sql: ottiene le tabelle a cui può accedere un utente.
  • v_get_users_in_group.sql: ottiene tutti gli utenti in un gruppo.
  • v_get_view_priv_by_user.sql: ottiene le visualizzazioni a cui può accedere un utente.
  • v_object_dependency.sql: unisce le diverse visualizzazioni di una dipendenza.
  • v_space_used_per_tbl.sql: mostra lo spazio usato per tabella.
  • v_view_dependency.sql: ottiene i nomi delle visualizzazioni che dipendono da altre tabelle o visualizzazioni.
  • v_check_transaction_locks.sql: ottiene informazioni sui blocchi mantenuti da transazioni aperte.
  • v_check_wlm_query_time.sql: ottiene tempo di attesa e di esecuzione di WLM degli ultimi 7 giorni.
  • v_check_wlm_query_trend_daily.sql: ottiene il numero di query, tempo di attesa e tempo di esecuzione WLM, ordinati per giorno.
  • v_check_wlm_query_trend_hourly.sql: ottiene il numero di query, tempo di attesa e tempo di esecuzione WLM, ordinati per ora.
  • v_generate_cancel_query.sql: ottiene query di annullamento.
  • v_get_cluster_restart_ts.sql: ottiene data e ora recenti del riavvio di un cluster.
  • v_get_vacuum_details.sql: ottiene dettagli sulle operazioni vacuum.

Usa questa utilità per determinare il livello di compressione ottimale per i dati di Amazon Redshift.  Scarica da questa pagina »

Esegui con la massima semplicità la migrazione di dati tra due tabelle Amazon Redshift anche in database, cluster o regioni differenti. Tutti i dati esportati vengono crittografati con AWS Key Management Service (KMS). Puoi usare questa utility per impostare AWS Data Pipeline in modo che sposti regolarmente dati tra sistemi diversi, ad esempio tra un ambiente di produzione e uno di testing, oppure per mantenere copie in sola lettura su altri cluster.  Scarica da questa pagina »


Funzioni definite dall'utente comuni. Una raccolta di utili funzioni definite dall'utente. Offerta da Periscope.  Ulteriori informazioni » | Scarica da questa pagina »

Framework per lo sviluppo di funzioni definite dall'utente. Per semplificare lo sviluppo, Periscope ha creato un framework per la gestione e il testing delle funzioni definite dall'utente. Offerto da Periscope.  Scarica da questa pagina »

re:Dash. Una piattaforma open source gratuita per la collaborazione e la visualizzazione di dati che consente accesso rapido e semplice a miliardi di record. Include un browser per schemi, pianificazione migliorata, funzione di autocompletamento e la possibilità di scrivere query in Python. Offerta da EverythingMe.  Scarica da questa pagina »

Pannello di controllo di EverythingMe per amministratori di Amazon Redshift. Utilizza questo strumento intuitivo per monitorare query in esecuzione, code WLM e tabelle/schemi. Offerto da EverythingMe.  Scarica da questa pagina »

Strumento di estrazione, trasformazione e caricamento dei dati di Yelp per Amazon Redshift. Usa Mycroft di Yelp per caricare i dati automaticamente in Amazon Redshift. Leggi questo post del blog per ulteriori informazioni.  Scarica da questa pagina »

Libreria Spark-Redshift. Usa questa libreria per caricare dati da Amazon Redshift in Apache Spark SQL DataFrames e per riscrivere dati da Apache Spark in Amazon Redshift. Un buon esempio di come usare l'acquisizione tramite AVRO con Amazon Redshift. Offerta da Swiftkey.  Scarica da questa pagina »


Sono disponibili moltissimi articoli del blog che descrivono casi d'uso e best practice per aiutare a ottenere il massimo da Amazon Redshift. Consulta l'elenco completo di articoli del blog in questa pagina.