Novità

Leggi i post sulle Novità per scoprire le nuove funzionalità e gli annunci per Amazon Redshift e Redshift Spectrum.

Workshop e tutorial

Nozioni di base sul workshop self-service di Amazon Redshift

Workshop di approfondimento self-service di Amazon Redshift

Blog

Nessun post del blog rilevato. Consulta il Blog AWS per ulteriori risorse.

Leggi altri articoli su Amazon Redshift sul blog con le novità di AWS.

Scopri best practice, caratteristiche e casi d'uso sul blog di AWS sui Big Data.

Scopri come eseguire la migrazione da un data warehouse on-premise verso Amazon Redshift e molto altro sul blog sui database di AWS.

Script e strumenti per ottimizzazione e gestione

Script amministrativi per Amazon Redshift

Script SQL per l'esecuzione di attività diagnostiche in cluster Amazon Redshift che usano tabelle di sistema. Scarica da questa pagina »

Elenco di script:

  • top_queries.sql: restituisce le 50 istruzioni con la durata più lunga degli ultimi 7 giorni.
  • perf_alerts.sql: restituisce le principali occorrenze di allarmi, con scansioni delle tabelle.
  • filter_used.sql: restituisce il filtro applicato alle tabelle nelle scansioni per aiutare a scegliere la chiave di ordinamento.
  • commit_stats.sql: mostra le informazioni sul consumo delle risorse dei cluster mediante istruzioni COMMIT.
  • current_session_info.sql: mostra le informazioni sulle sessioni con query in esecuzione.
  • missing_table_stats.sql: mostra i piani EXPLAIN con segnalazioni "missing statistics" sulle relative tabelle.
  • queuing_queries.sql: elenca le query in attesa in WLM Query Slot.
    table_info.sql: restituisce informazioni sull’archiviazione della tabella (dimensioni, asimmetria e così via) 

Visualizzazioni SQL per amministratori    

Visualizzazioni SQL per gestire cluster Amazon Redshift e generare DDL di schema. Tutte le visualizzazioni presuppongono l'esistenza di uno schema denominato Admin. Scarica da questa pagina »

Elenco delle visualizzazioni:

  • v_check_data_distribution.sql: ottiene la distribuzione dei dati nelle sezioni.
  • v_constraint_dependency.sql: ottiene i vincoli di chiavi esterne tra tabelle.
  • v_generate_group_ddl.sql: ottiene il DDL per un gruppo.
  • v_generate_schema_ddl.sql: ottiene il DDL per gli schemi.
  • v_generate_tbl_ddl.sql: ottiene il DDL per una tabella e contiene chiave di distribuzione (distkey), chiave di ordinamento (sortkey) e limitazioni.
  • v_generate_unload_copy_cmd.sql: genera comandi di scaricamento e copia per un oggetto.
  • v_generate_user_object_permissions.sql: ottiene il DDL per le autorizzazioni di un utente relative a tabelle e visualizzazioni.
  • v_generate_view_ddl.sql: ottiene il DDL per una visualizzazione.
  • v_get_obj_priv_by_user.sql: ottiene: ottiene tabelle e visualizzazioni a cui può accedere un utente.
  • v_get_schema_priv_by_user.sql: ottiene lo schema a cui può accedere un utente.
  • v_get_tbl_priv_by_user.sql: ottiene le tabelle a cui può accedere un utente.
  • v_get_users_in_group.sql: ottiene tutti gli utenti in un gruppo.
  • v_get_view_priv_by_user.sql: ottiene le visualizzazioni a cui può accedere un utente.
  • v_object_dependency.sql: unisce le diverse visualizzazioni di una dipendenza.
  • v_space_used_per_tbl.sql: mostra lo spazio usato per tabella.
  • v_view_dependency.sql: ottiene i nomi delle visualizzazioni che dipendono da altre tabelle o visualizzazioni.
  • v_check_transaction_locks.sql: ottiene informazioni sui blocchi mantenuti da transazioni aperte.
  • v_check_wlm_query_time.sql: ottiene tempo di attesa e di esecuzione di WLM degli ultimi 7 giorni.
  • v_check_wlm_query_trend_daily.sql: ottiene il numero di query, tempo di attesa e tempo di esecuzione WLM, ordinati per giorno.
  • v_check_wlm_query_trend_hourly.sql: ottiene il numero di query, tempo di attesa e tempo di esecuzione WLM, ordinati per ora.
  • v_generate_cancel_query.sql: ottiene query di annullamento.
  • v_get_cluster_restart_ts.sql: ottiene data e ora recenti del riavvio di un cluster.
  • v_get_vacuum_details.sql: ottiene dettagli sulle operazioni vacuum

Utility Column Encoding

Usa questa utilità per determinare il livello di compressione ottimale per i dati di Amazon Redshift. Scarica da questa pagina »

Utility Unload/Copy

Esegui con la massima semplicità la migrazione di dati tra due tabelle Amazon Redshift anche in database, cluster o regioni differenti. Tutti i dati esportati vengono crittografati con AWS Key Management Service (KMS). Puoi usare questa utility per impostare AWS Data Pipeline in modo che sposti regolarmente dati tra sistemi diversi, ad esempio tra un ambiente di produzione e uno di testing, oppure per mantenere copie in sola lettura su altri cluster. Scarica da questa pagina »

Funzioni e strumenti dalla community

Strumenti di analisi e amministrazione

Easily  

Funzioni definite dall'utente comuni. Una raccolta di utili funzioni definite dall'utente. Offerto da Periscope. Ulteriori informazioni » | Scarica da questa pagina »

Strumento di estrazione, trasformazione e caricamento dei dati di Yelp per Amazon Redshift. Usa Mycroft di Yelp per caricare i dati automaticamente in Amazon Redshift. Leggi questo post del blog per ulteriori informazioni. Scarica da questa pagina »

Framework per lo sviluppo di funzioni definite dall'utente. Per semplificare lo sviluppo, Periscope ha creato un framework per la gestione e il testing delle funzioni definite dall'utente. Offerto da Periscope Data. Scarica da questa pagina »

re:Dash. Una piattaforma open source gratuita per la collaborazione e la visualizzazione di dati che consente accesso rapido e semplice a miliardi di record. Include un browser per schemi, pianificazione migliorata, funzione di autocompletamento e la possibilità di scrivere query in Python. Offerta da EverythingMe. Scarica da questa pagina »

Pannello di controllo di EverythingMe per amministratori di Amazon Redshift. Utilizza questo strumento intuitivo per monitorare query in esecuzione, code WLM e tabelle/schemi. Offerto da EverythingMe. Scarica da questa pagina »

Libreria Spark-Redshift. Usa questa libreria per caricare dati da Amazon Redshift in Apache Spark SQL DataFrames e per riscrivere dati da Apache Spark in Amazon Redshift. Un buon esempio di come usare l'acquisizione tramite AVRO con Amazon Redshift. Offerta da Swiftkey. Scarica da questa pagina »

Video

Panoramica su Amazon Redshift (2:07)
Amazon Redshift serverless (1:28)