Ce manuel vous explique comment créer et gérer des clusters Amazon Redshift.  HTML | PDF | Kindle

Explique comment concevoir, créer, interroger et maintenir les bases de données qui composent votre entrepôt de données. Inclut également une syntaxe pour les commandes et fonctions SQL Amazon Redshift.  HTML | PDF

Décrit en détail le fonctionnement de l'API d'Amazon Redshift. Ce manuel fournit également des exemples de requêtes, de réponses et d'erreurs pour les protocoles de services Web pris en charge.  HTML | PDF

Décrit en détail l'interface de ligne de commande pour Amazon Redshift. Il fournit la syntaxe basique, les options et des exemples d'utilisation de chaque commande.  HTML


Webcast AWS portant sur les bonnes pratiques de chargement de données et l'optimisation des performances des requêtes dans Amazon Redshift.  Regarder la 1re partie de la vidéo | Regarder la 2e partie de la vidéo

Chargez vos données efficacement à l'aide des commandes COPY, des instructions BULK INSERT et des tables de transfert.  En savoir plus »

Créez votre base de données pour profiter de performances élevées en matière de requêtes, exiger une faible capacité de stockage et de mémoire, et réaliser un minimum d'opérations d'E/S.  En savoir plus »

Réglez vos requêtes pour profiter de performances maximales en suivant ces astuces et tactiques.  En savoir plus »


Scripts SQL permettant d'exécuter des diagnostics sur votre cluster Amazon Redshift à l'aide de tables système.  Télécharger ici »

Liste des scripts :

  • top_queries.sql – renvoie les 50 instructions les plus chronophages des sept derniers jours
  • perf_alerts.sql – renvoie les principales occurrences d'alertes avec des analyses de tables
  • filter_used.sql – renvoie le filtre appliqué aux tables lors des analyses. Faciliter la sélection de la clé de tri
  • commit_stats.sql – affiche les informations relatives à l'utilisation des ressources de cluster via des instructions COMMIT
  • current_session_info.sql – affiche des informations sur les sessions avec des requêtes en cours d'exécution
  • missing_table_stats.sql – affiche des plans EXPLAIN indiquant les statistiques manquantes dans les tables sous-jacentes
  • queuing_queries.sql – répertorie les requêtes en attente dans un emplacement de requête WLM
  • table_info.sql – renvoie des informations de stockage des tables (taille, inclinaison, etc.)

Vues SQL pour la gestion de votre cluster Amazon Redshift et la génération d'une instruction DDL de schéma. Toutes les vues supposent que vous disposez d'un schéma nommé « Admin ».  Télécharger ici »

Liste des vues :

  • v_check_data_distribution.sql – générer la distribution des données entre les différentes sections
  • v_constraint_dependency.sql – générer les contraintes externes entre les tables
  • v_generate_group_ddl.sql – générer la DDL d'un groupe
  • v_generate_schema_ddl.sql – générer la DDL des schémas
  • v_generate_tbl_ddl.sql – générer la DDL d'une table, contient la clé de distribution, la clé de tri et les contraintes
  • v_generate_unload_copy_cmd.sql – générer les commandes Unload et Copy d'un objet
  • v_generate_user_object_permissions.sql – générer la DDL des autorisations utilisateur d'accès aux tables et aux vues
  • v_generate_view_ddl.sql – générer la DDL d'une vue
  • v_get_obj_priv_by_user.sql – générer la table ou les vues auxquelles un utilisateur a accès
  • v_get_schema_priv_by_user.sql – générer le schéma auquel un utilisateur a accès
  • v_get_tbl_priv_by_user.sql – générer les tables auxquelles un utilisateur a accès
  • v_get_users_in_group.sql – générer tous les utilisateurs d'un groupe
  • v_get_view_priv_by_user.sql – générer les vues auxquelles un utilisateur a accès
  • v_object_dependency.sql – fusionner les différentes vues de dépendances
  • v_space_used_per_tbl.sql – générer l'espace utilisé par table
  • v_view_dependency.sql – générer le nom des vues dépendantes d'autres tables ou vues
  • v_check_transaction_locks.sql – obtenir des informations sur les verrouillages maintenus par des transactions ouvertes
  • v_check_wlm_query_time.sql – générer le délai d'attente de WLM et la durée d'exécution pour les 7 derniers jours
  • v_check_wlm_query_trend_daily.sql – générer le nombre de requêtes WLM, le délai d'attente et la durée d'exécution par jour
  • v_check_wlm_query_trend_hourly.sql – générer le nombre de requêtes WLM, le délai d'attente et la durée d'exécution par heure
  • v_generate_cancel_query.sql – générer une demande d'annulation
  • v_get_cluster_restart_ts.sql – générer la date et l'heure du dernier redémarrage du cluster
  • v_get_vacuum_details.sql – générer les détails du nettoyage

Déterminez la compression optimale de vos données Amazon Redshift grâce à cet utilitaire.  Télécharger ici »

Migrez facilement des données entre deux tables Amazon Redshift éventuellement situées dans des bases de données, des régions ou des clusters différents. Toutes les données exportées sont chiffrées à l'aide d'AWS Key Management Service (KMS). Vous pouvez utiliser cet utilitaire pour compléter AWS Data Pipeline afin de transférer régulièrement des données entre des systèmes, par ex., entre des environnements de production et de test, ou pour conserver des copies en lecture seule sur d'autres clusters.  Télécharger ici »


Fonctions communes définies par l'utilisateur (UDF). Collection d'UDF utiles, utilisables par tout un chacun. Fournies par Periscope.  En savoir plus » | Télécharger ici »

Framework pour le développement d'UDF. Pour faciliter le développement, Periscope a créé un framework pour gérer et tester les UDF. Fourni par Periscope.  Télécharger ici »

re:Dash. Plate-forme de collaboration et de visualisation des données à code source libre et gratuit, conçue pour permettre un accès rapide et simple à plusieurs milliards d'enregistrements. Les fonctionnalités incluent un navigateur de schéma, la planification améliorée, le remplissage automatique et la possibilité d'écrire des requêtes Python. Fourni par Everthing.me.  Télécharger ici »

Tableau de bord d'administration EverythingMe pour Amazon Redshift. Surveillez vos requêtes en cours d'exécution, vos files d'attente WLM et vos tables/schémas avec cet outil convivial. Fourni par EverythingMe.  Télécharger ici »

Outil ETL de Yelp pour Amazon Redshift. Utilisez l'outil Mycroft de Yelp pour charger automatiquement des données dans Amazon Redshift. Lisez cet article de blog pour en savoir plus.  Télécharger ici »

Bibliothèque Spark-Redshift. Utilisez cette bibliothèque pour charger des données d'Amazon Redshift vers des trames de données SQL Apache Spark et réécrire des données d'Apache Spark dans Amazon Redshift. C'est un bon exemple de l'utilisation de l'importation de données AVRO avec Amazon Redshift. Fournie par Swiftkey.  Télécharger ici »


Nous disposons d'un riche ensemble d'articles de blog montrant des cas d'utilisation et les bonnes pratiques pour vous aider à tirer le meilleur parti d'Amazon Redshift. Accédez à notre liste complète d'articles de blog ici.