Nouveautés

Lisez nos articles Nouveautés pour en savoir plus sur les fonctionnalités et les annonces récentes concernant Amazon Redshift et Redshift Spectrum.

Ateliers et didacticiels

Démarrez avec Amazon Redshift Self Serve Workshop

Atelier en libre-service Amazon Redshift Deep Dive

Blogs

Aucun article de blog n'a été trouvé pour le moment. Consultez le blog AWS pour accéder à d'autres ressources.

Consultez davantage d'articles à propos d'Amazon Redshift sur le blog des actualités AWS.

En savoir plus sur les bonnes pratiques, les capacités des fonctions et les cas d'utilisation des clients sur le blog AWS consacré au Big Data.

Apprenez comment migrer d'un entrepôt des données sur site à Amazon Redshift, et bien plus encore, sur l'AWS Databases Blog.

Scripts & outils de réglage et de gestion

Scripts d'administration Amazon Redshift

Scripts SQL permettant d'exécuter des diagnostics sur votre cluster Amazon Redshift à l'aide de tables système. Télécharger ici »

Liste des scripts :

  • top_queries.sql – renvoie les 50 instructions les plus chronophages des sept derniers jours
  • perf_alerts.sql – renvoie les principales occurrences d'alertes avec des analyses de tables
  • filter_used.sql – Retourne le filtre appliqué aux tables pour les analyses afin d'aider à choisir la clé de tri
  • commit_stats.sql – affiche les informations relatives à l'utilisation des ressources de cluster via des instructions COMMIT
  • current_session_info.sql – affiche des informations sur les sessions avec des requêtes en cours d'exécution
  • missing_table_stats.sql – affiche des plans EXPLAIN indiquant les statistiques manquantes dans les tables sous-jacentes
  • queuing_queries.sql – répertorie les requêtes en attente dans un emplacement de requête WLM
    table_info.sql - renvoie des informations de stockage des tables (taille, inclinaison, etc.) 

Vues d'administration SQL    

Vues SQL pour la gestion de votre cluster Amazon Redshift et la génération d'une instruction DDL de schéma. Toutes les vues supposent que vous disposez d'un schéma nommé « Admin ». Télécharger ici »

Liste des vues :

  • v_check_data_distribution.sql – générer la distribution des données entre les différentes sections
  • v_constraint_dependency.sql – générer les contraintes externes entre les tables
  • v_generate_group_ddl.sql – générer la DDL d'un groupe
  • v_generate_schema_ddl.sql – générer la DDL des schémas
  • v_generate_tbl_ddl.sql – générer la DDL d'une table, contient la clé de distribution, la clé de tri et les contraintes
  • v_generate_unload_copy_cmd.sql – générer les commandes Unload et Copy d'un objet
  • v_generate_user_object_permissions.sql – générer la DDL des autorisations utilisateur d'accès aux tables et aux vues
  • v_generate_view_ddl.sql – générer la DDL d'une vue
  • v_get_obj_priv_by_user.sql – générer la table ou les vues auxquelles un utilisateur a accès
  • v_get_schema_priv_by_user.sql – générer le schéma auquel un utilisateur a accès
  • v_get_tbl_priv_by_user.sql – générer les tables auxquelles un utilisateur a accès
  • v_get_users_in_group.sql – générer tous les utilisateurs d'un groupe
  • v_get_view_priv_by_user.sql – générer les vues auxquelles un utilisateur a accès
  • v_object_dependency.sql – fusionner les différentes vues de dépendances
  • v_space_used_per_tbl.sql – générer l'espace utilisé par table
  • v_view_dependency.sql – générer le nom des vues dépendantes d'autres tables ou vues
  • v_check_transaction_locks.sql – obtenir des informations sur les verrouillages maintenus par des transactions ouvertes
  • v_check_wlm_query_time.sql – générer le délai d'attente de WLM et la durée d'exécution pour les 7 derniers jours
  • v_check_wlm_query_trend_daily.sql – générer le nombre de requêtes WLM, le délai d'attente et la durée d'exécution par jour
  • v_check_wlm_query_trend_hourly.sql – générer le nombre de requêtes WLM, le délai d'attente et la durée d'exécution par heure
  • v_generate_cancel_query.sql – générer une demande d'annulation
  • v_get_cluster_restart_ts.sql – générer la date et l'heure du dernier redémarrage du cluster
  • v_get_vacuum_details.sql – générer les détails du vacuum

Utilitaire Column Encoding

Déterminez la compression optimale de vos données Amazon Redshift grâce à cet utilitaire. Télécharger ici »

Utilitaire Unload/Copy

Migrez facilement des données entre deux tables Amazon Redshift éventuellement situées dans des bases de données, des régions ou des clusters différents. Toutes les données exportées sont chiffrées à l'aide d'AWS Key Management Service (KMS). Vous pouvez utiliser cet utilitaire pour compléter AWS Data Pipeline afin de transférer régulièrement des données entre des systèmes, par ex., entre des environnements de production et de test, ou pour conserver des copies en lecture seule sur d'autres clusters. Télécharger ici »

Fonctions & outils fournis par la communauté

Outils d'analyse et d'administration

Facilement  

Fonctions communes définies par l'utilisateur (UDF). Collection d'UDF utiles, utilisables par tout un chacun. Fourni par Periscope. En savoir plus » | Télécharger ici »

Outil ETL de Yelp pour Amazon Redshift. Utilisez l'outil Mycroft de Yelp pour charger automatiquement des données dans Amazon Redshift. Lisez cet article de blog pour en savoir plus. Télécharger ici »

Framework pour le développement d'UDF. Pour faciliter le développement, Periscope a créé un framework pour gérer et tester les UDF. Fourni par Periscope Data. Télécharger ici »

re:Dash. Plate-forme de collaboration et de visualisation des données à code source libre et gratuit, conçue pour permettre un accès rapide et simple à plusieurs milliards d'enregistrements. Les fonctionnalités incluent un navigateur de schéma, la planification améliorée, le remplissage automatique et la possibilité d'écrire des requêtes Python. Fourni par Everthing.me. Télécharger ici »

Tableau de bord d'administration EverythingMe pour Amazon Redshift. Surveillez vos requêtes en cours d'exécution, vos files d'attente WLM et vos tables/schémas avec cet outil convivial. Fourni par EverythingMe. Télécharger ici »

Bibliothèque Spark-Redshift. Utilisez cette bibliothèque pour charger des données d'Amazon Redshift vers des trames de données SQL Apache Spark et réécrire des données d'Apache Spark dans Amazon Redshift. C'est un bon exemple de l'utilisation de l'importation de données AVRO avec Amazon Redshift. Fournie par Swiftkey. Télécharger ici »

Vidéos

Présentation d'Amazon Redshift (2:07)
Amazon Redshift sans serveur (1:28)