Amazon EMR vous permet de mettre facilement et rapidement en service la capacité dont vous avez besoin et d'ajouter ou de supprimer de la capacité de façon automatique ou manuelle. Cela s'avère utile si vos besoins en traitement sont variables ou imprévisibles. Par exemple, si la plus grande partie de votre traitement s'effectue pendant la nuit, il est possible que vous ayez besoin de 100 instances pendant la journée et de 500 instances pendant la nuit. Par ailleurs, vous pourriez également avoir besoin d'une capacité très importante sur une courte période. Avec Amazon EMR, vous pouvez rapidement mettre en service des centaines ou des milliers d'instances, les redimensionner automatiquement afin qu'elles s'adaptent à la configuration requise pour le calcul, et fermer votre cluster lorsque votre tâche est terminée (pour éviter le coût d'une capacité inactive).

Premiers pas avec Amazon EMR

Créez un compte gratuit

Avez-vous besoin d'aide ? Demandez-nous !

elastic

Deux options principales sont disponibles pour ajouter ou supprimer de la capacité :

Déploiement de plusieurs clusters : Si vous avez besoin de davantage de capacité, vous pouvez facilement lancer un nouveau cluster et y mettre fin lorsque vous n'en avez plus besoin. Le nombre de clusters n'est pas limité. Il peut être judicieux d'utiliser plusieurs clusters lorsque vous avez plusieurs utilisateurs ou applications. "Par exemple, vous pouvez stocker vos données d'entrée dans Amazon S3, puis lancer un cluster pour chaque application ayant besoin de traiter les données. Un cluster peut être optimisé pour le CPU, un second cluster peut être optimisé pour le stockage, etc.

Redimensionnement d'un cluster en cours d'exécution : Amazon EMR permet de facilement redimensionner automatiquement ou manuellement un cluster en cours d'exécution. Vous pouvez redimensionner un cluster de façon temporaire soit en l'agrandissant pour en augmenter la capacité de traitement, soit en diminuant sa taille pour réaliser des économies en cas d'inactivité. Par exemple, certains clients ajoutent des centaines d'instances à leurs clusters au moment du traitement par lots, puis suppriment les instances excédentaires lorsque le traitement est terminé. Lorsque vous ajoutez des instances à votre cluster, EMR peut désormais commencer à utiliser la capacité mise en service dès que celle-ci est disponible. Pendant le dimensionnement, EMR sélectionne de manière proactive les nœuds inutilisés pour réduire l'impact sur les tâches en cours d'exécution.

Amazon EMR est conçu pour réduire le coût du traitement de quantités importantes de données. Parmi les fonctionnalités qui abaissent son coût figurent la tarification basse à la seconde, l'intégration des instances ponctuelles Amazon EC2 et des instances réservées Amazon EC2, l'élasticité ainsi que l'intégration d'Amazon S3.

Tarification à la seconde peu élevée : la tarification d'Amazon EMR est calculée à la seconde, avec un forfait minimum d'une minute, et commence à 0,015 USD par heure d'instance pour une petite instance (131,40 USD par an). Pour en savoir plus, consultez la section relative à la tarification.

Intégration des instances ponctuelles Amazon EC2 : Les instances ponctuelles vous permettent de choisir votre propre tarif pour les capacités d'Amazon EC2. Il vous suffit de spécifier le prix horaire maximum que vous souhaitez payer pour exécuter un type d'instance particulier. Tant que votre prix d'enchère dépasse celui de la place de marché dédiée aux instances ponctuelles, vous conservez les instances et payez habituellement une fraction du prix à la demande. Le prix ponctuel varie selon l'offre et la demande en instances, mais vous ne paierez jamais plus que le prix que vous avez spécifié. Amazon EMR permet d'utiliser les instances ponctuelles facilement et d'économiser ainsi du temps et de l'argent. Les clusters Amazon EMR comprennent des « nœuds principaux » qui exécutent HDFS et des « nœuds de tâches » qui ne l'exécutent pas. Les nœuds de tâches sont idéaux pour les instances ponctuelles. En effet, si le prix des instances ponctuelles augmente et que vous perdez ces instances, vous ne perdrez pas les données stockées dans HDFS. (En savoir plus à propos des nœuds principaux et des nœuds de tâches.)

Intégration des instances réservées Amazon EC2 : Les instances réservées Amazon EC2 vous permettent de conserver les avantages de l'informatique élastique tout en réduisant vos coûts et en réservant des capacités. Grâce aux instances réservées, vous effectuez un paiement unique mineur et bénéficiez d'une réduction importante sur les frais à la seconde d'utilisation de cette instance. Amazon EMR vous permet d'utiliser les instances réservées facilement et d'économiser jusqu'à 65 % du prix à la demande.

Elasticité : étant donné qu'Amazon EMR permet de redimensionner automatiquement votre cluster, vous n'avez pas besoin de mettre en service une capacité excessive. Par exemple, vous ne savez peut-être pas quelle quantité de données votre ou vos cluster(s) géreront dans 6 mois ou vous avez peut être des besoins de traitement irréguliers. Avec Amazon EMR, inutile de connaître à l'avance vos futurs besoins ou de prévoir des pics de demande, puisque vous pouvez facilement ajouter ou supprimer de la capacité à tout moment.

Intégration d'Amazon S3 : Le système de fichiers EMR (EMRFS) permet aux clusters EMR d'utiliser Amazon S3 comme espace de stockage d'objets pour Hadoop, de façon efficace et en toute sécurité. Vous pouvez stocker vos données dans Amazon S3 et utiliser plusieurs clusters Amazon EMR pour traiter le même ensemble de données. Chaque cluster peut être optimisé pour une charge de travail particulière, ce qui peut être plus efficace que d'utiliser un seul cluster supportant plusieurs charges de travail avec des besoins différents. Par exemple, un cluster peut être optimisé pour les E/S et un autre pour le CPU, en traitant chacun les mêmes données dans Amazon S3. En outre, en stockant vos données d'entrée et de sortie dans Amazon S3, vous pouvez fermer des clusters lorsque vous n'en avez plus besoin. 

Le système EMRFS offre des performances élevées en matière d'écriture vers et de lecture à partir d'Amazon S3, prend en charge le chiffrement S3 côté serveur ou côté client à l'aide d'AWS Key Management Service (KMS) ou de clés gérées par le client, et fournit une vue cohérente optionnelle, qui vérifie la liste et la cohérence read-after-write (lecture directe après écriture) des objets suivis dans ses métadonnées. De plus, les clusters EMR peuvent utiliser aussi bien le système EMRFS que le système HDFS ; vous n'avez donc pas à choisir entre un stockage sur le cluster et Amazon S3.

Intégration au catalogue de données AWS Glue : vous pouvez utiliser le catalogue de données AWS Glue en tant que référentiel de métadonnées géré pour conserver les métadonnées des tables externes pour Apache Spark et Apache Hive. De plus, il apporte une découverte ainsi qu'un historique des versions des schémas automatique. Cela vous permet de conserver facilement les métadonnées de vos tableaux externes sur Amazon S3 en dehors de votre cluster.

Avec Amazon EMR, vous pouvez utiliser plusieurs magasins de données, y compris Amazon S3, le système de fichiers distribués Hadoop (HDFS) et AmazonDynamoDB.

DetailsPage_EMR-Diagram

Amazon S3 : Amazon S3 est un service de stockage hautement durable, évolutif, sécurisé, rapide et économique. Grâce au système de fichiers EMR (EMRFS), Amazon EMR peut utiliser Amazon S3 comme un espace de stockage d'objets pour Hadoop, de façon efficace et sécurisée. Amazon EMR a apporté de nombreuses améliorations à Hadoop, ce qui vous permet de traiter avec fluidité de grandes quantités de données stockées dans Amazon S3. De plus, le système EMRFS peut activer la vue cohérente afin de vérifier la liste et la cohérence read-after-write des objets dans Amazon S3.  Le système EMRFS prend en charge le chiffrement S3 côté serveur ou côté client pour traiter les objets Amazon S3 chiffrés, et vous pouvez utiliser AWS Key Management Service (KMS) ou un fournisseur de clés personnalisées.

Lorsque vous lancez un cluster, Amazon EMR diffuse les données d'Amazon S3 vers chaque instance du cluster et commence à les traiter immédiatement. L'avantage lié au stockage de vos données dans Amazon S3 et à leur traitement par Amazon EMR réside dans le fait que vous pouvez utiliser plusieurs clusters pour traiter les mêmes données. Par exemple, vous pouvez posséder un cluster de développement Hive, optimisé pour la mémoire, et un cluster de production Pig, optimisé pour la CPU, qui utilisent tous deux le même ensemble de données d'entrée.

Système de fichiers distribué Hadoop (HDFS) : HDFS est le système de fichiers Hadoop. La topologie actuelle d'Amazon EMR divise ses instances dans 3 groupes d'instances logiques : le groupe maître, qui exécute le gestionnaire de ressources YARN et le service de NameNode HDFS ; le groupe de cœur, qui exécute le démon DataNode HDFS et le service de gestionnaire de nœud YARN ; enfin, le groupe de tâche, qui exécute le service de gestionnaire de nœud YARN. Amazon EMR installe HDFS sur l'espace de stockage associé aux instances dans le groupe de cœur.  

Chaque instance EC2 est fournie avec une capacité de stockage fixe, appelée « stockage d'instance » et rattachée à l'instance. Vous pouvez également modifier la capacité de stockage d'une instance donnée en y ajoutant des volumes Amazon EBS. Amazon EMR vous permet d'ajouter des types de volumes à usage général (SSD), dimensionnés (SSD) et magnétiques. Les volumes EBS ajoutés à un cluster EMR ne conservent pas les données après l'arrêt du cluster. EMR effacera automatiquement les volumes une fois le cluster supprimé.

Vous pouvez également activer le chiffrement intégral pour HDFS à l'aide d'une configuration de sécurité Amazon EMR ou créer manuellement des zones de chiffrement HDFS avec le serveur de gestion de clés Hadoop

Amazon DynamoDB : Amazon DynamoDB est un service de base de données NoSQL rapide et entièrement géré. Amazon EMR dispose d'une intégration directe avec Amazon DynamoDB, ce qui vous permet de traiter rapidement et efficacement les données stockées dans Amazon DynamoDB et de transférer des données entre Amazon DynamoDB, Amazon S3 et HDFS, dans Amazon EMR.

Autres magasins de données AWS : Les clients Amazon EMR utilisent également Amazon Relational Database Service (un service Web qui facilite la configuration, l'exploitation et le dimensionnement des bases de données relationnelles dans le cloud), Amazon Glacier (un service de stockage à coût extrêmement faible, qui fournit un stockage sécurisé et durable pour l'archivage et la sauvegarde de données) et Amazon Redshift (un service d'entrepôt de données rapide et totalement géré, d'une capacité de plusieurs péta-octets). AWS Data Pipeline est un service Web qui aide les clients à traiter et à transférer des données de manière fiable entre différents services AWS de stockage et de calcul (notamment Amazon EMR), ainsi que des sources de données sur site, selon des intervalles définis.

Amazon EMR prend en charge de puissants outils Hadoop à l'efficacité prouvée, tels que Hive, Pig, HBase et Impala. En outre, il peut exécuter des frameworks de calcul en plus de Hadoop MapReduce, comme Spark ou Presto à l'aide d'actions d'amorçage.Vous pouvez aussi utiliser Hue et Zeppelin en tant qu'interfaces graphiques pour interagir avec les applications sur votre cluster.

Hive est un entrepôt de données open source et un package analytique qui s'exécute au-dessus d'Hadoop. Hive fonctionne avec Hive QL, un langage à base SQL qui permet aux utilisateurs de structurer, synthétiser et rechercher des données. Hive QL va au-delà du SQL standard, en ajoutant une assistance de première catégorie en ce qui concerne les fonctions MapReduce et les types de données complexes extensibles définies par l'utilisateur comme Json et Thrift. Cette capacité permet le traitement de sources de données complexes et même non structurées comme les documents textes et les fichiers journaux. Hive permet d'utiliser des extensions utilisateur, grâce aux fonctions définies par l'utilisateur écrites dans Java. Amazon EMR a apporté de nombreuses améliorations à Hive, notamment l'intégration directe avec Amazon DynamoDB et Amazon S3. Avec Amazon EMR, vous pouvez, par exemple, charger des partitions de table automatiquement depuis Amazon S3. Vous pouvez également écrire des données dans des tables dans AmazonS3 sans utiliser de fichiers temporaires et vous pouvez accéder à des ressources dans AmazonS3 tels que des scripts pour les opérations de MapReduce et des bibliothèques supplémentaires. En savoir plus à propos de Hive et d'Amazon EMR.

Pig est un package analytique open source qui s'exécute au-dessus de Hadoop. Pig fonctionne avec Pig Latin, un langage à base SQL qui permet aux utilisateurs de structurer, synthétiser et rechercher des données. Tout comme les opérations de type SQL, Pig Latin ajoute également une assistance de première catégorie pour les fonctions map/réduire et les types de données complexes et extensibles définis par l'utilisateur. Cette capacité permet le traitement de sources de données complexes et même non structurées comme les documents textes et les fichiers journaux. Pig permet d'utiliser des extensions utilisateur, grâce aux fonctions définies par l'utilisateur écrites dans Java. Amazon EMR a apporté de nombreuses améliorations à Pig, notamment la possibilité d'utiliser plusieurs systèmes de fichiers (normalement, Pig ne peut accéder qu'à un seul système de fichiers à distance), la possibilité de charger des JAR et des scripts clients à partir d'AmazonS3 (par ex., « REGISTER s3:///my-bucket/piggybank.jar ») et des fonctionnalités supplémentaires pour le traitement String et DateTime. En savoir plus à propos de Pig et d'Amazon EMR.

HBaseest une base de données open source, non-relationnelle et distribuée, conçue sur le modèle de BigTable de Google. Elle a été développée dans le cadre du projet Apache SofwareFoundation de Hadoop et elle s'exécute au-dessus du système de fichiers distribués Hadoop (HDFS) afin de lui fournir des capacités comparables à celles de BigTable. HBase offre un stockage tolérant aux pannes et efficace de volumes importants de données dispersées, qui utilise la compression et le stockage basés sur des colonnes. De plus, HBase permet de chercher rapidement des données grâce à sa fonction de mise en cache en mémoire. Il est optimisé pour les opérations d'écriture séquentielle et très efficace pour l'insertion, la mise à jour et la suppression de lots. Il fonctionne de manière fluide avec Hadoop en partageant son système de fichiers et en servant d'entrée et de sortie directe pour les tâches dans Hadoop. Il intègre également Apache Hive, ce qui permet les requêtes de type SQL sur les tables HBase, se joint aux tables basées sur Hive et permet la prise en charge de la connectivité des bases de données Java (JDBC). Avec Amazon EMR, vous pouvez utiliser Amazon S3 comme un entrepôt de données pour Apache HBase, afin de limiter les coûts et de perdre en complexité opérationnelle. Si vous utilisez HDFS comme un entrepôt de données, vous avez la possibilité de sauvegarder HBase sur Amazon S3 et de faire une restauration à partir d'une sauvegarde précédemment créée. En savoir plus à propos de HBase et d'Amazon EMR.

Phoenix permet de profiter de SQL à faire latence, avec des capacités de transaction ACID sur les données stockées dans Apache HBase. Vous pouvez facilement créer des index secondaires pour plus de performances et créer des vues différentes sur la même table HBase sous-jacente. En savoir plus sur Phoenix sur Amazon EMR.

Impala est un outil open source dans l'écosystème Hadoop. Il est utilisé pour effectuer des requêtes interactives et ad hoc à l'aide de la syntaxe SQL. A l'inverse de MapReduce, Impala exploite un moteur de traitement massivement parallèle (MPP) similaire à celui des systèmes de gestion de base de données relationnelle traditionnels (SGBDR). En savoir plus à propos d'Impala et d'Amazon EMR.

Hue est une interface utilisateur à code source libre pour Hadoop qui facilite l'exécution et le développement de requêtes Hive, la gestion de fichiers dans HDFS, l'exécution et le développement de scripts Pig et la gestion de tables. Hue sur Amazon EMR s'intègre également à Amazon S3, vous pouvez donc interroger directement Amazon S3 et transférer facilement des fichiers entre HDFS et Amazon S3. En savoir plus à propos d'Hue et d'Amazon EMR.

Spark est un moteur de l'écosystème Hadoop qui traite rapidement de grands ensembles de données. Ce moteur utilise des ensembles de données distribués résistants (RDD, resilient distributed datasets) en mémoire et tolérants aux pannes, ainsi que des graphes orientés acycliques (DAG, Directed Acyclic Graphs), pour définir les transformations de données. Spark comprend également Spark SQL, Spark Streaming, MLlib et GraphX. En savoir plus sur Spark sur Amazon EMR.

Presto est un moteur de requêtes SQL distribué open source, optimisé pour l'analyse ad hoc des données avec un faible temps de latence. Il prend en charge le standard ANSI SQL, y compris les requêtes complexes, les agrégations, les jonctions et les fonctions de fenêtrage. Presto peut traiter des données provenant de multiples sources, notamment le système de fichiers distribués Hadoop (HDFS, Hadoop Distributed File System) et Amazon S3. En savoir plus sur Presto sur Amazon EMR.

Zeppelin est une interface graphique qui crée des blocs-notes interactifs et collaboratifs pour l'exploration des données à l'aide de Spark. Vous pouvez utiliser Scala, Python, SQL (à l'aide de Spark SQL) ou HiveQL pour manipuler les données et visualiser rapidement les résultats.Les blocs-notes Zeppelin peuvent être partagés entre plusieurs utilisateurs, et les visualisations peuvent être publiées sur des tableaux de bord externes. En savoir plus sur Zeppelin sur Amazon EMR.

Oozie est un programmateur de flux de travail pour Hadoop, qui vous permet de créer des graphes orientés acycliques (DAG, Directed Acyclic Graphs) d'actions. Vous pouvez également déclencher vos flux de travail Hadoop en fonction des actions ou de l'heure. En savoir plus sur Oozie sur Amazon EMR.

Tez est un framework d'exécution sur Hadoop YARN, qui offre des performances rapides à partir de plans de requêtes optimisés et d'une gestion des ressources améliorées. Vous pouvez utiliser Tez avec Apache Hive et Apache Pig au lieu d'Hadoop MapReduce, et il est possible de visualiser des plans d'exécution avec l'IU de Tez. En savoir plus sur Tez sur Amazon EMR.

Flink est un moteur de streaming de données qui facilite le traitement de flux en temps réel sur des sources de données à débit élevé. Il prend en charge la sémantique d'heure d'événement pour les événements dans le désordre, la sémantique d'exécution unique, le contrôle de la contre-pression et les API optimisées pour l'écriture d'applications en streaming et en lot. En savoir plus sur Flink sur EMR.

Autres : Amazon EMR prend également en charge toute une variété d'applications et d'outils courants, tels que R, Apache MXNet (apprentissage profond), Mahout (apprentissage-machine), Ganglia (surveillance), Accumulo (base de données NoSQL sécurisée), Sqoop (connecteur de base de données relationnelle), HCatalog (gestion de tables et de stockage) et bien d'autres encore. L'équipe Amazon EMR maintient un référentiel à code source libre d'actions d'amorçage pouvant être utilisé pour installer un logiciel supplémentaire, configurer votre cluster, ou encore servir d'exemple pour l'écriture de vos propres actions d'amorçage.

Personnaliser votre cluster : Vous choisissez les types d'instances EC2 à mettre en service dans votre cluster (standard, mémoire élevée, CPU élevée, E/S élevées, etc.) en fonction des besoins de vos applications. Vous disposez d'un accès racine à chaque instance et vous pouvez entièrement personnaliser votre cluster pour répondre à vos besoins. En savoir plus à propos des types d'instances Amazon EC2 pris en charge.

Déboguer vos applications : lorsque vous activez le débogage dans un cluster, Amazon EMR archive les fichiers journaux dans Amazon S3, puis les indexe. Vous pouvez alors utiliser une interface graphique dans la console pour parcourir les journaux et consulter l'historique de tâches de manière intuitive. En savoir plus à propos des tâches de débogage Amazon EMR.

Surveiller votre cluster : Vous pouvez utiliser Amazon CloudWatch pour surveiller 23 mesures personnalisées dans Amazon EMR, telles que le nombre moyen de tâches de traitement (« map ») et d'agrégation (« reduce »). Vous pouvez également définir des alarmes pour ces mesures. En savoir plus à propos de la surveillance des clusters Amazon EMR.

Répondre aux événements : Vous pouvez utiliser les types d’événements Amazon EMR dans les événements Amazon CloudWatch pour répondre aux changements d’état dans vos clusters Amazon EMR.À l’aide de simples règles configurables rapidement, vous pouvez faire correspondre les événements et les acheminer vers des sujets Amazon SNS, des fonctions AWS Lambda, des files d’attente Amazon SQS et bien plus encore. En savoir plus à propos des événements sur les clusters Amazon EMR.

Programmer des flux de travail récurrents : Vous pouvez utiliser AWS Data Pipeline pour programmer des flux de travail récurrents avec Amazon EMR. AWS Data Pipeline est un service Web qui vous permet de traiter et de transférer des données de manière fiable entre différents services AWS de stockage et de calcul, et vos sources de données sur site, selon des intervalles définis. En savoir plus à propos d'Amazon EMR et de Data Pipeline.

Cascading : Cascading est une bibliothèque Java open source qui offre une API de recherche, un planificateur de requêtes et un programmateur de tâches pour la création et l'exécution d'applications Hadoop MapReduce. Les applications développées avec Cascading sont compilées et empaquetées dans des fichiers JAR standard compatibles avec Hadoop, qui sont similaires à d'autres applications Hadoop natives. En savoir plus à propos de Cascading et d'Amazon EMR.

Apprentissage profond : utilisez des frameworks d'apprentissage profond courants comme Apache MXNet pour définir, former et déployer des réseaux neuraux profonds. Vous pouvez utiliser ces frameworks sur des clusters Amazon EMR avec des instances GPU. En savoir plus sur MXNet sur Amazon EMR.

Contrôler l'accès réseau à votre cluster : Vos pouvez lancer votre cluster dans Amazon Virtual Private Cloud (VPC), une section logiquement isolée du cloud AWS. Vous conservez la totale maîtrise de votre environnement réseau virtuel, y compris pour la sélection de votre propre plage d'adresses IP, la création de sous-réseaux et la configuration de tables de routage et de passerelles réseau. En savoir plus à propos d'Amazon EMR et d'Amazon VPC.

Gérer les utilisateurs, les autorisations et le chiffrement : vous pouvez utiliser les outils d'AWS Identity and Access Management (IAM), tels que les utilisateurs et les rôles IAM, pour contrôler les accès et les autorisations. Par exemple, vous pouvez autoriser un accès à vos clusters en lecture seule à certains utilisateurs, mais pas d'accès en écriture. Vous pouvez également utiliser les configurations de sécurité Amazon EMR pour définir différentes options de chiffrement au repos et en transit, notamment la prise en charge du chiffrement Amazon S3 et l'authentification KerberosDécouvrez le contrôle de l'accès à votre cluster et les options de chiffrement d'Amazon EMR.

Installer des logiciels supplémentaires : vous pouvez utiliser des actions d'amorçage ou une Amazon Machine Image (AMI) personnalisée exécutant Amazon Linux pour installer d'autres logiciels sur votre cluster. Les actions de démarrage sont des scripts qui sont exécutés sur les nœuds du cluster lorsque ce dernier est lancé par AmazonEMR. Ils s'exécutent avant le démarrage de Hadoop et avant que le nœud commence à traiter des données. Vous pouvez également précharger et utiliser des logiciels sur une AMI Amazon Linux personnalisée. Découvrez les actions d'amorçage Amazon EMR et les AMI Amazon Linux personnalisées.

Copier des données efficacement : Vous pouvez rapidement déplacer des volumes importants de données d'Amazon S3 vers HDFS, de HDFS vers Amazon S3 et entre les compartiments Amazon S3 à l'aide de l'extension open source de l'outil Distcp appelé S3DistCp d'Amazon EMR, qui utilise MapReduce pour déplacer d'importants volumes de données. En savoir plus sur S3DistCp.

Hadoop Streaming : Hadoop Streaming est un utilitaire qui fourni avec Hadoop pour vous permettre de développer des fichiers exécutables MapReduce dans d'autres langages que Java. Streaming est mis en œuvre sous forme de fichier JAR. En savoir plus à propos de Hadoop Streaming avec Amazon EMR.

JAR personnalisé : Ecrivez un programme Java, compilez-le avec la version de Hadoop que vous souhaitez utiliser, puis transférez-le dans Amazon S3. Vous pouvez ensuite envoyer des tâches Hadoop au cluster via l'interface Hadoop JobClient. En savoir plus à propos du traitement JAR personnalisé avec Amazon EMR.

Amazon EMR peut être utilisé avec une large gamme d'outils logiciels tiers :

Transfert de données

Surveillance

Personnalisation de performance

IDE graphique

Distribution Hadoop

BI/Visualisation

Informatique décisionnelle

Exploration de données

BI/Visualisation

IDE graphique

BI/Visualisation