Introduction

Les données doivent être consultées et analysées en toute sécurité par les applications et les personnes. Les volumes de données proviennent de sources nouvelles et diverses et augmentent à un rythme sans précédent. Les entreprises ont besoin d'extraire de la valeur des données, mais elles ont du mal à capturer, stocker et analyser toutes les données générées par les entreprises modernes d'aujourd'hui.

Pour relever ces défis, il faut créer une architecture de données moderne qui élimine tous vos silos de données pour les analyses et les informations, y compris les données tierces, et les met à la disposition de tous les membres de l'entreprise, avec une gouvernance de bout en bout. Il est également de plus en plus important de connecter vos systèmes d'analyse et de machine learning (ML) pour permettre l'analytique prédictive. 

Ce guide de décision vous aide à vous poser les bonnes questions pour créer votre architecture de données moderne sur les services AWS. Il explique comment éliminer les silos de données (en connectant votre lac de données et vos entrepôts de données), les silos de votre système (en connectant le machine learning et l'analytique) et vos silos de personnel (en mettant les données entre les mains de tous les membres de votre organisation).

Cet extrait de six minutes est tiré d'une présentation d'une heure faite par G2 Krishnamoorthy, vice-président d'AWS Analytics chez re:Invent 2022. Il fournit une vue d'ensemble des services d'analytique AWS. La présentation complète couvre l'état actuel de l'analytique sur AWS ainsi que les dernières innovations en matière de services en matière de données, et met en lumière les réussites des clients grâce à l'analytique AWS.

Durée de lecture

20 minutes

Objectif

Aidez à déterminer quels services d'analytique AWS sont les mieux adaptés à votre organisation.

Niveau

Débutant

Date de la dernière mise à jour

8 août 2023

Compréhension

Une stratégie moderne en matière de données repose sur un ensemble de composants technologiques qui vous aident à gérer les données, à y accéder, à les analyser et à agir en conséquence. Elle vous offre également plusieurs options pour vous connecter aux sources de données. Une stratégie de données moderne doit donner à vos équipes les moyens suivants :

  • Exécuter des analytiques ou du ML à l'aide de vos outils ou techniques préférés
  • Gérer qui a accès aux données grâce aux contrôles appropriés de sécurité et de gouvernance des données
  • Éliminer les silos de données pour tirer le meilleur parti des lacs de données et des magasins de données spécialement conçus
  • Stocker n'importe quelle quantité de données, à faible coût, et dans des formats de données ouverts et basés sur des normes. L'architecture de données moderne d'AWS connecte votre lac, votre entrepôt et d'autres services spécialement conçus pour former un tout cohérent.

La mise en œuvre d'une stratégie de données moderne sur AWS repose sur les cinq piliers suivants :

Lacs de données évolutifs

Pour prendre des décisions rapidement, vous devez stocker n'importe quelle quantité de données dans des formats ouverts et être capable de décomposer les silos de données déconnectés. Vous pouvez également avoir besoin de donner aux membres de votre organisation les moyens d'exécuter des analytiques ou du machine learning (en utilisant vos outils ou techniques préférés pour ce faire), ainsi que de gérer les personnes autorisées à accéder à des données spécifiques grâce aux contrôles appropriés de sécurité et de gouvernance des données.

Une architecture de données moderne commence par le lac de données. Un lac de données vous permet de stocker toutes vos données (relationnelles, non relationnelles, structurées et non structurées) de manière rentable. Avec AWS, vous pouvez déplacer n'importe quelle quantité de données provenant de différents silos vers un lac de données Amazon S3. Amazon S3 stocke ensuite les données à l'aide d'un format ouvert standard.

Construit sur mesure pour les performances et les coûts

Les pipelines de données sur site sont souvent adaptés aux outils que vous utilisez actuellement, ce qui ne garantit pas une expérience optimale. AWS fournit un large éventail de services de données spécialement conçus pour vous permettre de choisir le bon outil pour la bonne tâche, sans avoir à faire de compromis sur les fonctionnalités, les performances, la mise à l'échelle ou les coûts.

Sans serveur et facile à utiliser

Pour de nombreux types de besoins d'analytique, AWS propose des options sans serveur conçues pour vous permettre de vous concentrer sur votre application, sans avoir à toucher à aucune infrastructure.

Le processus de transformation des données brutes dans un état pouvant être utilisé pour obtenir des informations commerciales, et réalisé par l'étape d'extraction, transformation et chargement (ETL) du pipeline de données, peut s'avérer difficile. AWS s'oriente vers une approche zéro ETL (une approche qui élimine le besoin de processus ETL traditionnels). Cette approche vous aidera à analyser les données là où elles se trouvent, sans avoir besoin d'utiliser l'ETL. Les fonctionnalités des services AWS qui prennent en charge cette approche sont notamment les suivantes :


  • Amazon Zero-ETL Aurora vers Redshift
  • Ingestion de diffusion en continu d'Amazon Redshift directement depuis Kinesis et MSK vers Redshift
  • Requête fédérée dans Amazon Redshift et Amazon Athena

Accès unifié aux données, sécurité et gouvernance

Une fois que vous disposez d'un lac de données centralisé et d'un ensemble de services d'analytique spécifiques, vous devez pouvoir accéder à ces données où qu'elles se trouvent, puis les sécuriser et disposer de politiques de gouvernance conformes aux réglementations en vigueur et aux meilleures pratiques de sécurité.

La gouvernance commence avec AWS Lake Formation. Ce service vous permet d'accéder à vos données où qu'elles se trouvent, que ce soit dans une base de données, un entrepôt de données, un magasin de données spécialement conçu ou un lac de données, puis de protéger vos données, quel que soit l'endroit où vous les stockez.

Pour ce qui est de la gouvernance des données, AWS découvre, étiquette, catalogue et synchronise automatiquement vos données. Vous pouvez définir et gérer de manière centralisée les politiques de sécurité, de gouvernance et d'audit afin de respecter les réglementations spécifiques à votre secteur et à votre zone géographique.

Machine learning intégré

AWS offre une intégration du ML dans le cadre de ses services d'analytique spécialisés. Vous pouvez créer, former et déployer des modèles ML à l'aide de commandes SQL courantes, sans aucune expérience préalable en machine learning.

Il n'est pas rare d'utiliser différents types de magasins de données (relationnels, non relationnels, entrepôts de données et services d'analytique) pour différents cas d'utilisation. AWS propose une gamme d'intégrations qui vous permettent de créer des modèles sur vos données, ou d'ajouter des résultats d'inférence directement depuis votre magasin de données, sans avoir à exporter et à traiter vos données.

Considération

Il existe de nombreuses raisons de créer un pipeline d'analytique sur AWS. Il se peut que vous deviez soutenir un nouveau projet ou un projet pilote comme première étape de votre parcours de migration vers le cloud. Il se peut également que vous migriez une charge de travail existante avec le moins de perturbations possible. Quel que soit votre objectif, les considérations suivantes peuvent être utiles pour faire votre choix.

  • Analysez les sources de données et les types de données disponibles pour acquérir une compréhension complète de la diversité, de la fréquence et de la qualité des données. Identifiez les défis potentiels liés au traitement et à l'analytique des données. Cette analyse est cruciale pour les raisons suivantes :

    • Les sources de données sont diverses et proviennent de différents systèmes, applications, appareils et plateformes externes.
    • Chaque source de données a une structure, un format et une fréquence de mise à jour des données qui lui sont propres. L'analyse de ces sources permet d'identifier les méthodes et technologies de collecte de données appropriées.
    • L'analyse des types de données, tels que les données structurées, semi-structurées et non structurées, permet de déterminer les approches de traitement et de stockage des données appropriées.
    • L'analyse des sources et des types de données facilite l'évaluation de la qualité des données et vous aide à anticiper les problèmes potentiels liés à la qualité des données (valeurs manquantes, incohérences ou inexactitudes).
  • Déterminez les exigences de traitement des données relatives à la manière dont les données sont ingérées, transformées, nettoyées et préparées pour l'analyse. Voici quelques éléments à prendre en considération :

    • Transformation des données : déterminez les transformations spécifiques nécessaires pour adapter les données brutes à l'analyse. Cela implique des tâches telles que l'agrégation, la normalisation, le filtrage et l'enrichissement des données.
    • Nettoyage des données : évaluez la qualité des données et définissez des processus pour traiter les données manquantes, inexactes ou incohérentes. Mettez en œuvre des techniques de nettoyage des données pour garantir des données de haute qualité et des informations fiables.
    • Fréquence de traitement : déterminez si un traitement en temps réel, en temps quasi réel ou par lots est requis en fonction des besoins analytiques. Le traitement en temps réel permet d'obtenir des informations immédiates, tandis que le traitement par lots peut être suffisant pour des analyses périodiques.
    • Capacité de mise à l'échelle et débit : évaluez les exigences de capacité de mise à l'échelle pour la gestion des volumes de données, la vitesse de traitement et le nombre de demandes de données simultanées. Assurez-vous que l'approche de traitement choisie peut s'adapter à la croissance future.
    • Latence : évaluez la latence acceptable pour le traitement des données et le temps nécessaire entre l'ingestion des données et les résultats de l'analyse. Cela est particulièrement important pour les analytiques en temps réel ou sensibles au facteur temps.
  • Déterminez les besoins de stockage en déterminant comment et où les données sont stockées tout au long du pipeline d'analytique. Les considérations importantes sont notamment les suivantes :

    • Volume de données : évaluez la quantité de données générées et collectées, et estimez la croissance future des données afin de prévoir une capacité de stockage suffisante.
    • Conservation des données : définissez la durée pendant laquelle les données doivent être conservées à des fins d'analyse historique ou de conformité. Déterminez les politiques de conservation des données appropriées.
    • Modèles d'accès aux données : comprenez comment les données seront consultées et interrogées afin de choisir la solution de stockage la plus adaptée. Prenez en compte les opérations de lecture et d'écriture, la fréquence d'accès aux données et la localité des données.
    • Sécurité des données : donnez la priorité à la sécurité des données en évaluant les options de chiffrement, les contrôles d'accès et les mécanismes de protection des données pour protéger les informations sensibles.
    • Optimisation des coûts : optimisez les coûts de stockage en sélectionnant les solutions de stockage les plus économiques en fonction des modèles d'accès aux données et de leur utilisation.
    • Intégration aux services d'analytique : garantissez une intégration parfaite entre la solution de stockage choisie et les outils de traitement et d'analytique des données en cours.
  • Lorsque vous choisissez des services d'analytique pour la collecte et l'ingestion de données, tenez compte des différents types de données qui correspondent aux besoins et aux objectifs de votre organisation. Les types de données courants que vous devrez peut-être prendre en compte sont les suivants :

    • Données transactionnelles : incluent des informations sur les interactions ou transactions individuelles, telles que les achats des clients, les transactions financières, les commandes en ligne et les journaux d'activité des utilisateurs.
    • Données basées sur des fichiers : font référence aux données structurées ou non structurées stockées dans des fichiers, tels que des fichiers journaux, des feuilles de calcul, des documents, des images, des fichiers audio et des fichiers vidéo. Les services d'analytique devraient permettre l'ingestion de différents formats de fichiers/
    • Données sur les événements : capture les événements ou incidents importants, tels que les actions des utilisateurs, les événements du système, les événements liés aux machines ou les événements métier. Les événements peuvent inclure toutes les données qui arrivent à grande vitesse et qui sont capturées pour un traitement en continu ou en aval.
  • La responsabilité opérationnelle est partagée entre vous et AWS, la répartition des responsabilités variant selon les différents niveaux de modernisation. Vous avez la possibilité de gérer vous-même votre infrastructure d'analytique sur AWS ou de tirer parti des nombreux services d'analytique sans serveur pour alléger la charge de gestion de votre infrastructure.

    Les options autogérées permettent aux utilisateurs de mieux contrôler l'infrastructure et les configurations, mais elles nécessitent davantage d'efforts opérationnels.

    Les options sans serveur réduisent une grande partie de la charge opérationnelle en fournissant une capacité de mise à l'échelle automatique, une haute disponibilité et des fonctionnalités de sécurité robustes, permettant aux utilisateurs de se concentrer davantage sur la création de solutions analytiques et l'obtention d'informations plutôt que sur la gestion de l'infrastructure et des tâches opérationnelles. Tenez compte des avantages suivants des solutions d'analytique sans serveur :

    • Abstraction de l'infrastructure : les services sans serveur simplifient la gestion de l'infrastructure, soulageant les utilisateurs des tâches de provisionnement, de mise à l'échelle et de maintenance. AWS gère ces aspects opérationnels, réduisant ainsi les frais de gestion.
    • Mise à l'échelle et performances automatiques : les services sans serveur mettent automatiquement à l'échelle les ressources en fonction des demandes de charge de travail, garantissant ainsi des performances optimales sans intervention manuelle.
    • Haute disponibilité et reprise après sinistre : AWS fournit une haute disponibilité pour les services sans serveur. AWS gère la redondance des données, la réplication et la reprise après sinistre afin d'améliorer la disponibilité et la fiabilité des données.
    • Sécurité et conformité : AWS gère les mesures de sécurité, le chiffrement des données et la conformité des services sans serveur, conformément aux normes et aux meilleures pratiques du secteur.
    • Surveillance et journalisation : AWS propose des fonctionnalités intégrées de surveillance, de journalisation et d'alerte pour les services sans serveur. Les utilisateurs peuvent accéder à des statistiques et à des journaux détaillés via AWS CloudWatch.
  • Lors de la création d'un pipeline d'analyse moderne, il est essentiel de décider des types de charge de travail à prendre en charge pour répondre efficacement aux différents besoins analytiques. Les principaux points de décision à prendre en compte pour chaque type de charge de travail sont les suivants :

    Charge de travail par lots

    • Volume et fréquence des données : le traitement par lots convient à de grands volumes de données avec des mises à jour périodiques.
    • Latence des données : le traitement par lots peut entraîner un certain retard dans la fourniture d'informations par rapport au traitement en temps réel.

    Analytique interactive

    • Complexité des requêtes de données : l'analytique interactive nécessite des réponses à faible latence pour un feedback rapide.
    • Visualisation des données : évaluez le besoin d'outils de visualisation de données interactifs pour permettre aux utilisateurs professionnels d'explorer les données visuellement.

    Charges de travail de diffusion en continu

    • Vitesse et volume des données : les charges de travail de diffusion en continu nécessitent un traitement en temps réel pour gérer les données à haute vitesse.
    • Fenêtrage des données : définissez le fenêtrage des données et les agrégations temporelles pour les données diffusées en continu afin d'en extraire des informations pertinentes.
  • Définissez clairement les objectifs métier et les informations que vous souhaitez tirer des analytiques. Les différents types d'analytiques ont des objectifs différents. Par exemple :

    • L'analytique descriptive est idéale pour obtenir un aperçu historique
    • L'analytique diagnostique permet de comprendre les raisons des événements passés
    • L'analytique prédictive prévoit les résultats futurs
    • L'analytique prescriptive fournit des recommandations pour des actions optimales

    Faites correspondre vos objectifs métier avec les types d'analytiques pertinents. Voici quelques critères de décision clés qui vous aideront à choisir les bons types d'analytiques :

    • Disponibilité et qualité des données : les analytiques descriptives et diagnostiques s'appuient sur des données historiques, tandis que les analytiques prédictives et prescriptives nécessitent des données historiques suffisantes et des données de haute qualité pour créer des modèles précis.
    • Volume et complexité des données : les analytiques prédictives et prescriptives nécessitent d'importantes ressources informatiques et de traitement des données. Assurez-vous que votre infrastructure et vos outils peuvent gérer le volume et la complexité des données.
    • Complexité des décisions : si les décisions impliquent plusieurs variables, contraintes et objectifs, l'analytique prescriptive peut être plus adaptée pour orienter les actions optimales.
    • Tolérance au risque : les analytiques prescriptives peuvent fournir des recommandations, mais elles s'accompagnent d'incertitudes. Assurez-vous que les décideurs comprennent les risques associés aux résultats des analytiques.
  • Évaluez les besoins de l'architecture en termes de capacité de mise à l'échelle et de performance. La conception doit gérer des volumes de données croissants, des demandes des utilisateurs et des charges de travail analytiques. Les principaux facteurs de décision à prendre en compte sont les suivants :

    • Volume de données et croissance : évaluez le volume de données actuel et anticipez la croissance future. 
    • Vélocité des données et exigences en temps réel : déterminez si les données doivent être traitées et analysées en temps réel ou en temps quasi réel.
    • Complexité du traitement des données : analysez la complexité de vos tâches de traitement et d'analytique des données. Pour les tâches nécessitant des calculs intensifs, des services tels qu'Amazon EMR fournissent un environnement évolutif et géré pour le traitement big data.
    • Simultanéité et charge utilisateur : tenez compte du nombre d'utilisateurs simultanés et du niveau de charge utilisateur sur le système. 
    • Capacités de mise à l'échelle automatique : considérez les services qui offrent des fonctionnalités de mise à l'échelle automatique, permettant aux ressources d'augmenter ou de diminuer automatiquement en fonction de la demande. Cela garantit une utilisation efficace des ressources et une optimisation des coûts.
    • Distribution géographique : envisagez des services dotés d'une réplication globale et d'un accès aux données à faible latence si votre architecture de données doit être distribuée sur plusieurs régions ou sites.
    • Compromis coût-performance : trouvez un équilibre entre les besoins de performance et les considérations financières. Les services très performants peuvent avoir un coût plus élevé.
    • Contrats de niveau de service (SLA) : vérifiez les SLA fournis par les services AWS pour vous assurer qu'ils répondent à vos attentes en matière de capacité de mise à l'échelle et de performance.
  • La gouvernance des données est l'ensemble des processus, des politiques et des contrôles que vous devez mettre en œuvre pour garantir une gestion efficace, la qualité, la sécurité et la conformité de vos actifs de données. Les principaux points de décision à prendre en compte sont les suivants :

    • Politiques de conservation des données : définissez des politiques de conservation des données en fonction des exigences réglementaires et des besoins métier et établissez des processus pour une élimination sécurisée des données lorsqu'elles ne sont plus nécessaires.
    • Piste d'audit et journalisation : choisissez les mécanismes de journalisation et d'audit pour surveiller l'accès aux données et leur utilisation. Mettez en œuvre des pistes d'audit complètes pour suivre les modifications des données, les tentatives d'accès et les activités des utilisateurs à des fins de surveillance de la conformité et de la sécurité.
    • Exigences de conformité : comprenez les réglementations de conformité des données géographiques et sectorielles qui s'appliquent à votre organisation. Assurez-vous que l'architecture des données est conforme à ces réglementations et directives.
    • Classification des données : classez les données en fonction de leur sensibilité et définissez les contrôles de sécurité appropriés pour chaque classe de données. 
    • Reprise après sinistre et continuité des activités : planifiez la reprise après sinistre et la continuité des activités afin de garantir la disponibilité et la résilience des données en cas d'événements imprévus ou de défaillances du système.
    • Partage de données par des tiers : si vous partagez des données avec des entités tierces, mettez en œuvre des protocoles et des accords de partage de données sécurisés afin de protéger la confidentialité des données et d'empêcher toute utilisation abusive des données.
  • La sécurité des données dans le pipeline d'analytique implique de protéger les données à chaque étape du pipeline afin de garantir leur confidentialité, leur intégrité et leur disponibilité. Les principaux points de décision à prendre en compte sont les suivants :

    • Contrôle d'accès et autorisation : mettez en œuvre des protocoles d'authentification et d'autorisation robustes pour garantir que seuls les utilisateurs autorisés peuvent accéder à des ressources de données spécifiques.
    • Chiffrement des données : choisissez les méthodes de chiffrement appropriées pour les données stockées dans les bases de données, les lacs de données et lors du déplacement des données entre les différents composants de l'architecture.
    • Masquage et anonymisation des données : considérez la nécessité de masquer ou d'anonymiser les données afin de protéger les données sensibles, telles que les informations personnelles ou les données commerciales sensibles, tout en permettant la poursuite de certains processus analytiques.
    • Intégration sécurisée des données : établissez des pratiques d'intégration de données sécurisées pour garantir que les données circulent en toute sécurité entre les différents composants de l'architecture, en évitant les fuites de données ou les accès non autorisés lors du transfert des données.
    • Isolation du réseau : pensez aux services qui prennent en charge les points de terminaison d'un VPC AWS afin d'éviter d'exposer les ressources à l'Internet public.
  • Définissez les points d'intégration et les flux de données entre les différents composants du pipeline d'analytique afin de garantir un flux de données fluide et une interopérabilité. Les principaux points de décision à prendre en compte sont les suivants :

    • Intégration des sources de données : identifiez les sources de données à partir desquelles les données seront collectées, telles que les bases de données, les applications, les fichiers ou les API externes. Choisissez les méthodes d'ingestion de données (par lots, en temps réel, basées sur des événements) pour intégrer les données dans le pipeline de manière efficace et avec une latence minimale.
    • Transformation des données : déterminez les transformations nécessaires pour préparer les données en vue de leur analyse. Choisissez les outils et les processus permettant de nettoyer, d'agréger, de normaliser ou d'enrichir les données au fur et à mesure de leur transfert dans le pipeline.
    • Architecture de déplacement des données : choisissez l'architecture appropriée pour le mouvement des données entre les composants du pipeline. Envisagez le traitement par lots, le traitement par flux ou une combinaison des deux en fonction des exigences en temps réel et du volume de données.
    • Réplication et synchronisation des données : choisissez les mécanismes de réplication et de synchronisation des données pour maintenir les données à jour sur tous les composants. Envisagez des solutions de réplication en temps réel ou des synchronisations de données périodiques en fonction des exigences en matière de fraîcheur des données.
    • Qualité et validation des données : mettez en œuvre des contrôles de qualité des données et des étapes de validation pour garantir l'intégrité des données lors de leur transfert dans le pipeline. Décidez des mesures à prendre lorsque les données échouent à la validation, telles que les alertes ou la gestion des erreurs.
    • Sécurité et chiffrement des données : déterminez comment les données seront sécurisées pendant leur transit et au repos. Décidez des méthodes de chiffrement pour protéger les données sensibles tout au long du pipeline, en tenant compte du niveau de sécurité requis en fonction de la sensibilité des données.
    • Évolutivité et résilience : assurez-vous que la conception du flux de données permet une capacité de mise à l'échelle horizontale et puisse gérer des volumes de données et un trafic accrus.
  • La création de votre pipeline d'analytique sur AWS offre diverses opportunités d'optimisation des coûts. Pour garantir la rentabilité, envisagez les stratégies suivantes :

    • Dimensionnement et sélection des ressources : dimensionnez correctement vos ressources en fonction des exigences de charge de travail réelles. Choisissez les services et les types d'instances AWS qui répondent aux besoins de performance des charges de travail tout en évitant le surprovisionnement.
    • Mise à l'échelle automatique : implémentez la mise à l'échelle automatique pour les services soumis à des charges de travail variables. La mise à l'échelle automatique ajuste dynamiquement le nombre d'instances en fonction de la demande, réduisant ainsi les coûts pendant les périodes de faible trafic.
    • Instances ponctuelles : utilisez les instances Spot AWS EC2 pour les charges de travail non critiques et tolérantes aux pannes. Les instances Spot peuvent réduire considérablement les coûts par rapport aux instances à la demande.
    • Instances réservées : envisagez d'acheter des instances réservées AWS afin de réaliser des économies importantes par rapport à la tarification à la demande pour des charges de travail stables dont l'utilisation est prévisible.
    • Hiérarchisation du stockage des données : optimisez les coûts de stockage des données en utilisant différentes classes de stockage en fonction de la fréquence d'accès aux données.
    • Politiques de cycle de vie des données : configurez des politiques de cycle de vie des données pour déplacer ou supprimer automatiquement les données en fonction de leur âge et de leurs habitudes d'utilisation. Cela permet de gérer les coûts de stockage et de maintenir le stockage des données en adéquation avec leur valeur.

Choix

Maintenant que vous connaissez les critères permettant d'évaluer vos besoins en matière d'analytique, vous êtes prêt à choisir les services d'analytique AWS les mieux adaptés aux besoins de votre organisation. Le tableau suivant classe les ensembles de services correspondant à ce dont vous aurez besoin pour atteindre vos objectifs métier, tels que la réalisation d'analytiques avancées, la gestion des données ou des analytiques prédictives, et le ML.

Domaines d'action
Fermer

Analytiques avancées

AWS propose un ensemble étendu et rentable de services d'analytique pour vous aider à obtenir plus rapidement des informations à partir de vos données.

Cas d'utilisation
Services d'analytique connexes

Analytique interactive
Processus d'analyse et d'exploration des données en temps réel, permettant aux utilisateurs d'interroger et de visualiser les données de manière interactive afin d'obtenir des informations et de prendre rapidement des décisions fondées sur les données.

Fermer

Amazon Athena

Amazon Athena est un service d'analytique sans serveur et interactif basé sur des cadres open source, prenant en charge les formats de table et de fichier ouverts. Athena permet d'analyser plusieurs téraoctets de données là où elles se trouvent, de manière simple et flexible. Analysez des données ou créez des applications à partir d'un lac de données Amazon S3 et plus de 30 sources de données, dont des sources de données sur site ou d'autres systèmes cloud à l'aide de SQL ou de Python. Athena est un service conçu sur les moteurs open source Trino et Presto et sur les cadres Apache Spark. Il ne nécessite pas d'approvisionnement ni de configuration.

Traitement Big Data
Le big data se caractérise par ses trois dimensions : le volume, la vitesse et la variété. Les solutions de traitement big data visent à surmonter les défis posés par l'ampleur et la complexité du big data.

Fermer

Amazon EMR

Amazon EMR est la meilleure solution de big data cloud du secteur pour le traitement des données à l'échelle du pétaoctet, l'analyse interactive et le machine learning à l'aide de cadres open source, tels que Apache Spark, Apache Hive et Presto.

Entreposage de données
Stockage, organisation et extraction centralisés de grands volumes de données structurées et parfois semi-structurées provenant de diverses sources au sein d'une organisation.

Fermer

Amazon Redshift

Amazon Redshift utilise SQL pour analyser les données structurées et semi-structurées à travers les entrepôts de données, les bases de données opérationnelles et les lacs de données ; la solution utilise un matériel conçu par AWS et le machine learning pour offrir le meilleur rendement réel, quelle que soit l'échelle.

Analytique en temps réel
Processus d'analyse et de traitement des données à mesure qu'elles sont générées, reçues ou ingérées, sans délai significatif.

Fermer

Amazon Kinesis Data Analytics

Avec Amazon Kinesis Data Analytics, vous pouvez transformer et analyser plus facilement les données diffusées en continu en temps réel à l'aide d'Apache Flink.

Analytique opérationnelle
Utilisation d'analyses de données et d'informations en temps réel pour optimiser et améliorer les processus et activités opérationnels en cours au sein d'une organisation.

Fermer

AWS OpenSearch Service

OpenSearch est une suite de recherche et d'analytique distribuée, gérée par la communauté, sous licence Apache 2.0 et 100 % open source, utilisée pour un grand nombre de cas d'utilisation tels que la surveillance des applications en temps réel, l'analytique des journaux et la recherche de contenu sur site Web. OpenSearch offre un système hautement évolutif pour accéder rapidement à de grands volumes de données et pour leur apporter les réponses nécessaires grâce à un outil de visualisation intégré, OpenSearch Dashboards, qui permet aux clients d'explorer facilement leurs données.

Tableaux de bord et visualisations
Les tableaux de bord et les visualisations fournissent une représentation visuelle de jeux de données complexes, ce qui permet aux utilisateurs de saisir plus facilement les modèles, les tendances et les informations en un clin d'œil. Ils simplifient la compréhension des données, même pour les utilisateurs non techniques, en présentant les informations de manière visuellement attrayante et intuitive.

Fermer

Amazon QuickSight

Amazon QuickSight fournit aux organisations orientées données une informatique décisionnelle (BI) unifiée à très grande échelle. Avec QuickSight, tous les utilisateurs peuvent répondre à différents besoins analytiques à partir de la même source de vérité grâce à des tableaux de bord interactifs modernes, des rapports paginés, des analyses intégrées et des requêtes en langage naturel.

Préparation visuelle des données
Utiliser des outils et des interfaces visuels pour explorer, nettoyer, transformer et manipuler les données de manière visuelle et intuitive.

Fermer

AWS Glue DataBrew

AWS Glue DataBrew est un outil de préparation visuelle des données qui permet aux analystes et scientifiques des données de nettoyer et de normaliser facilement les données afin de les préparer pour l'analytique et le machine learning. Vous pouvez choisir parmi plus de 250 transformations préconçues pour automatiser les tâches de préparation des données, le tout sans avoir à écrire le moindre code. 

Fermer

Gestion des données

Ces services vous aident à combiner, déplacer et répliquer des données dans plusieurs stockages de données et dans votre lac de données.

Cas d'utilisation
Services d'analytique connexes

Mouvement des données en temps réel
Le mouvement des données en temps réel implique un délai minimal dans le transfert des données, généralement quelques secondes ou millisecondes après leur mise à disposition.

Fermer

Amazon MSK

Amazon Managed Streaming for Apache Kafka (Amazon MSK) est un service entièrement géré qui vous permet de créer et d'exécuter facilement des applications qui utilisent Apache Kafka pour traiter les données diffusées en continu. Amazon MSK fournit les opérations du plan de contrôle, telles que celles permettant de créer, de mettre à jour et de supprimer des clusters.

Fermer

Amazon Kinesis Data Streams

Amazon Kinesis Data Streams est un service de données diffusées en continu sans serveur qui facilite la capture, le traitement et le stockage de flux de données à n'importe quelle échelle.

Fermer

Amazon Kinesis Data Firehose

Amazon Kinesis Data Firehose est un service d'Extraction, transformation et chargement (ETL) qui capture, transforme et fournit de manière fiable des données diffusées en continu aux lacs de données, entrepôts de données et services analytiques.

Fermer

Amazon Kinesis Video Streams

Amazon Kinesis Video Streams facilite la diffusion sécurisée de vidéos depuis des appareils connectés vers AWS à des fins d'analyse, de ML, de lecture et d'autres traitements. Kinesis Video Streams alloue automatiquement et dimensionne de façon élastique toute l'infrastructure nécessaire pour ingérer des données vidéo diffusées en continu à partir de plusieurs millions d'appareils. Il stocke de façon durable, chiffre et indexe les données vidéo dans vos flux et vous permet d'accéder à vos données via des API simples à utiliser.

Fermer

AWS Glue

AWS Glue est un service d'intégration des données sans serveur qui facilite la découverte, la préparation, le déplacement et l'intégration des données depuis des sources multiples pour l'analytique, le ML et le développement des applications.

Gouvernance des données
Ensemble de processus, de politiques et de directives garantissant la gestion, la disponibilité, l'utilisabilité, l'intégrité et la sécurité appropriées des données tout au long de leur cycle de vie.

Fermer

Amazon DataZone

Utilisez Amazon DataZone pour partager, rechercher et découvrir des données à l'échelle au-delà des frontières organisationnelles. Collaborez sur des projets de données grâce à un portail d'analytique de données unifié qui vous offre une vue personnalisée de toutes vos données tout en appliquant vos politiques de gouvernance et de conformité.

Fermer

AWS Lake Formation

AWS Lake Formation est un service entièrement géré qui permet de créer, sécuriser et gérer plus facilement des lacs de données. Lake Formation simplifie et automatise de nombreuses étapes manuelles complexes qui sont généralement nécessaires pour créer des lacs de données. Ces étapes incluent la collecte, le nettoyage, le déplacement et le catalogage des données, ainsi que la mise à disposition sécurisée de ces données à des fins d'analytique et de machine learning.

Stockage d'objets pour les lacs de données
Un lac de données construit sur AWS utilise Amazon S3 comme plateforme de stockage principale. Amazon S3 constitue une base optimale pour un lac de données en raison de sa capacité de mise à l'échelle pratiquement illimitée et de sa grande durabilité. 

Fermer

Amazon S3

Amazon Simple Storage Service (Amazon S3) est un service de stockage d'objets qui offre capacité de mise à l'échelle, disponibilité des données, sécurité et performance. Amazon S3 fournit des fonctionnalités de gestion qui vous permettent d'optimiser, d'organiser et de configurer l'accès à vos données afin de répondre à vos besoins spécifiques en termes d'activité, d'organisation et de conformité.

Fermer

AWS Lake Formation

AWS Lake Formation est un service entièrement géré qui permet de créer, sécuriser et gérer plus facilement des lacs de données. Lake Formation simplifie et automatise de nombreuses étapes manuelles complexes qui sont généralement nécessaires pour créer des lacs de données. Ces étapes incluent la collecte, le nettoyage, le déplacement et le catalogage des données, ainsi que la mise à disposition sécurisée de ces données à des fins d'analytique et de machine learning.

Sauvegarde et archivage pour les lacs de données
Les lacs de données, alimentés par Amazon S3, fournissent aux entreprises la disponibilité, l'agilité et la flexibilité nécessaires aux approches analytiques modernes afin d'obtenir des informations plus approfondies. La protection des informations sensibles ou critiques stockées dans ces compartiments S3 est une priorité absolue pour les entreprises.

Fermer

Amazon S3 Glacier

Les classes de stockage Amazon S3 Glacier sont spécialement conçues pour l'archivage de données et vous offrent les meilleures performances, la plus grande flexibilité de récupération et le stockage d'archives le plus économique du cloud. Toutes les classes de stockage S3 Glacier offrent une capacité de mise à l'échelle pratiquement illimitée et sont conçues pour une durabilité des données de 99,999999999 % (11 neuf). 

Fermer

AWS Backup

AWS Backup est un service économique, entièrement géré et basé sur des stratégies, qui simplifie la protection des données à grande échelle.

Catalogue de données
Outil de gestion des métadonnées fournissant des informations détaillées sur les données disponibles, leur structure, leurs caractéristiques et leurs relations.

Fermer

Amazon Glue

AWS Glue est un service d'intégration des données sans serveur qui facilite la découverte, la préparation, le déplacement et l'intégration des données depuis des sources multiples pour l'analytique, le machine learning et le développement des applications.

Données de tiers
Les données tierces et les données de logiciel en tant que service (SaaS) sont de plus en plus importantes pour les opérations commerciales dans un environnement moderne axé sur les données.

Fermer

AWS Data Exchange

AWS Data Exchange est un service permettant aux clients d'AWS de trouver facilement des données de tierces parties, de s'y abonner et de les utiliser dans le Cloud AWS.

Fermer

Amazon AppFlow

Automatisez les flux de données bidirectionnels entre les applications SaaS et les services AWS en seulement quelques clics avec Amazon AppFlow. Exécutez les flux de données à presque n'importe quelle échelle et à la fréquence que vous choisissez, selon un calendrier, en réponse à un événement professionnel ou à la demande. 

Fermer

Analytique prédictive et machine learning

Pour les cas d'utilisation d'analytique prédictive, AWS fournit un large choix de services de machine learning, ainsi que des outils qui s'exécutent sur votre lac de données sur AWS.

Cas d'utilisation
Services d'analytique connexes

Cadres et interfaces
L'infrastructure AWS ML prend en charge tous les principaux cadres de machine learning. 

Fermer

AWS Deep Learning AMI

Les AWS Deep Learning AMI (DLAMI) fournissent aux professionnels et aux chercheurs en ML un ensemble sécurisé de cadres, de dépendances et d'outils pour accélérer le deep learning dans le cloud. Conçues pour Amazon Linux et Ubuntu, les Amazon Machine Image (AMI) sont préconfigurées avec TensorFlow, PyTorch, Apache MXNet, Chainer, Microsoft Cognitive Toolkit (CNTK), Gluon, Horovod et Keras, ce qui vous permet de déployer et d'exécuter rapidement ces cadres et ces outils à grande échelle.

Services de plateforme
Infrastructure entièrement gérée pour la création, la formation et le déploiement de modèles de machine learning. 

Fermer

Amazon SageMaker

Créez, entraînez et déployez rapidement et facilement des modèles de machine learning (ML) pour tous les cas d'utilisation avec une infrastructure, des outils et des flux entièrement gérés.

Intégrations directes des données
Développer, entraîner et déployer des modèles de ML à l'aide de commandes SQL courantes.

Fermer

Amazon Athena ML

Athena ML vous permet de créer et de déployer des modèles ML dans Amazon SageMaker et d'utiliser des fonctions SQL dans Amazon Athena pour générer des prédictions à partir de vos modèles SageMaker. 

Les équipes d'analystes peuvent ainsi mettre à la disposition des utilisateurs et des analystes des informations issues de modèles sans avoir besoin d'outils et d'infrastructures spécialisés.

Fermer

Amazon QuickSight ML

QuickSight ML Insights s'appuie sur les capacités éprouvées d'AWS en matière de ML et de langage naturel pour vous aider à obtenir des informations plus approfondies à partir de vos données. Ces fonctionnalités puissantes et prêtes à l'emploi permettent à quiconque de découvrir facilement les tendances cachées et les valeurs aberrantes, d'identifier les principaux moteurs commerciaux et d'effectuer des analyses et des prévisions hypothétiques puissantes sans aucune expertise technique ou expérience de machine learning requise.

Fermer

Amazon Redshift ML

Amazon Redshift ML permet aux analystes de données et aux développeurs de bases de données de créer, d'entraîner et d'appliquer facilement des modèles de machine learning à l'aide de commandes SQL courantes dans les entrepôts de données Amazon Redshift. Avec Redshift ML, vous pouvez tirer parti d'Amazon SageMaker, un service de machine learning entièrement géré, sans apprendre à utiliser de nouveaux outils ou langages. Il vous suffit d'utiliser des instructions SQL pour créer et entraîner des modèles de ML Amazon SageMaker à l'aide de vos données Redshift, puis d'utiliser ces modèles pour formuler des prédictions.

Utilisation

Vous devez désormais avoir une idée précise de vos objectifs métier, ainsi que du volume et de la rapidité des données que vous allez ingérer et analyser pour commencer à créer vos pipelines de données.

Pour découvrir comment utiliser et en savoir plus sur chacun des services d'intégration d'applications AWS disponibles, nous avons conçu un parcours permettant d'explorer le fonctionnement de chacun de ces services. Les sections suivantes fournissent des liens vers une documentation détaillée, des didacticiels pratiques et des ressources pour vous aider à passer d'une utilisation de base à des approfondissements plus avancés.

Analytiques avancées

  • Analytique interactive
  • Amazon Athena

    Mise en route avec Amazon Athena

    Découvrez comment utiliser Amazon Athena pour interroger des données et créer une table basée sur des exemples de données stockés dans Amazon S3, interroger la table et vérifier les résultats de la requête.

    Démarrez avec le didacticiel »

    Amazon Athena

    Démarrez avec Apache Spark sur Amazon Athena

    Utilisez l'expérience de bloc-notes simplifiée de la console Amazon Athena pour développer des applications Apache Spark à l'aide des API de bloc-notes Python ou Athena.

    Démarrez avec le didacticiel »

    Amazon Athena

    AWS re:Invent 2022 : nouveautés dans Amazon Athena

    Découvrez comment intégrer Athena à vos données, en l'appliquant à l'ensemble de vos données, qu'il s'agisse de lacs de données, de sources externes, ou plus encore.


    Regarder la session »

    Amazon Athena

    Analyse des données dans S3 à l'aide d'Amazon Athena
     
    Découvrez comment utiliser Athena sur les journaux des Elastic Load Balancers, générés sous forme de fichiers texte dans un format prédéfini. Nous vous montrons comment créer une table, partitionner les données dans un format utilisé par Athena, les convertir au format Parquet et comparer les performances des requêtes.

    Lire l'article de blog »

  • Traitement Big Data
  • Amazon EMR

    Mise en route avec AWS EMR

    Découvrez comment lancer un exemple de cluster à l'aide de Spark et comment exécuter un script PySpark simple stocké dans un compartiment Amazon S3.
     


    Démarrez avec le didacticiel »


    Amazon EMR

    Mise en route avec Amazon EMR sur EKS
     

    Nous vous montrons comment commencer à utiliser Amazon EMR sur EKS en déployant une application Spark sur un cluster virtuel.

    Démarrez avec le didacticiel »

    Amazon EMR

    Faites vos premiers pas avec EMR sans serveur
     

    Découvrez comment EMR sans serveur fournit un environnement d'exécution sans serveur simplifiant le fonctionnement des applications d'analytique qui utilisent les derniers cadres open source.

    Démarrez avec le didacticiel »

    Amazon EMR

    Nouveautés d'Amazon EMR

    Découvrez les derniers développements d'Amazon EMR, notamment Amazon EMR sans serveur, Amazon EMR Studio, et plus encore.

    Regarder la session »

  • Entreposage de données
  • Amazon Redshift

    Mise en route avec Amazon Redshift

    Découvrez le flux de base d'Amazon Redshift sans serveur pour créer des ressources sans serveur, vous connecter à Amazon Redshift sans serveur, charger des échantillons de données, puis exécuter des requêtes sur les données.

    Explorez le guide »

    Amazon Redshift

    Modernisez votre entrepôt de données


    Découvrez comment utiliser les nouvelles fonctionnalités d'Amazon Redshift pour moderniser votre entrepôt de données en accédant à toutes vos données.



    Regarder la vidéo »

    Amazon Redshift

    Déploiement d'un entrepôt de données sur AWS


    Dans ce projet, vous allez créer et configurer un entrepôt de données Amazon Redshift, charger un échantillon de données et l'analyser en utilisant un client SQL.


    Démarrez avec le didacticiel »

    Amazon Redshift

    Atelier d'approfondissement sur Amazon Redshift

    Découvrez une série d'exercices qui permettent aux utilisateurs de commencer à utiliser la plateforme Redshift.

    Démarrez avec l'atelier »

  • Analytique en temps réel
  • Amazon Kinesis Data Analytics

    Mise en route avec Amazon Kinesis Data Analytics pour Apache Flink
     

    Découvrez les concepts fondamentaux de Kinesis Data Analytics pour Apache Flink et de l'API DataStream.

    Explorez le guide »

    Amazon Kinesis Data Analytics

    Atelier d'analytique de diffusion en continu
     


    Dans cet atelier, vous créerez une architecture de diffusion en continu de bout en bout pour ingérer, analyser et visualiser des données diffusées en continu en temps quasi réel.

    Démarrez avec l'atelier »

    Amazon Kinesis Data Analytics

    Introduction à Amazon Kinesis Data Analytics pour les applications Java
     

    Découvrez comment vous pouvez utiliser les applications Apache Flink dans Amazon Kinesis Data Analytics pour obtenir plus rapidement des informations à partir de vos données.

    Regardez la session (connexion requise) »

    Amazon Kinesis Data Analytics

    Laboratoire Clickstream

    Laboratoire intégral sur un cas d'utilisation de clickstream utilisant Amazon MSK pour le stockage de flux et Amazon KDA pour les applications Java avec le moteur Apache Flink pour le traitement des flux.

    Démarrez avec le laboratoire »

  • Analytique opérationnelle
  • Amazon OpenSearch Service

    Démarrer avec Amazon OpenSearch Service


    Découvrez comment utiliser Amazon OpenSearch Service pour créer et configurer un domaine de test.

     





    Démarrez avec le didacticiel »

    Amazon OpenSearch Service

    Visualisation des appels de support client avec OpenSearch Service et OpenSearch Dashboards

    Découvrez un aperçu complet de la situation suivante : une entreprise reçoit un certain nombre d'appels de support client et souhaite les analyser. Quel est le sujet de chaque appel ? Combien étaient positifs ? Combien étaient négatifs ? Comment les responsables peuvent-ils rechercher ou consulter les transcriptions de ces appels ?

    Démarrez avec le didacticiel »

    Amazon OpenSearch Service

    Mise en route avec l'atelier Amazon OpenSearch sans serveur

    Découvrez comment configurer un nouveau domaine Amazon OpenSearch sans serveur dans la console AWS. Explorez les différents types de requêtes de recherche disponibles, concevez des visualisations accrocheuses et découvrez comment sécuriser votre domaine et vos documents en fonction des privilèges utilisateur attribués.


    Démarrez avec l'atelier »

    Amazon OpenSearch Service

    Création d'une solution d'analytique des journaux avec Amazon OpenSearch Service

    Découvrez comment dimensionner un cluster OpenSearch pour une charge de travail d'analytique des journaux. 


    Lire l'article de blog »

  • Tableaux de bord et visualisations
  • Amazon QuickSight

    Mise en route avec l'analyse de données Amazon QuickSight

    Découvrez comment créer votre première analyse. Utilisez des échantillons de données pour créer une analyse simple ou plus avancée. Vous pouvez également vous connecter à vos propres données pour créer une analyse.


    Explorez le guide »

    Amazon QuickSight

    Visualisation avec QuickSight


    Découvrez l'aspect technique de l'informatique décisionnelle (BI) et de la visualisation des données avec AWS. Découvrez comment intégrer des tableaux de bord dans des applications et des sites Web, et comment gérer en toute sécurité les accès et les autorisations.

    Démarrez avec le cours »

    Amazon QuickSight

    Ateliers QuickSight


    Prenez une longueur d'avance dans votre parcours QuickSight grâce aux ateliers.

     



    Démarrez avec les ateliers »

  • Préparation visuelle des données
  • AWS Glue DataBrew

    Mise en route avec AWS Glue DataBrew

    Découvrez comment créer votre premier projet DataBrew. Chargez un échantillon de jeu de données, exécutez des transformations sur ce jeu de données, créez une recette pour capturer ces transformations et exécutez une tâche pour écrire les données transformées sur Amazon Storage Service (Amazon S3).

    Démarrez avec le didacticiel »

    AWS Glue DataBrew

    Transformez les données avec AWS Glue DataBrew

    Découvrez AWS Glue DataBrew, un outil de préparation visuelle des données qui permet aux analystes et aux scientifiques des données de nettoyer et de normaliser facilement les données afin de les préparer pour l'analytique et le machine learning. Découvrez comment créer un processus ETL à l'aide d'AWS Glue DataBrew.

    Démarrez avec le laboratoire »

    AWS Glue DataBrew

    Journée d'immersion AWS Glue DataBrew

    Découvrez comment utiliser AWS Glue DataBrew pour nettoyer et normaliser les données pour l'analytique et le machine learning. 





    Démarrez avec l'atelier »

Gestion des données

  • Mouvement des données en temps réel
  • Amazon Kinesis Data Streams

    Mise en route avec l'ingestion de diffusion en continu à partir d'Amazon Kinesis Data Streams

    Découvrez comment diffuser directement des données depuis Kinesis Data Streams vers Amazon Redshift afin de réduire le temps d'accès aux données et les coûts de stockage.

    Explorez le guide »

    Amazon MSK

    Mise en route avec l'ingestion de diffusion en continu à partir d'Amazon Managed Streaming for Apache Kafka

    Découvrez comment diffuser directement des données depuis Amazon MSK vers Amazon Redshift afin de réduire le temps nécessaire pour accéder aux données et de réduire les coûts de stockage.

    Explorez le guide »

    Amazon Redshift

    Démarrez avec l'intégration zéro ETL d'Amazon Aurora à Amazon Redshift

    Découvrez comment démarrer avec les analytiques opérationnelles en temps quasi réel grâce à l'intégration zéro ETL d'Amazon Aurora à Amazon Redshift.

    Lire l'article de blog »

    AWS Glue

    Atelier d'une journée d'immersion AWS Glue
     
    Travaillez sur plusieurs laboratoires pratiques pour vous montrer comment résoudre des problèmes concrets à l'aide d'AWS Glue et des services AWS associés.


    Démarrez avec l'atelier »

    Amazon Kinesis Firehose

    Journée d'immersion Amazon Kinesis Data Firehose

    Découvrez comment ingérer facilement des données diffusées en continu dans Amazon OpenSearch et Amazon Redshift en quelques étapes de configuration.


    Démarrez avec l'atelier »

    Amazon Kinesis Video Streams

    Atelier Amazon Kinesis Video Streams

    Découvrez comment ingérer et stocker des vidéos provenant d'appareils photo, les lire en direct et à la demande et télécharger des fichiers vidéo à l'aide d'Amazon Kinesis Video Streams.

    Démarrez avec l'atelier »

  • Gouvernance des données
  • AWS Lake Formation

    Centralisez la gouvernance de votre lac de données à l'aide d'AWS Lake Formation

    Découvrez comment utiliser AWS Lake Formation pour centraliser la gouvernance des données et la gestion des accès aux données tout en utilisant Amazon Redshift Spectrum pour interroger votre lac de données.  

    Lire l'article de blog »

     

    Amazon EMR

    Mise en route avec Amazon DataZone
     


    Découvrez comment créer le domaine racine Amazon DataZone, obtenir l'URL du portail de données et parcourir les flux de travail Amazon DataZone de base pour les producteurs et les consommateurs de données.

    Explorez le guide »

    Amazon EMR

    Faites vos premiers pas avec EMR sans serveur
     



    Découvrez comment EMR sans serveur fournit un environnement d'exécution sans serveur qui simplifie le fonctionnement des applications d'analytique utilisant le dernier cadre open source.

    Explorez le guide »

  • Stockage d'objets pour les lacs de données
  • AWS Lake Formation

    Mise en route avec AWS Lake Formation

    Découvrez comment configurer Lake Formation pour la première fois afin de gérer les objets et les emplacements de données du catalogue de données AWS Glue existants dans Amazon S3.

    Explorez le guide »

    AWS Lake Formation

    Atelier AWS Lake Formation


    Découvrez comment utiliser AWS Lake Formation pour créer, sécuriser et gérer un lac de données sur AWS.



    Démarrez avec l'atelier »

    Amazon S3

    Stockage centralisé : Amazon S3 en tant que plateforme de stockage des lacs de données

    Découvrez comment Amazon S3 constitue une base optimale pour un lac de données en raison de sa capacité de mise à l'échelle pratiquement illimitée et de sa grande durabilité.


    Consulter le livre blanc »

  • Catalogue de données
  • Catalogue de données AWS Glue

    Catalogue de données et crawlers dans AWS Glue

    Découvrez comment utiliser les informations du catalogue de données pour créer et surveiller vos tâches ETL.


    Explorez le guide »

    Catalogue de données AWS Glue

    Mise en route avec le Catalogue de données AWS Glue

    Découvrez comment créer votre premier catalogue de données AWS Glue, qui utilise un compartiment Amazon S3 comme source de données.

    Démarrez avec le didacticiel »

  • Données de tiers
  • AWS Data Exchange

    Démarrez en tant qu'abonné à AWS Data Exchange

    Découvrez le processus complet pour s'abonner à un produit de données sur AWS Data Exchange à l'aide de la console AWS Data Exchange.

    Explorez le guide »

    AWS Data Exchange

    Démarrez en tant que fournisseur AWS Data Exchange

    Découvrez le processus complet pour devenir fournisseur de produits de données sur AWS Data Exchange à l'aide de la console AWS Data Exchange.

    Explorez le guide »

    Amazon AppFlow icon

    Mise en route avec Amazon AppFlow

    Découvrez Amazon AppFlow et les conditions requises pour démarrer.



    Explorez le guide »

    AWS Data Exchange

    Atelier AWS Data Exchange

    Explorez les laboratoires en libre-service que vous pouvez utiliser pour comprendre et apprendre comment les services AWS peuvent être utilisés conjointement avec des données tierces afin d'apporter des informations à vos projets d'analytique de données.  

    Démarrez avec l'atelier »

    Amazon AppFlow icon

    Atelier Amazon AppFlow

    Découvrez Amazon AppFlow et découvrez comment transférer facilement des données entre les services SaaS populaires et AWS.



    Démarrez avec l'atelier »

Analytique prédictive & ML

  • Cadres et interfaces
  • AMI Amazon Deep Learning

    Mise en route avec les AMI AWS Deep Learning

    Découvrez des conseils pour choisir la DLAMI qui vous convient, sélectionner un type d'instance adapté à votre cas d'utilisation et à votre budget, ainsi que des informations supplémentaires décrivant les configurations personnalisées.
    Explorez le guide »

    AMI Amazon Deep Learning

    Didacticiels sur les Deep Learning AMI


    Ensemble de didacticiels pour vous montrer comment utiliser l'AMI Deep Learning avec le logiciel Conda.



    Démarrez avec les didacticiels »

    AMI Amazon Deep Learning

    Démarrez avec le deep learning en utilisant l'AWS Deep Learning AMI

    Découvrez les AWS Deep Learning AMI (Amazon Machine Images), qui vous permettent de créer des environnements et des flux de travail personnalisés.


    Lire l'article de blog »

  • Services de plateforme
  • Amazon SageMaker

    Fonctionnement d'Amazon SageMaker


    Découvrez la présentation sur le machine learning et le fonctionnement d'Amazon SageMaker. 



    Explorez le guide »

    Amazon SageMaker

    Mise en route avec Amazon SageMaker

    Nous vous montrons comment commencer à utiliser Amazon EMR sur EKS en déployant une application Spark sur un cluster virtuel.

    Explorez le guide »

    Amazon SageMaker

    Générer des prédictions de machine learning sans écrire de code
     

    Dans ce didacticiel, vous apprendrez à utiliser Amazon SageMaker Canvas pour créer des modèles de ML et générer des prédictions précises sans écrire une seule ligne de code.

    Démarrez avec le didacticiel »

  • Intégrations directes des données
  • AWS Athena ML

    Utilisation du machine learning avec Amazon Athena

    Découvrez comment le ML avec Amazon Athena vous permet d'utiliser Athena pour écrire des instructions SQL exécutant l'inférence par machine learning (ML) à l'aide d'Amazon SageMaker.



    Explorez le guide »

    AWS QuickSight ML

    Obtenir des informations grâce au machine learning dans Amazon QuickSight

    Découvrez comment les fonctionnalités de machine learning et de langage naturel d'Amazon QuickSight Enterprise Edition vous permettent d'aller au-delà de l'analyse descriptive et diagnostique et de vous lancer dans les prévisions et la prise de décisions.

    Explorez le guide »

    AWS Redshift ML

    Mise en route avec le ML Amazon Redshift

    Découvrez comment utiliser les données de votre cluster Redshift pour entraîner un modèle avec Amazon SageMaker.





    Explorez le guide »

    AWS Neptune ML

    Comment démarrer avec Neptune ML

    Nous vous montrons comment configurer facilement Neptune ML et déduire les propriétés des sommets d'un graphe.

    Lire l'article de blog »

Exploration

Diagrammes d'architecture

Explorez les diagrammes d'architectures pour vous aider à développer, à mettre à l'échelle et à tester vos solutions analytiques sur AWS.

Explorez les diagrammes d'architectures »

 

Livres blancs

Explorez les livres blancs qui vous aideront à démarrer, à découvrir les meilleures pratiques et à comprendre vos options d'analytique.

Explorez les livres blancs »

 

Solutions AWS

Découvrez des solutions approuvées et des conseils architecturaux pour les cas d'utilisation courants des services analytiques.

Explorer les solutions »

 

Cette page vous a-t-elle été utile ?