pour soutenir une architecture de données moderne
Introduction
Les données doivent être consultées et analysées en toute sécurité par les applications et les personnes. Les volumes de données proviennent de sources nouvelles et diverses et augmentent à un rythme sans précédent. Les entreprises ont besoin d'extraire de la valeur des données, mais elles ont du mal à capturer, stocker et analyser toutes les données générées par les entreprises modernes d'aujourd'hui.
Pour relever ces défis, il faut créer une architecture de données moderne qui élimine tous vos silos de données pour les analyses et les informations, y compris les données tierces, et les met à la disposition de tous les membres de l'entreprise, avec une gouvernance de bout en bout. Il est également de plus en plus important de connecter vos systèmes d'analyse et de machine learning (ML) pour permettre l'analytique prédictive.
Ce guide de décision vous aide à vous poser les bonnes questions pour créer votre architecture de données moderne sur les services AWS. Il explique comment éliminer les silos de données (en connectant votre lac de données et vos entrepôts de données), les silos de votre système (en connectant le machine learning et l'analytique) et vos silos de personnel (en mettant les données entre les mains de tous les membres de votre organisation).
Cet extrait de six minutes est tiré d'une présentation d'une heure faite par G2 Krishnamoorthy, vice-président d'AWS Analytics chez re:Invent 2022. Il fournit une vue d'ensemble des services d'analytique AWS. La présentation complète couvre l'état actuel de l'analytique sur AWS ainsi que les dernières innovations en matière de services en matière de données, et met en lumière les réussites des clients grâce à l'analytique AWS.
Durée de lecture
20 minutes
Objectif
Aidez à déterminer quels services d'analytique AWS sont les mieux adaptés à votre organisation.
Niveau
Débutant
Date de la dernière mise à jour
8 août 2023
Services abordés
Plus de guides de décision sur
Compréhension
Une stratégie moderne en matière de données repose sur un ensemble de composants technologiques qui vous aident à gérer les données, à y accéder, à les analyser et à agir en conséquence. Elle vous offre également plusieurs options pour vous connecter aux sources de données. Une stratégie de données moderne doit donner à vos équipes les moyens suivants :
- Exécuter des analytiques ou du ML à l'aide de vos outils ou techniques préférés
- Gérer qui a accès aux données grâce aux contrôles appropriés de sécurité et de gouvernance des données
- Éliminer les silos de données pour tirer le meilleur parti des lacs de données et des magasins de données spécialement conçus
- Stocker n'importe quelle quantité de données, à faible coût, et dans des formats de données ouverts et basés sur des normes. L'architecture de données moderne d'AWS connecte votre lac, votre entrepôt et d'autres services spécialement conçus pour former un tout cohérent.
La mise en œuvre d'une stratégie de données moderne sur AWS repose sur les cinq piliers suivants :
Lacs de données évolutifs
Pour prendre des décisions rapidement, vous devez stocker n'importe quelle quantité de données dans des formats ouverts et être capable de décomposer les silos de données déconnectés. Vous pouvez également avoir besoin de donner aux membres de votre organisation les moyens d'exécuter des analytiques ou du machine learning (en utilisant vos outils ou techniques préférés pour ce faire), ainsi que de gérer les personnes autorisées à accéder à des données spécifiques grâce aux contrôles appropriés de sécurité et de gouvernance des données.
Une architecture de données moderne commence par le lac de données. Un lac de données vous permet de stocker toutes vos données (relationnelles, non relationnelles, structurées et non structurées) de manière rentable. Avec AWS, vous pouvez déplacer n'importe quelle quantité de données provenant de différents silos vers un lac de données Amazon S3. Amazon S3 stocke ensuite les données à l'aide d'un format ouvert standard.
Construit sur mesure pour les performances et les coûts
Les pipelines de données sur site sont souvent adaptés aux outils que vous utilisez actuellement, ce qui ne garantit pas une expérience optimale. AWS fournit un large éventail de services de données spécialement conçus pour vous permettre de choisir le bon outil pour la bonne tâche, sans avoir à faire de compromis sur les fonctionnalités, les performances, la mise à l'échelle ou les coûts.
Sans serveur et facile à utiliser
Pour de nombreux types de besoins d'analytique, AWS propose des options sans serveur conçues pour vous permettre de vous concentrer sur votre application, sans avoir à toucher à aucune infrastructure.
Le processus de transformation des données brutes dans un état pouvant être utilisé pour obtenir des informations commerciales, et réalisé par l'étape d'extraction, transformation et chargement (ETL) du pipeline de données, peut s'avérer difficile. AWS s'oriente vers une approche zéro ETL (une approche qui élimine le besoin de processus ETL traditionnels). Cette approche vous aidera à analyser les données là où elles se trouvent, sans avoir besoin d'utiliser l'ETL. Les fonctionnalités des services AWS qui prennent en charge cette approche sont notamment les suivantes :
- Amazon Zero-ETL Aurora vers Redshift
- Ingestion de diffusion en continu d'Amazon Redshift directement depuis Kinesis et MSK vers Redshift
- Requête fédérée dans Amazon Redshift et Amazon Athena
Accès unifié aux données, sécurité et gouvernance
Une fois que vous disposez d'un lac de données centralisé et d'un ensemble de services d'analytique spécifiques, vous devez pouvoir accéder à ces données où qu'elles se trouvent, puis les sécuriser et disposer de politiques de gouvernance conformes aux réglementations en vigueur et aux meilleures pratiques de sécurité.
La gouvernance commence avec AWS Lake Formation. Ce service vous permet d'accéder à vos données où qu'elles se trouvent, que ce soit dans une base de données, un entrepôt de données, un magasin de données spécialement conçu ou un lac de données, puis de protéger vos données, quel que soit l'endroit où vous les stockez.
Pour ce qui est de la gouvernance des données, AWS découvre, étiquette, catalogue et synchronise automatiquement vos données. Vous pouvez définir et gérer de manière centralisée les politiques de sécurité, de gouvernance et d'audit afin de respecter les réglementations spécifiques à votre secteur et à votre zone géographique.
Machine learning intégré
AWS offre une intégration du ML dans le cadre de ses services d'analytique spécialisés. Vous pouvez créer, former et déployer des modèles ML à l'aide de commandes SQL courantes, sans aucune expérience préalable en machine learning.
Il n'est pas rare d'utiliser différents types de magasins de données (relationnels, non relationnels, entrepôts de données et services d'analytique) pour différents cas d'utilisation. AWS propose une gamme d'intégrations qui vous permettent de créer des modèles sur vos données, ou d'ajouter des résultats d'inférence directement depuis votre magasin de données, sans avoir à exporter et à traiter vos données.
Considération
Il existe de nombreuses raisons de créer un pipeline d'analytique sur AWS. Il se peut que vous deviez soutenir un nouveau projet ou un projet pilote comme première étape de votre parcours de migration vers le cloud. Il se peut également que vous migriez une charge de travail existante avec le moins de perturbations possible. Quel que soit votre objectif, les considérations suivantes peuvent être utiles pour faire votre choix.
-
Évaluez les sources de données et les types de données
-
Exigences en matière de traitement des données
-
Exigences de stockage
-
Types de données
-
Considérations opérationnelles
-
Type de charge de travail
-
Type d'analyse nécessaire
-
Performance et capacité de mise à l'échelle
-
Gouvernance des données
-
Sécurité
-
Planifier l'intégration et les flux de données
-
Architecture visant à l'optimisation des coûts
-
Analysez les sources de données et les types de données disponibles pour acquérir une compréhension complète de la diversité, de la fréquence et de la qualité des données. Identifiez les défis potentiels liés au traitement et à l'analytique des données. Cette analyse est cruciale pour les raisons suivantes :
- Les sources de données sont diverses et proviennent de différents systèmes, applications, appareils et plateformes externes.
- Chaque source de données a une structure, un format et une fréquence de mise à jour des données qui lui sont propres. L'analyse de ces sources permet d'identifier les méthodes et technologies de collecte de données appropriées.
- L'analyse des types de données, tels que les données structurées, semi-structurées et non structurées, permet de déterminer les approches de traitement et de stockage des données appropriées.
- L'analyse des sources et des types de données facilite l'évaluation de la qualité des données et vous aide à anticiper les problèmes potentiels liés à la qualité des données (valeurs manquantes, incohérences ou inexactitudes).
-
Déterminez les exigences de traitement des données relatives à la manière dont les données sont ingérées, transformées, nettoyées et préparées pour l'analyse. Voici quelques éléments à prendre en considération :
- Transformation des données : déterminez les transformations spécifiques nécessaires pour adapter les données brutes à l'analyse. Cela implique des tâches telles que l'agrégation, la normalisation, le filtrage et l'enrichissement des données.
- Nettoyage des données : évaluez la qualité des données et définissez des processus pour traiter les données manquantes, inexactes ou incohérentes. Mettez en œuvre des techniques de nettoyage des données pour garantir des données de haute qualité et des informations fiables.
- Fréquence de traitement : déterminez si un traitement en temps réel, en temps quasi réel ou par lots est requis en fonction des besoins analytiques. Le traitement en temps réel permet d'obtenir des informations immédiates, tandis que le traitement par lots peut être suffisant pour des analyses périodiques.
- Capacité de mise à l'échelle et débit : évaluez les exigences de capacité de mise à l'échelle pour la gestion des volumes de données, la vitesse de traitement et le nombre de demandes de données simultanées. Assurez-vous que l'approche de traitement choisie peut s'adapter à la croissance future.
- Latence : évaluez la latence acceptable pour le traitement des données et le temps nécessaire entre l'ingestion des données et les résultats de l'analyse. Cela est particulièrement important pour les analytiques en temps réel ou sensibles au facteur temps.
-
Déterminez les besoins de stockage en déterminant comment et où les données sont stockées tout au long du pipeline d'analytique. Les considérations importantes sont notamment les suivantes :
- Volume de données : évaluez la quantité de données générées et collectées, et estimez la croissance future des données afin de prévoir une capacité de stockage suffisante.
- Conservation des données : définissez la durée pendant laquelle les données doivent être conservées à des fins d'analyse historique ou de conformité. Déterminez les politiques de conservation des données appropriées.
- Modèles d'accès aux données : comprenez comment les données seront consultées et interrogées afin de choisir la solution de stockage la plus adaptée. Prenez en compte les opérations de lecture et d'écriture, la fréquence d'accès aux données et la localité des données.
- Sécurité des données : donnez la priorité à la sécurité des données en évaluant les options de chiffrement, les contrôles d'accès et les mécanismes de protection des données pour protéger les informations sensibles.
- Optimisation des coûts : optimisez les coûts de stockage en sélectionnant les solutions de stockage les plus économiques en fonction des modèles d'accès aux données et de leur utilisation.
- Intégration aux services d'analytique : garantissez une intégration parfaite entre la solution de stockage choisie et les outils de traitement et d'analytique des données en cours.
-
Lorsque vous choisissez des services d'analytique pour la collecte et l'ingestion de données, tenez compte des différents types de données qui correspondent aux besoins et aux objectifs de votre organisation. Les types de données courants que vous devrez peut-être prendre en compte sont les suivants :
- Données transactionnelles : incluent des informations sur les interactions ou transactions individuelles, telles que les achats des clients, les transactions financières, les commandes en ligne et les journaux d'activité des utilisateurs.
- Données basées sur des fichiers : font référence aux données structurées ou non structurées stockées dans des fichiers, tels que des fichiers journaux, des feuilles de calcul, des documents, des images, des fichiers audio et des fichiers vidéo. Les services d'analytique devraient permettre l'ingestion de différents formats de fichiers/
- Données sur les événements : capture les événements ou incidents importants, tels que les actions des utilisateurs, les événements du système, les événements liés aux machines ou les événements métier. Les événements peuvent inclure toutes les données qui arrivent à grande vitesse et qui sont capturées pour un traitement en continu ou en aval.
-
La responsabilité opérationnelle est partagée entre vous et AWS, la répartition des responsabilités variant selon les différents niveaux de modernisation. Vous avez la possibilité de gérer vous-même votre infrastructure d'analytique sur AWS ou de tirer parti des nombreux services d'analytique sans serveur pour alléger la charge de gestion de votre infrastructure.
Les options autogérées permettent aux utilisateurs de mieux contrôler l'infrastructure et les configurations, mais elles nécessitent davantage d'efforts opérationnels.
Les options sans serveur réduisent une grande partie de la charge opérationnelle en fournissant une capacité de mise à l'échelle automatique, une haute disponibilité et des fonctionnalités de sécurité robustes, permettant aux utilisateurs de se concentrer davantage sur la création de solutions analytiques et l'obtention d'informations plutôt que sur la gestion de l'infrastructure et des tâches opérationnelles. Tenez compte des avantages suivants des solutions d'analytique sans serveur :
- Abstraction de l'infrastructure : les services sans serveur simplifient la gestion de l'infrastructure, soulageant les utilisateurs des tâches de provisionnement, de mise à l'échelle et de maintenance. AWS gère ces aspects opérationnels, réduisant ainsi les frais de gestion.
- Mise à l'échelle et performances automatiques : les services sans serveur mettent automatiquement à l'échelle les ressources en fonction des demandes de charge de travail, garantissant ainsi des performances optimales sans intervention manuelle.
- Haute disponibilité et reprise après sinistre : AWS fournit une haute disponibilité pour les services sans serveur. AWS gère la redondance des données, la réplication et la reprise après sinistre afin d'améliorer la disponibilité et la fiabilité des données.
- Sécurité et conformité : AWS gère les mesures de sécurité, le chiffrement des données et la conformité des services sans serveur, conformément aux normes et aux meilleures pratiques du secteur.
- Surveillance et journalisation : AWS propose des fonctionnalités intégrées de surveillance, de journalisation et d'alerte pour les services sans serveur. Les utilisateurs peuvent accéder à des statistiques et à des journaux détaillés via AWS CloudWatch.
-
Lors de la création d'un pipeline d'analyse moderne, il est essentiel de décider des types de charge de travail à prendre en charge pour répondre efficacement aux différents besoins analytiques. Les principaux points de décision à prendre en compte pour chaque type de charge de travail sont les suivants :
Charge de travail par lots
- Volume et fréquence des données : le traitement par lots convient à de grands volumes de données avec des mises à jour périodiques.
- Latence des données : le traitement par lots peut entraîner un certain retard dans la fourniture d'informations par rapport au traitement en temps réel.
Analytique interactive
- Complexité des requêtes de données : l'analytique interactive nécessite des réponses à faible latence pour un feedback rapide.
- Visualisation des données : évaluez le besoin d'outils de visualisation de données interactifs pour permettre aux utilisateurs professionnels d'explorer les données visuellement.
Charges de travail de diffusion en continu
- Vitesse et volume des données : les charges de travail de diffusion en continu nécessitent un traitement en temps réel pour gérer les données à haute vitesse.
- Fenêtrage des données : définissez le fenêtrage des données et les agrégations temporelles pour les données diffusées en continu afin d'en extraire des informations pertinentes.
-
Définissez clairement les objectifs métier et les informations que vous souhaitez tirer des analytiques. Les différents types d'analytiques ont des objectifs différents. Par exemple :
- L'analytique descriptive est idéale pour obtenir un aperçu historique
- L'analytique diagnostique permet de comprendre les raisons des événements passés
- L'analytique prédictive prévoit les résultats futurs
- L'analytique prescriptive fournit des recommandations pour des actions optimales
Faites correspondre vos objectifs métier avec les types d'analytiques pertinents. Voici quelques critères de décision clés qui vous aideront à choisir les bons types d'analytiques :
- Disponibilité et qualité des données : les analytiques descriptives et diagnostiques s'appuient sur des données historiques, tandis que les analytiques prédictives et prescriptives nécessitent des données historiques suffisantes et des données de haute qualité pour créer des modèles précis.
- Volume et complexité des données : les analytiques prédictives et prescriptives nécessitent d'importantes ressources informatiques et de traitement des données. Assurez-vous que votre infrastructure et vos outils peuvent gérer le volume et la complexité des données.
- Complexité des décisions : si les décisions impliquent plusieurs variables, contraintes et objectifs, l'analytique prescriptive peut être plus adaptée pour orienter les actions optimales.
- Tolérance au risque : les analytiques prescriptives peuvent fournir des recommandations, mais elles s'accompagnent d'incertitudes. Assurez-vous que les décideurs comprennent les risques associés aux résultats des analytiques.
-
Évaluez les besoins de l'architecture en termes de capacité de mise à l'échelle et de performance. La conception doit gérer des volumes de données croissants, des demandes des utilisateurs et des charges de travail analytiques. Les principaux facteurs de décision à prendre en compte sont les suivants :
- Volume de données et croissance : évaluez le volume de données actuel et anticipez la croissance future.
- Vélocité des données et exigences en temps réel : déterminez si les données doivent être traitées et analysées en temps réel ou en temps quasi réel.
- Complexité du traitement des données : analysez la complexité de vos tâches de traitement et d'analytique des données. Pour les tâches nécessitant des calculs intensifs, des services tels qu'Amazon EMR fournissent un environnement évolutif et géré pour le traitement big data.
- Simultanéité et charge utilisateur : tenez compte du nombre d'utilisateurs simultanés et du niveau de charge utilisateur sur le système.
- Capacités de mise à l'échelle automatique : considérez les services qui offrent des fonctionnalités de mise à l'échelle automatique, permettant aux ressources d'augmenter ou de diminuer automatiquement en fonction de la demande. Cela garantit une utilisation efficace des ressources et une optimisation des coûts.
- Distribution géographique : envisagez des services dotés d'une réplication globale et d'un accès aux données à faible latence si votre architecture de données doit être distribuée sur plusieurs régions ou sites.
- Compromis coût-performance : trouvez un équilibre entre les besoins de performance et les considérations financières. Les services très performants peuvent avoir un coût plus élevé.
- Contrats de niveau de service (SLA) : vérifiez les SLA fournis par les services AWS pour vous assurer qu'ils répondent à vos attentes en matière de capacité de mise à l'échelle et de performance.
-
La gouvernance des données est l'ensemble des processus, des politiques et des contrôles que vous devez mettre en œuvre pour garantir une gestion efficace, la qualité, la sécurité et la conformité de vos actifs de données. Les principaux points de décision à prendre en compte sont les suivants :
- Politiques de conservation des données : définissez des politiques de conservation des données en fonction des exigences réglementaires et des besoins métier et établissez des processus pour une élimination sécurisée des données lorsqu'elles ne sont plus nécessaires.
- Piste d'audit et journalisation : choisissez les mécanismes de journalisation et d'audit pour surveiller l'accès aux données et leur utilisation. Mettez en œuvre des pistes d'audit complètes pour suivre les modifications des données, les tentatives d'accès et les activités des utilisateurs à des fins de surveillance de la conformité et de la sécurité.
- Exigences de conformité : comprenez les réglementations de conformité des données géographiques et sectorielles qui s'appliquent à votre organisation. Assurez-vous que l'architecture des données est conforme à ces réglementations et directives.
- Classification des données : classez les données en fonction de leur sensibilité et définissez les contrôles de sécurité appropriés pour chaque classe de données.
- Reprise après sinistre et continuité des activités : planifiez la reprise après sinistre et la continuité des activités afin de garantir la disponibilité et la résilience des données en cas d'événements imprévus ou de défaillances du système.
- Partage de données par des tiers : si vous partagez des données avec des entités tierces, mettez en œuvre des protocoles et des accords de partage de données sécurisés afin de protéger la confidentialité des données et d'empêcher toute utilisation abusive des données.
- Politiques de conservation des données : définissez des politiques de conservation des données en fonction des exigences réglementaires et des besoins métier et établissez des processus pour une élimination sécurisée des données lorsqu'elles ne sont plus nécessaires.
-
La sécurité des données dans le pipeline d'analytique implique de protéger les données à chaque étape du pipeline afin de garantir leur confidentialité, leur intégrité et leur disponibilité. Les principaux points de décision à prendre en compte sont les suivants :
- Contrôle d'accès et autorisation : mettez en œuvre des protocoles d'authentification et d'autorisation robustes pour garantir que seuls les utilisateurs autorisés peuvent accéder à des ressources de données spécifiques.
- Chiffrement des données : choisissez les méthodes de chiffrement appropriées pour les données stockées dans les bases de données, les lacs de données et lors du déplacement des données entre les différents composants de l'architecture.
- Masquage et anonymisation des données : considérez la nécessité de masquer ou d'anonymiser les données afin de protéger les données sensibles, telles que les informations personnelles ou les données commerciales sensibles, tout en permettant la poursuite de certains processus analytiques.
- Intégration sécurisée des données : établissez des pratiques d'intégration de données sécurisées pour garantir que les données circulent en toute sécurité entre les différents composants de l'architecture, en évitant les fuites de données ou les accès non autorisés lors du transfert des données.
- Isolation du réseau : pensez aux services qui prennent en charge les points de terminaison d'un VPC AWS afin d'éviter d'exposer les ressources à l'Internet public.
-
Définissez les points d'intégration et les flux de données entre les différents composants du pipeline d'analytique afin de garantir un flux de données fluide et une interopérabilité. Les principaux points de décision à prendre en compte sont les suivants :
- Intégration des sources de données : identifiez les sources de données à partir desquelles les données seront collectées, telles que les bases de données, les applications, les fichiers ou les API externes. Choisissez les méthodes d'ingestion de données (par lots, en temps réel, basées sur des événements) pour intégrer les données dans le pipeline de manière efficace et avec une latence minimale.
- Transformation des données : déterminez les transformations nécessaires pour préparer les données en vue de leur analyse. Choisissez les outils et les processus permettant de nettoyer, d'agréger, de normaliser ou d'enrichir les données au fur et à mesure de leur transfert dans le pipeline.
- Architecture de déplacement des données : choisissez l'architecture appropriée pour le mouvement des données entre les composants du pipeline. Envisagez le traitement par lots, le traitement par flux ou une combinaison des deux en fonction des exigences en temps réel et du volume de données.
- Réplication et synchronisation des données : choisissez les mécanismes de réplication et de synchronisation des données pour maintenir les données à jour sur tous les composants. Envisagez des solutions de réplication en temps réel ou des synchronisations de données périodiques en fonction des exigences en matière de fraîcheur des données.
- Qualité et validation des données : mettez en œuvre des contrôles de qualité des données et des étapes de validation pour garantir l'intégrité des données lors de leur transfert dans le pipeline. Décidez des mesures à prendre lorsque les données échouent à la validation, telles que les alertes ou la gestion des erreurs.
- Sécurité et chiffrement des données : déterminez comment les données seront sécurisées pendant leur transit et au repos. Décidez des méthodes de chiffrement pour protéger les données sensibles tout au long du pipeline, en tenant compte du niveau de sécurité requis en fonction de la sensibilité des données.
- Évolutivité et résilience : assurez-vous que la conception du flux de données permet une capacité de mise à l'échelle horizontale et puisse gérer des volumes de données et un trafic accrus.
-
La création de votre pipeline d'analytique sur AWS offre diverses opportunités d'optimisation des coûts. Pour garantir la rentabilité, envisagez les stratégies suivantes :
- Dimensionnement et sélection des ressources : dimensionnez correctement vos ressources en fonction des exigences de charge de travail réelles. Choisissez les services et les types d'instances AWS qui répondent aux besoins de performance des charges de travail tout en évitant le surprovisionnement.
- Mise à l'échelle automatique : implémentez la mise à l'échelle automatique pour les services soumis à des charges de travail variables. La mise à l'échelle automatique ajuste dynamiquement le nombre d'instances en fonction de la demande, réduisant ainsi les coûts pendant les périodes de faible trafic.
- Instances ponctuelles : utilisez les instances Spot AWS EC2 pour les charges de travail non critiques et tolérantes aux pannes. Les instances Spot peuvent réduire considérablement les coûts par rapport aux instances à la demande.
- Instances réservées : envisagez d'acheter des instances réservées AWS afin de réaliser des économies importantes par rapport à la tarification à la demande pour des charges de travail stables dont l'utilisation est prévisible.
- Hiérarchisation du stockage des données : optimisez les coûts de stockage des données en utilisant différentes classes de stockage en fonction de la fréquence d'accès aux données.
- Politiques de cycle de vie des données : configurez des politiques de cycle de vie des données pour déplacer ou supprimer automatiquement les données en fonction de leur âge et de leurs habitudes d'utilisation. Cela permet de gérer les coûts de stockage et de maintenir le stockage des données en adéquation avec leur valeur.
Choix
Maintenant que vous connaissez les critères permettant d'évaluer vos besoins en matière d'analytique, vous êtes prêt à choisir les services d'analytique AWS les mieux adaptés aux besoins de votre organisation. Le tableau suivant classe les ensembles de services correspondant à ce dont vous aurez besoin pour atteindre vos objectifs métier, tels que la réalisation d'analytiques avancées, la gestion des données ou des analytiques prédictives, et le ML.
Analytiques avancées
AWS propose un ensemble étendu et rentable de services d'analytique pour vous aider à obtenir plus rapidement des informations à partir de vos données.
Analytique interactive
Processus d'analyse et d'exploration des données en temps réel, permettant aux utilisateurs d'interroger et de visualiser les données de manière interactive afin d'obtenir des informations et de prendre rapidement des décisions fondées sur les données.
Amazon Athena
Amazon Athena est un service d'analytique sans serveur et interactif basé sur des cadres open source, prenant en charge les formats de table et de fichier ouverts. Athena permet d'analyser plusieurs téraoctets de données là où elles se trouvent, de manière simple et flexible. Analysez des données ou créez des applications à partir d'un lac de données Amazon S3 et plus de 30 sources de données, dont des sources de données sur site ou d'autres systèmes cloud à l'aide de SQL ou de Python. Athena est un service conçu sur les moteurs open source Trino et Presto et sur les cadres Apache Spark. Il ne nécessite pas d'approvisionnement ni de configuration.
Traitement Big Data
Le big data se caractérise par ses trois dimensions : le volume, la vitesse et la variété. Les solutions de traitement big data visent à surmonter les défis posés par l'ampleur et la complexité du big data.
Amazon EMR est la meilleure solution de big data cloud du secteur pour le traitement des données à l'échelle du pétaoctet, l'analyse interactive et le machine learning à l'aide de cadres open source, tels que Apache Spark, Apache Hive et Presto.
Entreposage de données
Stockage, organisation et extraction centralisés de grands volumes de données structurées et parfois semi-structurées provenant de diverses sources au sein d'une organisation.
Amazon Redshift utilise SQL pour analyser les données structurées et semi-structurées à travers les entrepôts de données, les bases de données opérationnelles et les lacs de données ; la solution utilise un matériel conçu par AWS et le machine learning pour offrir le meilleur rendement réel, quelle que soit l'échelle.
Analytique en temps réel
Processus d'analyse et de traitement des données à mesure qu'elles sont générées, reçues ou ingérées, sans délai significatif.
Avec Amazon Kinesis Data Analytics, vous pouvez transformer et analyser plus facilement les données diffusées en continu en temps réel à l'aide d'Apache Flink.
Analytique opérationnelle
Utilisation d'analyses de données et d'informations en temps réel pour optimiser et améliorer les processus et activités opérationnels en cours au sein d'une organisation.
OpenSearch est une suite de recherche et d'analytique distribuée, gérée par la communauté, sous licence Apache 2.0 et 100 % open source, utilisée pour un grand nombre de cas d'utilisation tels que la surveillance des applications en temps réel, l'analytique des journaux et la recherche de contenu sur site Web. OpenSearch offre un système hautement évolutif pour accéder rapidement à de grands volumes de données et pour leur apporter les réponses nécessaires grâce à un outil de visualisation intégré, OpenSearch Dashboards, qui permet aux clients d'explorer facilement leurs données.
Tableaux de bord et visualisations
Les tableaux de bord et les visualisations fournissent une représentation visuelle de jeux de données complexes, ce qui permet aux utilisateurs de saisir plus facilement les modèles, les tendances et les informations en un clin d'œil. Ils simplifient la compréhension des données, même pour les utilisateurs non techniques, en présentant les informations de manière visuellement attrayante et intuitive.
Amazon QuickSight fournit aux organisations orientées données une informatique décisionnelle (BI) unifiée à très grande échelle. Avec QuickSight, tous les utilisateurs peuvent répondre à différents besoins analytiques à partir de la même source de vérité grâce à des tableaux de bord interactifs modernes, des rapports paginés, des analyses intégrées et des requêtes en langage naturel.
Préparation visuelle des données
Utiliser des outils et des interfaces visuels pour explorer, nettoyer, transformer et manipuler les données de manière visuelle et intuitive.
AWS Glue DataBrew
AWS Glue DataBrew est un outil de préparation visuelle des données qui permet aux analystes et scientifiques des données de nettoyer et de normaliser facilement les données afin de les préparer pour l'analytique et le machine learning. Vous pouvez choisir parmi plus de 250 transformations préconçues pour automatiser les tâches de préparation des données, le tout sans avoir à écrire le moindre code.
Gestion des données
Ces services vous aident à combiner, déplacer et répliquer des données dans plusieurs stockages de données et dans votre lac de données.
Mouvement des données en temps réel
Le mouvement des données en temps réel implique un délai minimal dans le transfert des données, généralement quelques secondes ou millisecondes après leur mise à disposition.
Amazon Managed Streaming for Apache Kafka (Amazon MSK) est un service entièrement géré qui vous permet de créer et d'exécuter facilement des applications qui utilisent Apache Kafka pour traiter les données diffusées en continu. Amazon MSK fournit les opérations du plan de contrôle, telles que celles permettant de créer, de mettre à jour et de supprimer des clusters.
Amazon Kinesis Data Streams est un service de données diffusées en continu sans serveur qui facilite la capture, le traitement et le stockage de flux de données à n'importe quelle échelle.
Amazon Kinesis Data Firehose est un service d'Extraction, transformation et chargement (ETL) qui capture, transforme et fournit de manière fiable des données diffusées en continu aux lacs de données, entrepôts de données et services analytiques.
Amazon Kinesis Video Streams facilite la diffusion sécurisée de vidéos depuis des appareils connectés vers AWS à des fins d'analyse, de ML, de lecture et d'autres traitements. Kinesis Video Streams alloue automatiquement et dimensionne de façon élastique toute l'infrastructure nécessaire pour ingérer des données vidéo diffusées en continu à partir de plusieurs millions d'appareils. Il stocke de façon durable, chiffre et indexe les données vidéo dans vos flux et vous permet d'accéder à vos données via des API simples à utiliser.
Gouvernance des données
Ensemble de processus, de politiques et de directives garantissant la gestion, la disponibilité, l'utilisabilité, l'intégrité et la sécurité appropriées des données tout au long de leur cycle de vie.
Utilisez Amazon DataZone pour partager, rechercher et découvrir des données à l'échelle au-delà des frontières organisationnelles. Collaborez sur des projets de données grâce à un portail d'analytique de données unifié qui vous offre une vue personnalisée de toutes vos données tout en appliquant vos politiques de gouvernance et de conformité.
AWS Lake Formation est un service entièrement géré qui permet de créer, sécuriser et gérer plus facilement des lacs de données. Lake Formation simplifie et automatise de nombreuses étapes manuelles complexes qui sont généralement nécessaires pour créer des lacs de données. Ces étapes incluent la collecte, le nettoyage, le déplacement et le catalogage des données, ainsi que la mise à disposition sécurisée de ces données à des fins d'analytique et de machine learning.
Stockage d'objets pour les lacs de données
Un lac de données construit sur AWS utilise Amazon S3 comme plateforme de stockage principale. Amazon S3 constitue une base optimale pour un lac de données en raison de sa capacité de mise à l'échelle pratiquement illimitée et de sa grande durabilité.
Amazon Simple Storage Service (Amazon S3) est un service de stockage d'objets qui offre capacité de mise à l'échelle, disponibilité des données, sécurité et performance. Amazon S3 fournit des fonctionnalités de gestion qui vous permettent d'optimiser, d'organiser et de configurer l'accès à vos données afin de répondre à vos besoins spécifiques en termes d'activité, d'organisation et de conformité.
AWS Lake Formation est un service entièrement géré qui permet de créer, sécuriser et gérer plus facilement des lacs de données. Lake Formation simplifie et automatise de nombreuses étapes manuelles complexes qui sont généralement nécessaires pour créer des lacs de données. Ces étapes incluent la collecte, le nettoyage, le déplacement et le catalogage des données, ainsi que la mise à disposition sécurisée de ces données à des fins d'analytique et de machine learning.
Sauvegarde et archivage pour les lacs de données
Les lacs de données, alimentés par Amazon S3, fournissent aux entreprises la disponibilité, l'agilité et la flexibilité nécessaires aux approches analytiques modernes afin d'obtenir des informations plus approfondies. La protection des informations sensibles ou critiques stockées dans ces compartiments S3 est une priorité absolue pour les entreprises.
Les classes de stockage Amazon S3 Glacier sont spécialement conçues pour l'archivage de données et vous offrent les meilleures performances, la plus grande flexibilité de récupération et le stockage d'archives le plus économique du cloud. Toutes les classes de stockage S3 Glacier offrent une capacité de mise à l'échelle pratiquement illimitée et sont conçues pour une durabilité des données de 99,999999999 % (11 neuf).
AWS Backup est un service économique, entièrement géré et basé sur des stratégies, qui simplifie la protection des données à grande échelle.
Catalogue de données
Outil de gestion des métadonnées fournissant des informations détaillées sur les données disponibles, leur structure, leurs caractéristiques et leurs relations.
AWS Glue est un service d'intégration des données sans serveur qui facilite la découverte, la préparation, le déplacement et l'intégration des données depuis des sources multiples pour l'analytique, le machine learning et le développement des applications.
Données de tiers
Les données tierces et les données de logiciel en tant que service (SaaS) sont de plus en plus importantes pour les opérations commerciales dans un environnement moderne axé sur les données.
AWS Data Exchange est un service permettant aux clients d'AWS de trouver facilement des données de tierces parties, de s'y abonner et de les utiliser dans le Cloud AWS.
Automatisez les flux de données bidirectionnels entre les applications SaaS et les services AWS en seulement quelques clics avec Amazon AppFlow. Exécutez les flux de données à presque n'importe quelle échelle et à la fréquence que vous choisissez, selon un calendrier, en réponse à un événement professionnel ou à la demande.
Analytique prédictive et machine learning
Pour les cas d'utilisation d'analytique prédictive, AWS fournit un large choix de services de machine learning, ainsi que des outils qui s'exécutent sur votre lac de données sur AWS.
Cadres et interfaces
L'infrastructure AWS ML prend en charge tous les principaux cadres de machine learning.
Les AWS Deep Learning AMI (DLAMI) fournissent aux professionnels et aux chercheurs en ML un ensemble sécurisé de cadres, de dépendances et d'outils pour accélérer le deep learning dans le cloud. Conçues pour Amazon Linux et Ubuntu, les Amazon Machine Image (AMI) sont préconfigurées avec TensorFlow, PyTorch, Apache MXNet, Chainer, Microsoft Cognitive Toolkit (CNTK), Gluon, Horovod et Keras, ce qui vous permet de déployer et d'exécuter rapidement ces cadres et ces outils à grande échelle.
Services de plateforme
Infrastructure entièrement gérée pour la création, la formation et le déploiement de modèles de machine learning.
Créez, entraînez et déployez rapidement et facilement des modèles de machine learning (ML) pour tous les cas d'utilisation avec une infrastructure, des outils et des flux entièrement gérés.
Intégrations directes des données
Développer, entraîner et déployer des modèles de ML à l'aide de commandes SQL courantes.
Athena ML vous permet de créer et de déployer des modèles ML dans Amazon SageMaker et d'utiliser des fonctions SQL dans Amazon Athena pour générer des prédictions à partir de vos modèles SageMaker.
Les équipes d'analystes peuvent ainsi mettre à la disposition des utilisateurs et des analystes des informations issues de modèles sans avoir besoin d'outils et d'infrastructures spécialisés.
QuickSight ML Insights s'appuie sur les capacités éprouvées d'AWS en matière de ML et de langage naturel pour vous aider à obtenir des informations plus approfondies à partir de vos données. Ces fonctionnalités puissantes et prêtes à l'emploi permettent à quiconque de découvrir facilement les tendances cachées et les valeurs aberrantes, d'identifier les principaux moteurs commerciaux et d'effectuer des analyses et des prévisions hypothétiques puissantes sans aucune expertise technique ou expérience de machine learning requise.
Amazon Redshift ML permet aux analystes de données et aux développeurs de bases de données de créer, d'entraîner et d'appliquer facilement des modèles de machine learning à l'aide de commandes SQL courantes dans les entrepôts de données Amazon Redshift. Avec Redshift ML, vous pouvez tirer parti d'Amazon SageMaker, un service de machine learning entièrement géré, sans apprendre à utiliser de nouveaux outils ou langages. Il vous suffit d'utiliser des instructions SQL pour créer et entraîner des modèles de ML Amazon SageMaker à l'aide de vos données Redshift, puis d'utiliser ces modèles pour formuler des prédictions.
Utilisation
Vous devez désormais avoir une idée précise de vos objectifs métier, ainsi que du volume et de la rapidité des données que vous allez ingérer et analyser pour commencer à créer vos pipelines de données.
Pour découvrir comment utiliser et en savoir plus sur chacun des services d'intégration d'applications AWS disponibles, nous avons conçu un parcours permettant d'explorer le fonctionnement de chacun de ces services. Les sections suivantes fournissent des liens vers une documentation détaillée, des didacticiels pratiques et des ressources pour vous aider à passer d'une utilisation de base à des approfondissements plus avancés.
Analytiques avancées
-
Analytique interactive
-
Traitement Big Data
-
Entreposage de données
-
Analytique en temps réel
-
Analytique opérationnelle
-
Tableaux de bord et visualisations
-
Préparation visuelle des données
-
Analytique interactive
-
Mise en route avec Amazon Athena
Découvrez comment utiliser Amazon Athena pour interroger des données et créer une table basée sur des exemples de données stockés dans Amazon S3, interroger la table et vérifier les résultats de la requête.
Démarrez avec Apache Spark sur Amazon Athena
Utilisez l'expérience de bloc-notes simplifiée de la console Amazon Athena pour développer des applications Apache Spark à l'aide des API de bloc-notes Python ou Athena.
AWS re:Invent 2022 : nouveautés dans Amazon Athena
Découvrez comment intégrer Athena à vos données, en l'appliquant à l'ensemble de vos données, qu'il s'agisse de lacs de données, de sources externes, ou plus encore.
Regarder la session »Analyse des données dans S3 à l'aide d'Amazon Athena
Découvrez comment utiliser Athena sur les journaux des Elastic Load Balancers, générés sous forme de fichiers texte dans un format prédéfini. Nous vous montrons comment créer une table, partitionner les données dans un format utilisé par Athena, les convertir au format Parquet et comparer les performances des requêtes.
-
Traitement Big Data
-
Mise en route avec AWS EMR
Découvrez comment lancer un exemple de cluster à l'aide de Spark et comment exécuter un script PySpark simple stocké dans un compartiment Amazon S3.
Mise en route avec Amazon EMR sur EKS
Nous vous montrons comment commencer à utiliser Amazon EMR sur EKS en déployant une application Spark sur un cluster virtuel.
Faites vos premiers pas avec EMR sans serveur
Découvrez comment EMR sans serveur fournit un environnement d'exécution sans serveur simplifiant le fonctionnement des applications d'analytique qui utilisent les derniers cadres open source.Nouveautés d'Amazon EMR
Découvrez les derniers développements d'Amazon EMR, notamment Amazon EMR sans serveur, Amazon EMR Studio, et plus encore.
-
Entreposage de données
-
Mise en route avec Amazon Redshift
Découvrez le flux de base d'Amazon Redshift sans serveur pour créer des ressources sans serveur, vous connecter à Amazon Redshift sans serveur, charger des échantillons de données, puis exécuter des requêtes sur les données.Modernisez votre entrepôt de données
Découvrez comment utiliser les nouvelles fonctionnalités d'Amazon Redshift pour moderniser votre entrepôt de données en accédant à toutes vos données.
Déploiement d'un entrepôt de données sur AWS
Dans ce projet, vous allez créer et configurer un entrepôt de données Amazon Redshift, charger un échantillon de données et l'analyser en utilisant un client SQL.
Atelier d'approfondissement sur Amazon Redshift
Découvrez une série d'exercices qui permettent aux utilisateurs de commencer à utiliser la plateforme Redshift.
-
Analytique en temps réel
-
Mise en route avec Amazon Kinesis Data Analytics pour Apache Flink
Découvrez les concepts fondamentaux de Kinesis Data Analytics pour Apache Flink et de l'API DataStream.
Explorez le guide »
Atelier d'analytique de diffusion en continu
Dans cet atelier, vous créerez une architecture de diffusion en continu de bout en bout pour ingérer, analyser et visualiser des données diffusées en continu en temps quasi réel.
Introduction à Amazon Kinesis Data Analytics pour les applications Java
Découvrez comment vous pouvez utiliser les applications Apache Flink dans Amazon Kinesis Data Analytics pour obtenir plus rapidement des informations à partir de vos données.
Laboratoire Clickstream
Laboratoire intégral sur un cas d'utilisation de clickstream utilisant Amazon MSK pour le stockage de flux et Amazon KDA pour les applications Java avec le moteur Apache Flink pour le traitement des flux.
-
Analytique opérationnelle
-
Démarrer avec Amazon OpenSearch Service
Découvrez comment utiliser Amazon OpenSearch Service pour créer et configurer un domaine de test.Visualisation des appels de support client avec OpenSearch Service et OpenSearch Dashboards
Découvrez un aperçu complet de la situation suivante : une entreprise reçoit un certain nombre d'appels de support client et souhaite les analyser. Quel est le sujet de chaque appel ? Combien étaient positifs ? Combien étaient négatifs ? Comment les responsables peuvent-ils rechercher ou consulter les transcriptions de ces appels ?
Mise en route avec l'atelier Amazon OpenSearch sans serveur
Découvrez comment configurer un nouveau domaine Amazon OpenSearch sans serveur dans la console AWS. Explorez les différents types de requêtes de recherche disponibles, concevez des visualisations accrocheuses et découvrez comment sécuriser votre domaine et vos documents en fonction des privilèges utilisateur attribués.
Création d'une solution d'analytique des journaux avec Amazon OpenSearch Service
Découvrez comment dimensionner un cluster OpenSearch pour une charge de travail d'analytique des journaux.
-
Tableaux de bord et visualisations
-
Mise en route avec l'analyse de données Amazon QuickSight
Découvrez comment créer votre première analyse. Utilisez des échantillons de données pour créer une analyse simple ou plus avancée. Vous pouvez également vous connecter à vos propres données pour créer une analyse.
Visualisation avec QuickSight
Découvrez l'aspect technique de l'informatique décisionnelle (BI) et de la visualisation des données avec AWS. Découvrez comment intégrer des tableaux de bord dans des applications et des sites Web, et comment gérer en toute sécurité les accès et les autorisations.
Ateliers QuickSight
Prenez une longueur d'avance dans votre parcours QuickSight grâce aux ateliers. -
Préparation visuelle des données
-
Mise en route avec AWS Glue DataBrew
Découvrez comment créer votre premier projet DataBrew. Chargez un échantillon de jeu de données, exécutez des transformations sur ce jeu de données, créez une recette pour capturer ces transformations et exécutez une tâche pour écrire les données transformées sur Amazon Storage Service (Amazon S3).
Transformez les données avec AWS Glue DataBrew
Découvrez AWS Glue DataBrew, un outil de préparation visuelle des données qui permet aux analystes et aux scientifiques des données de nettoyer et de normaliser facilement les données afin de les préparer pour l'analytique et le machine learning. Découvrez comment créer un processus ETL à l'aide d'AWS Glue DataBrew.
Journée d'immersion AWS Glue DataBrew
Découvrez comment utiliser AWS Glue DataBrew pour nettoyer et normaliser les données pour l'analytique et le machine learning.
Gestion des données
-
Mouvement des données en temps réel
-
Gouvernance des données
-
Stockage d'objets pour les lacs de données
-
Catalogue de données
-
Données de tiers
-
Mouvement des données en temps réel
-
Mise en route avec l'ingestion de diffusion en continu à partir d'Amazon Kinesis Data Streams
Découvrez comment diffuser directement des données depuis Kinesis Data Streams vers Amazon Redshift afin de réduire le temps d'accès aux données et les coûts de stockage.
Mise en route avec l'ingestion de diffusion en continu à partir d'Amazon Managed Streaming for Apache Kafka
Découvrez comment diffuser directement des données depuis Amazon MSK vers Amazon Redshift afin de réduire le temps nécessaire pour accéder aux données et de réduire les coûts de stockage.
Démarrez avec l'intégration zéro ETL d'Amazon Aurora à Amazon Redshift
Découvrez comment démarrer avec les analytiques opérationnelles en temps quasi réel grâce à l'intégration zéro ETL d'Amazon Aurora à Amazon Redshift.
Atelier d'une journée d'immersion AWS Glue
Travaillez sur plusieurs laboratoires pratiques pour vous montrer comment résoudre des problèmes concrets à l'aide d'AWS Glue et des services AWS associés.
Journée d'immersion Amazon Kinesis Data Firehose
Découvrez comment ingérer facilement des données diffusées en continu dans Amazon OpenSearch et Amazon Redshift en quelques étapes de configuration.
Atelier Amazon Kinesis Video Streams
Découvrez comment ingérer et stocker des vidéos provenant d'appareils photo, les lire en direct et à la demande et télécharger des fichiers vidéo à l'aide d'Amazon Kinesis Video Streams.
-
Gouvernance des données
-
Centralisez la gouvernance de votre lac de données à l'aide d'AWS Lake Formation
Découvrez comment utiliser AWS Lake Formation pour centraliser la gouvernance des données et la gestion des accès aux données tout en utilisant Amazon Redshift Spectrum pour interroger votre lac de données.
Mise en route avec Amazon DataZone
Découvrez comment créer le domaine racine Amazon DataZone, obtenir l'URL du portail de données et parcourir les flux de travail Amazon DataZone de base pour les producteurs et les consommateurs de données.
-
Stockage d'objets pour les lacs de données
-
Mise en route avec AWS Lake Formation
Découvrez comment configurer Lake Formation pour la première fois afin de gérer les objets et les emplacements de données du catalogue de données AWS Glue existants dans Amazon S3.
Atelier AWS Lake Formation
Découvrez comment utiliser AWS Lake Formation pour créer, sécuriser et gérer un lac de données sur AWS.Stockage centralisé : Amazon S3 en tant que plateforme de stockage des lacs de données
Découvrez comment Amazon S3 constitue une base optimale pour un lac de données en raison de sa capacité de mise à l'échelle pratiquement illimitée et de sa grande durabilité.
-
Catalogue de données
-
Catalogue de données et crawlers dans AWS Glue
Découvrez comment utiliser les informations du catalogue de données pour créer et surveiller vos tâches ETL.
Mise en route avec le Catalogue de données AWS Glue
Découvrez comment créer votre premier catalogue de données AWS Glue, qui utilise un compartiment Amazon S3 comme source de données. -
Données de tiers
-
Démarrez en tant qu'abonné à AWS Data Exchange
Découvrez le processus complet pour s'abonner à un produit de données sur AWS Data Exchange à l'aide de la console AWS Data Exchange.
Démarrez en tant que fournisseur AWS Data Exchange
Découvrez le processus complet pour devenir fournisseur de produits de données sur AWS Data Exchange à l'aide de la console AWS Data Exchange.
Mise en route avec Amazon AppFlow
Découvrez Amazon AppFlow et les conditions requises pour démarrer.
Atelier AWS Data Exchange
Explorez les laboratoires en libre-service que vous pouvez utiliser pour comprendre et apprendre comment les services AWS peuvent être utilisés conjointement avec des données tierces afin d'apporter des informations à vos projets d'analytique de données.
Atelier Amazon AppFlow
Découvrez Amazon AppFlow et découvrez comment transférer facilement des données entre les services SaaS populaires et AWS.
Démarrez avec l'atelier »
Analytique prédictive & ML
-
Cadres et interfaces
-
Services de plateforme
-
Intégrations directes des données
-
Cadres et interfaces
-
Mise en route avec les AMI AWS Deep Learning
Découvrez des conseils pour choisir la DLAMI qui vous convient, sélectionner un type d'instance adapté à votre cas d'utilisation et à votre budget, ainsi que des informations supplémentaires décrivant les configurations personnalisées.
Explorez le guide »
Didacticiels sur les Deep Learning AMI
Ensemble de didacticiels pour vous montrer comment utiliser l'AMI Deep Learning avec le logiciel Conda.
Démarrez avec les didacticiels »
Démarrez avec le deep learning en utilisant l'AWS Deep Learning AMI
Découvrez les AWS Deep Learning AMI (Amazon Machine Images), qui vous permettent de créer des environnements et des flux de travail personnalisés.
Lire l'article de blog » -
Services de plateforme
-
Fonctionnement d'Amazon SageMaker
Découvrez la présentation sur le machine learning et le fonctionnement d'Amazon SageMaker.
Mise en route avec Amazon SageMaker
Nous vous montrons comment commencer à utiliser Amazon EMR sur EKS en déployant une application Spark sur un cluster virtuel.
Générer des prédictions de machine learning sans écrire de code
Dans ce didacticiel, vous apprendrez à utiliser Amazon SageMaker Canvas pour créer des modèles de ML et générer des prédictions précises sans écrire une seule ligne de code.
Démarrez avec le didacticiel »
-
Intégrations directes des données
-
Utilisation du machine learning avec Amazon Athena
Découvrez comment le ML avec Amazon Athena vous permet d'utiliser Athena pour écrire des instructions SQL exécutant l'inférence par machine learning (ML) à l'aide d'Amazon SageMaker.
Obtenir des informations grâce au machine learning dans Amazon QuickSight
Découvrez comment les fonctionnalités de machine learning et de langage naturel d'Amazon QuickSight Enterprise Edition vous permettent d'aller au-delà de l'analyse descriptive et diagnostique et de vous lancer dans les prévisions et la prise de décisions.
Mise en route avec le ML Amazon Redshift
Découvrez comment utiliser les données de votre cluster Redshift pour entraîner un modèle avec Amazon SageMaker.
Comment démarrer avec Neptune ML
Nous vous montrons comment configurer facilement Neptune ML et déduire les propriétés des sommets d'un graphe.
Exploration
Explorez les diagrammes d'architectures pour vous aider à développer, à mettre à l'échelle et à tester vos solutions analytiques sur AWS.
Explorez les diagrammes d'architectures »
Explorez les livres blancs qui vous aideront à démarrer, à découvrir les meilleures pratiques et à comprendre vos options d'analytique.
Découvrez des solutions approuvées et des conseils architecturaux pour les cas d'utilisation courants des services analytiques.