Analyser le comportement des clients pour créer une expérience client personnalisée
Ce guide vous aide à améliorer la fidélisation des clients en collectant et en analysant les données démographiques, le comportement et les préférences des clients. Vous pouvez optimiser les données en créant une plateforme de données client moderne et un pipeline d'analyse de données qui génère des informations exploitables sur vos clients. Grâce à une architecture de données moderne sur AWS, vous pouvez utiliser des services de données spécialement conçus pour créer rapidement des lacs de données évolutifs, garantir la conformité et partager facilement des données au-delà des frontières organisationnelles.
Diagramme d'architecture
Étape 1
Les données sont collectées à partir de plusieurs sources de données au sein de l'entreprise, notamment des applications SaaS (logiciel en tant que service), des appareils périphériques, des journaux, des diffusions multimédia et des réseaux sociaux.
L'activité Web en ligne provient de sites Web, de plateformes de réseaux sociaux, d'e-mails et de campagnes en ligne. Les sources hors ligne incluent l'historique des achats et les abonnements, principalement la gestion de la relation client (CRM) et les données tierces.
Étape 2
En fonction du type de source de données, vous pouvez ingérer les données dans un lac de données dans AWS en utilisant AWS Database Migration Service (AWS DMS), AWS DataSync, Amazon Kinesis, Amazon Managed Streaming for Apache Kafka (Amazon MSK) ou Amazon AppFlow.
Étape 3
AWS Data Exchange peut être utilisé pour intégrer des données tierces dans le lac de données.
Étape 4
Créez un lac de données évolutif à l’aide d’AWS Lake Formation et utilisez Amazon Simple Storage Service (Amazon S3) pour le stockage des lacs de données.
Étape 5
Vous pouvez également utiliser Lake Formation pour permettre une gouvernance unifiée afin de gérer de manière centralisée la sécurité, le contrôle d'accès (sécurité au niveau des tables, des lignes ou des colonnes) et les pistes d'audit. Il permet également la découverte automatique des schémas et leur conversion dans les formats requis.
Étape 6
AWS Glue extrait, transforme, catalogue et ingère des données dans plusieurs magasins de données. Utilisez Glue DataBrew pour la préparation visuelle des données et AWS Lambda pour l’enrichissement et la validation.
Étape 7
Amazon QuickSight fournit l’informatique décisionnelle sur la base du machine learning (ML). Amazon Redshift est utilisé comme entrepôt de données cloud. Les services Amazon SageMaker et AWS ML peuvent être utilisés pour créer, entraîner et déployer des modèles de machine learning, ainsi que pour ajouter de l’intelligence à vos applications.
Redshift Spectrum et Amazon Athena disposent de fonctionnalités de requête, d’analyse et de traitement interactives. Le service géré Amazon pour Apache Flink est utiliser pour transformer et analyser les données de streaming en temps réel.
Étape 8
Stockez des informations de profil client unifiées dans Amazon OpenSearch Service.
Étape 9
Créez une vue unique du profil client à l’aide des données de résolution d’identité provenant d’Amazon Neptune.
Étape 10
Avec Amazon API Gateway, vous pouvez exposer les API développées sous forme de microservices.
Étape 11
Activez les données clients unifiées et envoyez-les à des parties internes et externes.
Piliers AWS Well-Architected
Le cadre AWS Well-Architected vous permet de comprendre les avantages et les inconvénients des décisions que vous prenez lors de la création de systèmes dans le cloud. Les six piliers du cadre vous permettent d'apprendre les bonnes pratiques architecturales pour concevoir et exploiter des systèmes fiables, sécurisés, efficaces, rentables et durables. Grâce à l'outil AWS Well-Architected Tool, disponible gratuitement dans la console de gestion AWS, vous pouvez examiner vos charges de travail par rapport à ces bonnes pratiques en répondant à une série de questions pour chaque pilier.
Le diagramme d'architecture ci-dessus est un exemple de solution créée en tenant compte des bonnes pratiques Well-Architected. Pour être totalement conforme à Well-Architected, vous devez suivre autant de bonnes pratiques Well-Architected que possible.
-
Excellence opérationnelle
L'architecture de référence de la plateforme d'analytique des données clients (CDAP) est entièrement sans serveur. Votre solution peut être déployée avec l'infrastructure en tant que code et d'automatisation pour une itération rapide et des déploiements cohérents. Utilisez Amazon CloudWatch pour surveiller les applications et les infrastructures.
-
Sécurité
Utilisez Lake Formation pour une gouvernance unifiée afin de gérer de manière centralisée la sécurité, le contrôle d'accès (au niveau de sécurité des tables, des lignes et des colonnes) et les pistes d'audit. Il permet également la découverte automatique des schémas et leur conversion dans les formats requis. API Gateway applique des politiques qui contrôlent les aspects de sécurité tels que l'authentification, l'autorisation ou la gestion du trafic.
-
Fiabilité
L'architecture sans serveur permet à la solution d'être automatiquement évolutive, disponible et déployée dans toutes les zones de disponibilité.
-
Efficacité des performances
En utilisant les technologies sans serveur, vous ne fournissez que les ressources exactes dont vous avez besoin. Pour optimiser les performances de la solution CDAP, réalisez des tests avec plusieurs types d'instances. Utilisez les points de terminaison périphériques API Gateway pour les clients géographiquement dispersés. Utilisez des points de terminaison régionaux pour les clients régionaux (et lorsque vous utilisez d'autres services AWS dans la même région).
-
Optimisation des coûts
En utilisant des technologies sans serveur et en procédant à une mise à l'échelle automatique, vous ne payez que les ressources que vous utilisez. Les services sans serveur ne coûtent rien lorsqu'ils sont inactifs.
-
Développement durable
Minimisez votre impact environnemental. Le lac de données utilise des processus pour déplacer automatiquement les données rarement consultées vers un stockage à froid avec les configurations de cycle de vie Amazon S3. En utilisant largement les services gérés et la mise à l'échelle dynamique, cette architecture réduit l'impact environnemental des services backend.
Ressources d'implémentation
Un guide détaillé d'expérimentation et d'utilisation est fourni dans votre compte AWS. Chaque étape de la construction du guide, y compris le déploiement, l'utilisation et le nettoyage, est examinée pour le préparer au déploiement.
L'exemple de code est un point de départ. Il s'agit d'un document validé par l'industrie, prescriptif mais non définitif, et d'un aperçu pour vous aider à commencer.
Contenu connexe
[Titre]
Avis de non-responsabilité
Les exemples de code, les bibliothèques de logiciels, les outils de ligne de commande, les preuves de concept, les modèles ou toute autre technologie connexe (y compris tout ce qui précède qui est fourni par notre personnel) vous sont fournis en tant que contenu AWS en vertu du contrat client AWS ou de l'accord écrit pertinent entre vous et AWS (selon le cas). Vous ne devez pas utiliser ce contenu AWS dans vos comptes de production, ni sur des données de production ou autres données critiques. Vous êtes responsable des tests, de la sécurisation et de l'optimisation du contenu AWS, tel que les exemples de code, comme il convient pour une utilisation en production, en fonction de vos pratiques et normes de contrôle de qualité spécifiques. Le déploiement de contenu AWS peut entraîner des frais AWS pour la création ou l'utilisation de ressources payantes AWS, telles que l'exécution d'instances Amazon EC2 ou l'utilisation du stockage Amazon S3.
Les références à des services ou organisations tiers dans ce guide n'impliquent pas une approbation, un parrainage ou une affiliation entre Amazon ou AWS et le tiers. Les conseils fournis par AWS constituent un point de départ technique, et vous pouvez personnaliser votre intégration avec des services tiers lorsque vous déployez l'architecture.