Cloud AWS
Démarrer avec la mise en cache

Dans le calcul, un cache est une couche de stockage de données grande vitesse qui stocke un sous-ensemble de données, généralement transitoires, de sorte que les demandes futures pour ces données sont traitées le plus rapidement possible en accédant à l'emplacement de stockage principal des données. La mise en cache vous permet de réutiliser efficacement des données précédemment récupérées ou traitées. Les données mises en cache sont généralement stockées sur du matériel à accès rapide comme de la RAM (mémoire vive) et peuvent également être utilisées en corrélation avec un composant logiciel. L'objectif principal d'un cache est d'augmenter les performances de récupération des données en réduisant le besoin d'accès à la couche de stockage sous-jacente plus lente. En laissant la capacité au profit de la vitesse, un cache stocke généralement un sous-ensemble de données transitoires, contrairement aux bases de données dont les données sont généralement complètes et durables.

Les caches peuvent s'appliquer et être exploités dans différentes couches de technologie, y compris les systèmes d'exploitation, les couches de mise en réseau dont les réseaux de diffusion de contenu (CDN) et les DNS, des applications Web et des bases de données.

En raison des taux élevés de demande ou d'IOPS (opérations d'entrée/sortie par seconde) pris en charge par la RAM et les moteurs en mémoire, la mise en cache améliore les performances de récupération de données et réduit les coûts à l'échelle. Pour prendre en charge la même mise à l'échelle avec des bases de données classiques et du matériel sur disques, il faudrait des ressources supplémentaires. Ces ressources supplémentaires augmentent les coûts et ne parviennent jamais à atteindre les performances de faible latence affichées par un cache en mémoire.

Vous pouvez utiliser la mise en cache pour réduire considérablement la latence et améliorer les IOPS pour de nombreuses charges de travail d'application exigeantes, comme les portails de questions-réponses, les jeux, le partage multimédia et les réseaux sociaux. Les informations mises en cache peuvent inclure les résultats d'interrogations de bases de données, les calculs exigeants, les requêtes/réponses d'API et les artéfacts Web tels que HTML, JavaScript, et les fichiers image. Les charges de travail exigeantes en puissance de calcul qui manipulent des ensembles de données, comme les moteurs de recommandation et les simulations de calcul hautes performances, tirent également parti d'une couche de données en mémoire agissant comme un cache. Dans ces applications, de très grands ensembles de données doivent être accessibles en temps réel sur des clusters de machines pouvant s'étendre sur des centaines de nœuds. Du fait de la vitesse du matériel sous-jacent, la manipulation de ces données sur un disque de stockage est un goulot d'étranglement considérable pour ces applications.

Dans un environnement informatique distribué, une couche de mise en cache dédiée permet aux systèmes et applications de s'exécuter de manière indépendante à partir du cache avec leurs propres cycles de vie sans le risque d'affecter le cache. Le cache sert de couche centrale pouvant être accessible à partir de systèmes hétérogènes avec sa propre topologie d'architecture et son cycle de vie. Cela est particulièrement pertinent dans un système où les nœuds d'application peuvent être dynamiquement mis à l'échelle. Si le cache réside sur le même nœud que l'application ou les systèmes l'utilisant, le dimensionnement peut affecter l'intégrité du cache. En outre, lorsque les caches locaux sont utilisés, ils ne profitent qu'à l'application locale consommant les données. Dans un environnement de mise en cache distribuée, les données peuvent être réparties sur plusieurs serveurs cache et être stockées dans un emplacement central pour que tous les consommateurs de ces données puissent en profiter.

diagram_cachingmicrosite
Couche Côté client DNS Web Application Base de données
Cas d'utilisation Accélérer la récupération du contenu Web à partir de sites Web (navigateur ou appareil) Domaine pour résolution d'IP Accélérez la récupération de contenu Web depuis des serveurs Web/d'application. Gérer les sessions Web (côté serveur) Accélérer les performances d'application et accès aux données Réduire la latence associée à des requêtes d'interrogation de base de données
Technologies En-têtes de cache HTTP, navigateurs Serveurs DNS En-têtes de cache HTTP, CDN, Proxys inversés, accélérateurs Web, magasins de clés/valeurs Magasins de données de clés/valeurs, caches locaux Tampons de bases de données, magasins de données de clés/valeurs
Solutions Propre au navigateur Amazon Route 53 Amazon CloudFront, ElastiCache pour Redis, ElastiCache pour Memcached, Partner Solutions Dispositifs d'application, ElastiCache pour Redis, ElastiCache pour Memcached, Partner Solutions  ElastiCache pour Redis, ElastiCache pour Memcached

Lors de la mise en place d'une couche de cache, il est important de comprendre la validité des données mises en cache. Un cache réussi génère une haute vitesse de succès, ce qui signifie que les données étaient présentes lors de la récupération. Un cache manqué se produit lorsque les données récupérées n'étaient pas présentes dans le cache. Les contrôles, tels que les valeurs TTL (Time to Live), peuvent être appliqués à expiration des données en conséquence. Une autre considération peut être de savoir si l'environnement de cache doit être hautement disponible, condition pouvant être remplie par des moteurs en mémoire comme Redis. Dans certains cas, une couche en mémoire peut être utilisée comme couche de stockage de données autonome contrairement aux données de mise en cache d'un emplacement principal. Dans ce scénario, il est important de définir un RTO (Recovery Time Objective, le temps nécessaire pour récupérer d'une panne) et un RPO (Recovery Point Objective, le dernier point ou la dernière transaction capturés dans la récupération) sur les données résidant dans le moteur en mémoire pour déterminer si elles sont adaptées. Les stratégies et caractéristiques personnalisées de différents moteurs en mémoire peuvent s'appliquer pour répondre à la plupart des exigences en matière de RTO et de RPO.

Amazon ElastiCache est un service Web qui simplifie le déploiement, l'utilisation et le dimensionnement d'un magasin de données ou d'un cache dans le cloud. Ce service améliore les performances des applications Web en vous permettant de récupérer des informations depuis des magasins de données en mémoire gérés rapides, au lieu de vous en remettre entièrement à des bases de données sur disques, qui sont plus lentes.

Découvrez comment mettre en place une stratégie de mise en cache efficace avec ce livre blanc technique sur la mise en cache en mémoire.

ElastiCache_Deep_Dive_2016
ElastiCache Deep Dive: Best Practices and Usage Patterns
15
Améliorez les performances de l'application

Comme la mémoire est beaucoup plus rapide que le disque (magnétique ou SSD), la lecture des données à partir du cache en mémoire est extrêmement rapide (infra-millisecondes). Cet accès aux données significativement plus rapide améliore les performances globales de l'application.

Réduction des coûts de base de données

Une seule instance de cache peut fournir des centaines de milliers d'IOPS (opérations d'entrée/sortie par seconde), remplaçant potentiellement un certain nombre d'instances de base de données, ce qui permet de réduire le coût total. Cela est particulièrement important si la base de données primaire facture au débit. Dans ces cas, les économies pourraient s'élever à des douzaines de pour cent.

Réduire la charge

En redirigeant d'importantes parties de la charge de lecture de la base de données de backend vers la couche en mémoire, la mise en cache peut réduire la charge sur votre base de données et la protéger contre les baisses de performances sous charge, ou même contre le plantage pendant les périodes de pics.

Performances prévisibles

Un défi courant dans les applications modernes est la gestion des périodes de pics dans l'utilisation des applications. Parmi les exemples, on trouve des applications sociales pendant le Super Bowl ou le jour des élections, les sites Web d'e-commerce pendant le Black Friday, etc. Une augmentation de la charge sur la base de données génère des latences plus élevées lors de l'obtention de données, ce qui rend les performances d'application imprévisibles. En utilisant un débit élevé de cache en mémoire, ce problème peut être atténué.

Elimination des hotspots

Dans la plupart des applications, il est probable qu'un petit sous-ensemble de données, tel qu'un profil de célébrité ou un produit populaire, soit accessible plus fréquemment que d'autres. Cela peut provoquer des points chauds dans votre base de données et nécessiter un surprovisionnement de ressources de base de données en fonction des exigences en matière de débit pour les données les plus fréquemment utilisées. Le stockage de clés courantes dans un cache en mémoire diminue le besoin de surprovisionner tout en fournissant des performances élevées et prévisibles pour les données les plus fréquemment consultées.

Augmentation du débit

En plus d'une latence plus faible, les systèmes en mémoire proposent également des taux de demande (IOPS) beaucoup plus élevés par rapport à une base de données basée sur disques comparable. Une instance unique utilisée comme côte cache distribué peut servir des centaines de milliers de requêtes par seconde.

  • Cas d'utilisation

    En savoir plus sur les différents Cas d'utilisation de mise en cache

    Mise en cache de la base de données

    Les performances, à la fois en termes de vitesse et de débit, que votre base de données fournit peuvent compter parmi les facteurs les plus importants sur les performances globales de votre application. Et malgré le fait que de nombreuses bases de données proposent aujourd'hui de relativement bonnes performances, pour un grand nombre de cas d'utilisation vos applications peuvent nécessiter plus. La mise en cache de base de données vous permet d'augmenter le débit et de réduire considérablement la latence de récupération des données associées aux bases de données de backend, ce qui, par conséquent, améliore les performances générales de vos applications. Le cache agit comme une couche d'accès adjacente aux données pour votre base de données que vos applications peuvent utiliser pour améliorer les performances. Une couche de cache de base de données peut être appliquée devant tout type de base de données, y compris des bases de données relationnelles et NoSQL. Les techniques courantes utilisées pour charger des données dans votre cache incluent un mode de chargement progressif, ou « lazy », et des méthodes de double écriture. Pour en savoir plus, cliquez ici.


    CDN

    Lorsque votre trafic Web est géographiquement dispersé, il n'est pas toujours possible et certainement pas économique de répliquer la totalité de votre infrastructure à travers le monde. Un CDN vous offre la possibilité d'utiliser son réseau mondial d'emplacements périphériques pour déployer une copie en cache du contenu Web comme des vidéos, des pages Web, des images et autres vers vos clients. Pour réduire le temps de réponse, le CDN utilise l'emplacement périphérique le plus proche du client ou de l'emplacement de la demande d'origine. Le débit est considérablement augmenté du fait que les actifs Web sont déployés à partir du cache. Pour les données dynamiques, de nombreux CDN peuvent être configurés pour récupérer des données depuis les serveurs d'origine.

    Amazon CloudFront est un service de CDN global qui accélère le déploiement de vos sites Web, de vos API, de votre contenu vidéo et des autres ressources Web. Il s'intègre à d'autres solutions Amazon Web Services afin de permettre aux développeurs et aux entreprises de distribuer facilement et rapidement du contenu aux utilisateurs finaux sans aucun engagement minimum en matière d'utilisation. Pour en savoir plus au sujet d'AWS CloudTrail, cliquez ici.


    DNS

    Chaque demande de domaine effectuée sur Internet nécessite essentiellement des serveurs de cache DNS pour la résolution de l'adresse IP associée au nom de domaine. La mise en cache de DNS peut survenir à de nombreux niveaux, notamment le système d'exploitation, via les FAI et les serveurs DNS.

    Amazon Route 53 est un service Web dans le cloud de système de noms de domaine (DNS) hautement disponible et évolutif.


    Mise en cache de session

    Les sessions HTTP contiennent les données utilisateur échangées entre les utilisateurs de votre site et vos applications Web comme les informations de connexion, les listes de panier, les articles précédemment consultés, etc. L'essentiel pour fournir d'excellentes expériences utilisateur sur votre site Web, c'est de gérer vos sessions HTTP efficacement en enregistrant les préférences de vos utilisateurs et de fournir un contexte utilisateur riche. Avec des architectures d'application modernes, l'utilisation d'un magasin de données de gestion de session centralisé est la solution idéale pour un certain nombre de raisons, y compris la fourniture d'une expérience cohérente sur tous les serveurs Web, une meilleure durabilité de session lorsque votre parc de serveurs Web est élastique et une plus grande disponibilité lorsque les données de session sont répliquées sur les serveurs de cache.

    Pour en savoir plus, cliquez ici.


    API

    Aujourd'hui, la plupart des applications Web sont conçues sur des API. En général, une API RESTful est un service Web qui accessible via HTTP qui expose des ressources permettant à l'utilisateur d'interagir avec l'application. Lorsque vous créez une API, il est important de prendre en compte, entre autres, la charge attendue sur l'API, l'autorisation liée, les effets des modifications apportées à la version de l'API pour les consommateurs et, plus important encore, la facilité d'utilisation de l'API. Une API n'a pas toujours besoin d'instancier la logique commerciale et/ou d'effectuer des demandes backend vers une base de données sur chaque demande. Parfois, fournir un résultat en cache de l'API offrira la réponse le plus optimale et la plus économique. Ceci est particulièrement vrai lorsque vous êtes en mesure de mettre en cache la réponse de l'API pour adapter le taux de modification des données sous-jacentes. Supposons, par exemple, que vous avez exposés une API de listing produit pour vos utilisateurs et vos catégories de produits ne changeront qu'une fois par jour. Étant donné que la réponse à une demande de catégorie de produits sera identique tout au long de la journée à chaque fois qu'un appel à vos API est fait, il serait suffisant de mettre en cache votre réponse d'API pour la journée. En mettant en cache votre réponse d'API, vous éliminez la pression sur votre infrastructure, y compris vos serveurs d'application et bases de données. Vous pouvez également profiter de temps de réponse plus rapides et déployer une API plus performante.

    Amazon API Gateway est un service entièrement géré qui permet aux développeurs de créer, publier, gérer, surveiller et sécuriser facilement des API à n'importe quelle échelle.


    Mise en cache pour des environnements hybrides

    Dans un environnement cloud hybride, vous pouvez avoir des applications présentes dans le cloud et nécessitant un accès fréquent à une base de données sur site. Il existe de nombreuses topologies de réseau qui peuvent être employées pour créer une connectivité entre votre cloud et l'environnement sur site, y compris VPN et Direct Connect. Et alors que la latence du VPC vers votre centre de données sur site peut être faible, il peut s'avérer optimal de mettre en cache vos données sur site dans votre environnement cloud pour accélérer les performances globales de récupération des données.


    Mise en cache Web

    Lors du déploiement de contenu Web pour vos utilisateurs, une grande partie de la latence impliquée dans la récupération des actifs Web comme les images, des documents, des vidéos, etc. peut être considérablement réduite en mettant en cache ces artéfacts et en éliminant les lectures de disque et la charge de serveur. Plusieurs techniques de mise en cache Web peuvent être utilisées à la fois sur le serveur et du côté du client. En général, la mise en cache Web du côté du serveur implique l'utilisation d'un proxy Web qui retient les réponses Web des serveurs Web devant lesquels il se trouve, ce qui réduit efficacement leur chargement et la latence. La mise en cache Web du côté du client peut inclure une mise en cache basée sur navigateur qui retient une version mise en cache du contenu Web visité précédemment. Pour plus d'informations sur la mise en cache Web, cliquez ici.


    Cache général

    L'accès aux données depuis la mémoire est beaucoup plus rapide que l'accès aux données depuis le disque ou le SSD, donc l'exploitation des données en cache présente beaucoup plus d'avantages. Pour de nombreux cas d'utilisation ne nécessitant pas la prise en charge de données transactionnelles ni de fiabilité de disque, l'utilisation d'un magasin de clé-valeur en mémoire sous la forme d'une base de données autonome est un excellent moyen de créer des applications hautement performantes. Outre la vitesse, l'application bénéficie d'un débit élevé à moindre coût. Les données référençables comme les regroupements de produits, les listes de catégories, les informations profil et ainsi de suite sont de parfaits cas d'utilisation d'un cache général. Pour plus d'informations sur le cache général, cliquez ici.


    Cache intégré

    Un cache intégré est une couche en mémoire qui met automatiquement en cache les données fréquemment consultées à partir de la base de données d'origine. Plus généralement, la base de données sous-jacente utilisera le cache pour servir la réponse à la demande de la base de données entrante, vu que les données résident dans le cache. Cela augmente considérablement les performances de la base de données en réduisant la latence de demande ainsi que l'utilisation de CPU et de mémoire sur le moteur de base de données. L'une des caractéristiques importantes d'un cache intégré, c'est la mise en cache des données cohérente avec les données stockées sur disques par le moteur de base de données.

  • Secteurs

    En savoir plus sur les différents Cas d'utilisation de mise en cache

    Mobile

    Les applications mobiles constituent un segment de marché à croissance rapide étant donné l'adoption de périphériques rapides par les consommateurs et la baisse de l'utilisation de matériel informatique traditionnel. Que ce soit pour les jeux, les applications commerciales, les applications de santé, et autres, pratiquement chaque segment de marché aujourd'hui dispose d'une application adaptée au mobile. Du point de vue du développement d'une application, la création d'applications mobiles est très similaire à la création de toute autre forme d'applications. On retrouve les mêmes préoccupations, le même niveau de présentation, le même niveau commercial et le même niveau de données. Même si vos outils d'affichage immobilier et de développement sont différents, l'excellente expérience utilisateur reste un objectif commun pour l'ensemble des applications. Avec des stratégies de mise en cache efficaces, vos applications mobiles peuvent fournir les performances que vos utilisateurs attendent, se redimensionner massivement et réduire vos coûts globaux.

    AWS Mobile Hub est une console qui vous fournit une expérience intégrée pour découvrir, configurer et accéder aux services de cloud AWS dans le but de développer, tester et surveiller l'utilisation d'applications mobiles.


    IoT

    L'Internet des objets (IoT) est un concept à l'origine de la collecte et de la diffusion d'informations à partir d'un appareil et le monde physique via des capteurs d'appareils vers Internet ou une application consommant des données. La valeur d'IoT est en mesure de comprendre les données collectées en temps quasi réel ce qui donne au final au système consommant les données et aux applications la possibilité de répondre rapidement à ces données. Prenons, par exemple, un appareil transmettant ses coordonnées GPS. Votre application IoT pourrait répondre en suggérant des points d'intérêt relatifs à la proximité de ces coordonnées. De plus, si vous aviez stocké les préférences liées à l'utilisateur de l'appareil, vous pouvez ajuster ces recommandations adaptées à cette personne. Dans ce cas précis, la vitesse à laquelle l'application peut répondre aux coordonnées est essentielle pour atteindre une excellente expérience utilisateur. La mise en cache peut jouer un rôle important, par exemple, avec les points d'intérêt ainsi que les coordonnées géographiques qui pourraient être stockées dans un magasin de clé/valeur comme Redis pour permettre une récupération rapide. Du point de vue du développement d'applications, vous pouvez essentiellement coder votre application IoT pour qu'elle réponde à n'importe quel événement étant donné qu'il existe un moyen de le faire par la programmation. Parmi les considérations importantes à prendre en compte lors de la création d'une architecture IoT, on trouve les temps de réponse impliqués dans l'analyse des données reçues, l'architecture d'une solution pouvant mettre à l'échelle N nombre d'appareils et offrant une architecture rentable.

    AWS IoT est une plate-forme cloud gérée qui permet aux appareils connectés d'interagir de manière simple et sécurisée avec d'autres appareils et des applications cloud.

    Lecture approfondie : gestion IoT et Time Series Data avec Amazon ElastiCache pour Redis


    AdTech

    Les applications AdTech modernes sont particulièrement exigeantes en termes de performances. Un exemple d'un domaine de croissance significatif dans AdTech est l'enchère en temps réel (RTB), qui est l'approche basée sur les enchères pour les transactions d'affichage des publicités numériques en temps réel au niveau d'impression le plus précis. La RTB était la méthode de transaction dominante en 2015, comptabilisant 74,0 % des publicités achetées par programme, soit 11 milliards de dollars aux Etats-Unis (d'après eMarketer Analysis). Lors de la création d'une application d'enchères en temps réel, une milliseconde peut faire la différence entre l'envoi de l'enchère dans les temps et le fait de devenir impertinente. Cela signifie que l'obtention des informations d'enchère à partir de la base de données doit être extrêmement rapide. La mise en cache de base de données, qui peut accéder aux détails d'enchère en moins d'une milliseconde, est une excellente solution pour atteindre ces performances élevées.


    Jeux

    L'interactivité est une nécessité essentielle pour pratiquement n'importe quel jeu moderne. Il n'y a rien de plus frustrant pour les joueurs qu'un jeu lent ou non réactif et généralement, ce genre de jeu ne fait pas long feu. Les exigences sur les performances sont encore plus grandes pour les jeux multi-joueurs sur mobile, où chaque action effectuée par un joueur doit être partagée avec d'autres en temps réel. La mise en cache joue un rôle crucial dans la fluidité d'un jeu en fournissant des temps de réponse aux demandes de moins d'une milliseconde pour les données fréquemment consultées. Elle est également utile pour atténuer les problèmes de clé à chaud lorsque les mêmes données sont demandées plusieurs fois, comme « qui sont les 10 principaux joueurs par score ? »

    En savoir plus sur le développement de jeux sur AWS, cliquez ici.



    Multimédia

    Les entreprises du secteur multimédia doivent souvent faire face à la nécessité de transmettre une grande quantité de contenu statique à leurs clients avec un nombre de lecteurs/visionneurs en changement constant. Un bon exemple serait un service de diffusion vidéo comme Netflix ou Amazon Video, qui diffuse une grande quantité de contenu vidéo pour les utilisateurs. C'est la solution idéale pour un réseau de diffusion de contenu, où les données sont stockées sur un ensemble de serveurs de mise en cache distribué dans le monde entier. Un autre aspect des applications multimédia est la charge qui tend à être irrégulière et imprévisible. Imaginez un blog sur un site Web sur lequel une célébrité vient de tweeter ou le site Web d'une équipe de football américain pendant le Super Bowl. Un tel pic de demande pour un petit sous-ensemble de contenu est un défi pour la plupart des bases de données, car elles sont limitées dans leur débit par clé. Étant donné que la mémoire dispose d'un débit beaucoup plus élevé que le disque, un cache de base de données permettrait de résoudre le problème en redirigeant les lectures vers le cache en mémoire.


    E-commerce

    Les applications e-commerce modernes sont de plus en plus sophistiquées et offrent une expérience d'achat personnalisée comprenant des recommandations en temps réel basées sur l'historique d'achat et les données de l'utilisateur. Ces derniers éléments comprennent également souvent la consultation d'un réseau social d'utilisateur et le fait de fournir une recommandation en fonction de ce que ses amis ont aimé ou acheté. Alors que la quantité de données nécessaires à traiter augmente, ce n'est pas le cas de la patience. Par conséquent, le maintien des performances de l'application en temps réel n'est pas un luxe, mais une nécessité ; une stratégie de mise en cache bien exécutée est un aspect essentiel des performances de l'application et elle peut faire la différence entre la réussite ou l'échec d'une application, entre la concrétisation d'une vente ou la perte d'un client.

    Cliquez ici pour des exemples d'architecture d'e-commerce.


    Réseaux sociaux

    Les applications de réseaux sociaux ont déferlé sur le monde. Les réseaux sociaux comme Facebook, Twitter, Instagram et Snapchat ont un grand nombre d'utilisateurs qui consomment toujours plus de contenu. Lorsqu'un utilisateur ouvre son flux, il s'attend à voir le dernier contenu personnalisé en temps quasi réel. Il ne s'agit pas de contenu statique, car chaque utilisateur a différents amis, images, intérêts, etc., ce qui augmente la complexité des besoins en matière d'ingénierie de la plateforme sous-jacente. Les applications de réseaux sociaux sont également très sujettes aux pics d'utilisation autour du divertissement, des sports et des événements politiques majeurs. Ce type de résilience de pic et les performances en temps réel sont obtenues grâce à plusieurs couches de mise en cache, y compris Réseau de diffusion de contenu pour le contenu statique comme les images d'arrière-plan, le cache de session pour assurer le suivi des données de session actuelle d'un utilisateur et le cache de base de données pour conserver les données fréquemment consultées comme les dernières actualités des amis les plus proches et les dernières images utiles.


    Santé

    Le secteur de la santé traverse une révolution numérique, ce qui rend le soin à la fois disponible et à la portée de plus en plus de patients dans le monde entier. Certaines applications permettent aux patients de voir des médecins par le biais de consultations vidéo et la plupart des principaux fournisseurs disposent d'applications qui permettent aux patients de voir les résultats de leurs tests et d'interagir avec le personnel médical. Pour ce qui est du bien-être, il existe une pléthore d'applications allant du suivi de l'activité des capteurs spécifiques d'un utilisateur (par exemple, FitBit et Jawbone) à un coaching et des données complets sur le bien-être. Compte tenu de la nature interactive de ces applications, il faut répondre au besoin en termes d'applications, d'entreprise et de niveaux de données rapides. Avec une stratégie de mise en cache efficace, vous serez en mesure de fournir des performances rapides, de réduire les coûts globaux d'infrastructure et de dimensionner à mesure que votre utilisation évolue.

    Pour en savoir plus sur la création d'applications de santé sur AWS, cliquez ici.


    FinTech

    La façon dont nous consommons les services financiers a considérablement évolué au cours de ces dernières années. Les applications incluent l'accès aux services bancaires et d'assurance, à la détection des fraudes, aux services d'investissement, à l'optimisation des marchés de capitaux via des algorithmes en temps réel, et bien plus encore. La garantie d'un accès en temps réel aux données financières d'un client lui permettant d'effectuer des transactions comme des virements des paiements est difficile. Tout d'abord, des contraintes similaires s'appliquent comme dans d'autres applications où un utilisateur souhaite interagir avec l'application en temps quasi réel. En outre, les applications financières peuvent imposer des exigences supplémentaires telles qu'une sécurité améliorée et la détection des fraudes. Une architecture efficace, comprenant une stratégie de mise en cache multicouche, est essentielle pour atteindre les performances attendues par les utilisateurs. En fonction des besoins de l'application, les couches de mise en cache comprennent un cache de session pour stocker les données de session d'un utilisateur, un réseau de diffusion de contenu pour la diffusion de contenu statique et un cache de base de données pour les données fréquemment consultées comme les 10 derniers achats du client.

    Pour en savoir plus sur les applications de services financiers sur AWS, cliquez ici.

Il est facile de se lancer dans la mise en cache dans le cloud avec un service entièrement géré comme Amazon ElastiCache. Ce service supprime la complexité de la configuration, de la gestion et de l'administration de votre cache, et vous permet de concentrer vos efforts sur ce qui apporte de la valeur à votre organisation. Inscrivez-vous dès aujourd'hui pour Amazon ElastiCache.

Démarrez avec Amazon ElastiCache