Nuvem AWS
Comece a usar o cache

Na área de computação, um cache é uma camada de armazenamento de dados de alta velocidade que guarda um subconjunto de dados, geralmente temporário por natureza, para que futuras solicitações referentes a esses dados sejam atendidas de modo mais rápido do que é possível fazer ao acessar o local de armazenamento principal de dados. O cache permite reutilizar com eficiência dados recuperados ou computados anteriormente. Os dados em um cache geralmente são armazenados no hardware de acesso rápido, como uma Random-access memory (RAM – Memória de acesso aleatório), e também podem ser usados em paralelo com um componente de software. O principal objetivo de um cache é aumentar a performance da recuperação de dados ao reduzir a necessidade de acessar a camada subjacente mais lenta de armazenamento. A substituição de capacidade por velocidade geralmente faz com que um cache armazene um subconjunto de dados de modo temporário, em comparação com bancos de dados, cujos dados são, de modo geral, completos e duráveis.

Os caches podem ser aplicados e utilizados entre várias camadas de tecnologia, como sistemas operacionais, camadas de redes, que incluem Content Delivery Networks (CDN – Redes de entrega de conteúdo) e DNS, além de aplicativos web e bancos de dados.

Graças às altas taxas de solicitação ou IOPS (operações de entrada/saída por segundo) apoiadas pela RAM e por mecanismos de memória, o cache resulta em uma performance de recuperação de dados otimizada, além de reduzir custos em grande escala. Para apoiar a mesma escala com bancos de dados tradicionais e hardware de disco, seriam necessários recursos adicionais. Esses recursos adicionais aumentam os custos e ainda assim não têm condições de atingir a performance de baixa latência proporcionada por um cache de memória.

Você pode usar o cache para reduzir bastante a latência e melhorar as IOPS para várias cargas de trabalho de aplicativos com alto consumo de leitura, como portais de perguntas e respostas, jogos, compartilhamento de mídia e redes sociais. As informações armazenadas em cache podem incluir os resultados de consultas de banco de dados, cálculos com alto consumo computacional, solicitações/resposta de API e artefatos da web, como HTML, JavaScript e arquivos de imagem. As cargas de trabalho com alto consumo computacional que trabalham com conjuntos de dados, como mecanismos de recomendação e simulações computacionais de alta performance, também se beneficiam de uma camada de dados de memória atuando como um cache. Nesses aplicativos, conjuntos de dados muito grandes devem ser acessados em tempo real em clusters de máquinas que podem abranger centenas de nós. Devido à velocidade do hardware subjacente, o trabalho com esses dados em um armazenamento de disco gera um gargalo significativo para esses aplicativos.

Em um ambiente computacional distribuído, uma camada de cache dedicada permite que sistemas e aplicativos sejam executados de forma independente do cache com seus próprios ciclos de vida sem o risco de afetar o cache. O cache atua como uma camada central que pode ser acessada por meio de sistemas diferentes com sua própria topologia de arquitetura e ciclo de vida. Isso torna-se particularmente relevante em um sistema em que é possível aumentar ou reduzir a escala dos nós de aplicativos de modo dinâmico. Se o cache estiver armazenado no mesmo nó do aplicativo e dos sistemas que o utilizam, é possível que a escalabilidade prejudique a integridade do cache. Além disso, quando caches locais são usados, eles beneficiam apenas o aplicativo local que estiver consumindo os dados. Em um ambiente de cache distribuído, os dados podem abranger vários servidores de cache e ser armazenados em um local central para beneficiar todos os consumidores desses dados.

diagram_cachingmicrosite
Camada Lado do cliente DNS Web Aplicativo Banco de dados
Caso de uso Acelere a recuperação de conteúdo da web proveniente de sites (navegador ou dispositivo) Resolução de domínio para IP Acelere a recuperação de conteúdo da web originado em servidores web/de aplicativos. Gerencie sessões da web (servidor) Acelere a performance do aplicativo e o acesso a dados Reduza a latência associada a solicitações de consulta do banco de dados
Tecnologias Cabeçalhos de cache HTTP, navegadores Servidores DNS Cabeçalhos de cache HTTP, CDNs, proxies reversos, Web Accelerators, armazenamentos de chave-valor Datastores de chave-valor, caches locais Buffers de banco de dados, datastores de chave-valor
Soluções Específicas do navegador Amazon Route 53 Amazon CloudFront, ElastiCache for Redis, ElastiCache for Memcached, soluções de parceiros Application Frameworks, ElastiCache for Redis, ElastiCache for Memcached, soluções de parceiros  ElastiCache for Redis, ElastiCache for Memcached

Ao implementar uma camada de cache, é importante entender a validez dos dados que estão sendo armazenados em cache. Um cache bem-sucedido resulta em uma alta taxa de ocorrências. Isso significa que os dados estavam presentes quando foram obtidos. Um erro de cache ocorre quando os dados obtidos não estão presentes no cache. Os controles, como Time to live (TTLs – Vida útil), podem ser aplicados para expirar os dados conforme for necessário. Outra consideração a fazer pode ser avaliar se o ambiente de cache precisa ou não ser altamente disponível, o que pode ser atendido por mecanismos de memória, como o Redis. Em alguns casos, uma camada de memória pode ser usada como uma camada de armazenamento de dados independente, em vez de usar o cache de dados por meio de um local principal. Nesse cenário, é importante definir o Recovery Time Objective (RTO – Objetivo do tempo de recuperação), ou seja, o tempo necessário para a recuperação após uma interrupção, e o Recovery Point Objective (RPO – Objetivo de ponto de recuperação), que é o último momento ou transação capturada na recuperação, pertinentes aos dados armazenados no mecanismo de memória para determinar se isso é indicado. Estratégias e características de projeto de diferentes mecanismos de memória podem ser aplicadas para atender à maioria dos requisitos de RTO e RPO.

O Amazon ElastiCache é um web service que torna fácil implantar, operar e ajustar a escala de um datastore ou cache de memória na nuvem. O serviço melhora a performance de aplicativos web, o que permite recuperar informações de datastores rápidos e gerenciáveis de memória, em vez de depender inteiramente de bancos de dados armazenados em disco e de seu desempenho mais lento.

Saiba como você pode implementar uma estratégia de cache eficiente com este whitepaper técnico sobre o cache de memória.

ElastiCache_Deep_Dive_2016
ElastiCache Deep Dive: Best Practices and Usage Patterns
15
Aumente a performance de aplicativos

Como a memória é infinitamente mais rápida do que um disco (SSD ou magnético), a leitura de dados de cache de memória é extremamente rápida (pode ser feita em menos de dez milissegundos). Esse acesso muito mais rápido aos dados melhora a performance geral do  aplicativo.

Reduza os custos de bancos de dados

Uma única instância de cache pode disponibilizar centenas de milhares de IOPS (operações de entrada/saída por segundo), possivelmente substituindo várias instâncias de banco de dados, o que diminui o custo total. Isso é particularmente importante se a cobrança do banco de dados principal for feita por throughput. Nesses casos, as economias de preço poderiam chegar a dezenas de pontos percentuais.

Reduza a carga

Ao redirecionar partes importantes da carga de leitura do banco de dados de back-end para a camada de memória, o cache pode reduzir a carga no banco de dados, além de protegê-lo contra uma performance mais lenta, no caso de um aumento da carga, ou até mesmo de falhas nos momentos de pico.

Performance previsível

Um desafio comum em aplicativos modernos é administrar corretamente os períodos de pico durante a sua utilização. Os exemplos incluem aplicativos de redes sociais executados durante o Super Bowl ou em dias de eleições, sites de comércio eletrônico durante a Black Friday, etc. Uma carga maior no banco de dados resulta em latências mais elevadas para a obtenção de dados, o que torna imprevisível a performance geral dos aplicativos. Ao utilizar um cache de memória com throughput elevado, é possível mitigar esse problema.

Elimine hotspots

Em muitos aplicativos, é provável que um pequeno subconjunto de dados, como o perfil de celebridades ou produtos famosos, seja acessado com mais frequência do que o restante. É possível que isso resulte em hotspots no banco de dados e exija o provisionamento em excesso de recursos de banco de dados com base nos requisitos de throughput dos dados usados com maior frequência. O armazenamento de chaves comuns em um cache de memória mitiga a necessidade de provisionamento excessivo, além de proporcionar uma performance rápida e previsível para os dados acessados com mais frequência.

Aumente o throughput

Além de menor latência, os sistemas de memória também oferecem taxas de solicitação (IOPS) muito mais altas relativas a um banco de dados baseado em disco similar. Uma única instância usada como um cache lateral distribuído pode atender a centenas de milhares de solicitações por segundo.

  • Casos de uso

    Saiba mais sobre vários casos de uso de cache

    Cache de banco de dados

    A performance, tanto em termos de velocidade quanto throughput, que o banco de dados proporciona, pode ser o fator de maior impacto sobre a performance geral de um aplicativo. E, apesar de muitos bancos de dados atualmente oferecerem uma performance relativamente boa, para vários casos de uso, é possível que os seus aplicativos exijam mais do que o disponibilizado no momento. O cache de banco de dados permite aumentar expressivamente o throughput e reduzir a latência de recuperação de dados associados a bancos de dados de back-end, o que, como resultado, melhora a performance geral dos aplicativos. O cache atua como uma camada adjacente de acesso a dados para o banco de dados, que os aplicativos podem utilizar para melhorar a performance. A camada de cache de banco de dados pode ser aplicada na frente de qualquer tipo de banco de dados, inclusive bancos de dados relacionais e NoSQL. Técnicas comuns usadas para carregar dados no cache incluem o carregamento lento e os métodos write-through. Para obter mais informações, clique aqui.


    CDN

    Quando o tráfego da web está distribuído em diferentes regiões geográficas, nem sempre é viável, além de certamente não ser econômico, replicar toda a infraestrutura globalmente. Uma CDN oferece a capacidade de utilizar sua rede global de pontos de presença para disponibilizar uma cópia em cache de conteúdo da web, como vídeos, páginas da web, imagens etc. para seus clientes. Para reduzir o tempo de resposta, a CDN utiliza o ponto de presença mais próximo ao cliente ou ao local da solicitação de origem para reduzir o tempo de resposta. Isso provoca um aumento expressivo do throughput, considerando que os ativos da web são entregues por meio do cache. Para dados dinâmicos, muitas CDNs podem ser configuradas para recuperar dados de servidores de origem.

    O Amazon CloudFront é um serviço de CDN global que acelera a entrega do conteúdo de sites, APIs, vídeo ou outros recursos da web. Ele se integra a outros produtos da Amazon Web Services para oferecer aos desenvolvedores e às empresas uma maneira fácil de acelerar a entrega de conteúdo para usuários finais, sem compromisso mínimo de utilização. Para saber mais sobre as CDNs, clique aqui.


    DNS

    Cada solicitação de domínio feita na Internet basicamente consulta servidores de cache do DNS para resolver o endereço IP associado ao nome de domínio. O cache do DNS pode ocorrer em vários níveis, inclusive no SO, por meio de ISPs e servidores DNS.

    O Amazon Route 53 é um web service de nuvem do DNS altamente disponível e escalável.


    Cache de sessão

    Sessões HTTP contêm os dados do usuário trocados entre os usuários do site e os aplicativos web, como informações de login, listas de carrinho de compras, itens vistos anteriormente etc. Para proporcionar excelentes experiências de usuário em sites, é essencial fazer o gerenciamento de sessões HTTP de modo eficiente ao lembrar as preferências do usuário e disponibilizar contexto de usuário avançado. Com as arquiteturas modernas de aplicativos, o uso de um datastore de gerenciamento centralizado de sessões é a solução ideal por vários motivos, como oferecer uma experiência de usuário uniforme em todos os servidores web, uma durabilidade melhor de sessão quando a frota de servidores web for elástica e uma disponibilidade mais elevada quando os dados da sessão forem replicados nos servidores de cache.

    Para obter mais informações, clique aqui.


    APIs

    Atualmente, a maioria dos aplicativos web são desenvolvidos nas APIs. Uma API geralmente é um web service RESTful que pode ser acessado via HTTP e expõe recursos que permitem que o usuário interaja com o aplicativo. Ao projetar uma API, é importante considerar a carga esperada na API, a autorização para ela, os efeitos das alterações de versão para os usuários da API e, principalmente, a facilidade de uso da API, entre outras considerações. Nem sempre será necessário que uma API instancie a lógica de negócios e faça solicitações de back-end para um banco de dados em cada solicitação. Às vezes, distribuir um resultado de cache da API proporcionará a melhor e mais econômica resposta. Isso será válido especialmente quando for possível armazenar em cache a resposta da API de modo que corresponda à taxa de alterações dos dados subjacentes. Digamos, por exemplo, que você tenha exposto uma API de catálogo de produtos aos seus usuários e suas categorias de produto sejam alteradas apenas uma vez ao dia. Se considerarmos que, ao longo do dia, toda vez que for feita uma chamada para a API a resposta a uma solicitação de categoria de produto será sempre a mesma, armazená-la em cache para que seja usada durante o dia inteiro seria uma solução eficiente. Ao armazenar em cache a resposta da API, é possível eliminar a pressão sofrida pela infraestrutura, inclusive para os servidores de aplicativos e os bancos de dados. Isso oferece vantagens, como tempos de resposta mais rápidos, além de disponibilizar uma API mais eficiente.

    O Amazon API Gateway é um serviço gerenciado que permite aos desenvolvedores criar, publicar, manter, monitorar e proteger APIs em qualquer escala.


    Cache para ambientes híbridos

    Em um ambiente de nuvem híbrida, é possível ter aplicativos que residam na nuvem e exijam acesso frequente a um banco de dados local. Há muitas topologias de rede que podem ser usadas para criar conectividade entre o ambiente local e de nuvem, como a VPN e o Direct Connect. E, embora a latência entre a VPC e o datacenter local possa ser baixa, ela pode ser ideal para armazenar em cache os dados locais no ambiente de nuvem, e assim acelerar a performance geral de recuperação de dados.


    Cache da Web

    Durante a entrega de conteúdo da web para os espectadores, grande parte da latência envolvida na recuperação de ativos da web, como imagens, documentos HTML, vídeos etc., pode ser reduzida consideravelmente ao armazenar em cache esses artefatos, bem como ao eliminar as leituras de disco e a carga do servidor. Várias técnicas de cache da web podem ser usadas tanto no servidor quanto no lado do cliente. O armazenamento em cache da web no servidor geralmente envolve o uso de um proxy da web que retém as respostas da web dos servidores web na frente dos quais reside, o que reduz de modo eficiente a carga e a latência. O armazenamento em cache no lado do cliente pode incluir armazenamento em cache do navegador que retém uma versão em cache do conteúdo da web acessado anteriormente. Para obter mais informações sobre o cache da web, clique aqui.


    Cache geral

    O acesso a dados usando a memória é muito mais rápido do que o acesso a dados por disco ou SSD, portanto, utilizar os dados no cache proporciona várias vantagens. Para muitos casos de uso que não exigem apoio a dados transacionais nem durabilidade baseada em disco, o uso de um armazenamento de chave-valor de memória como um banco de dados independente é uma ótima maneira de criar aplicativos altamente eficientes. Além da velocidade, o aplicativo se beneficia de um throughput elevado a um preço acessível. Dados que podem ser consultados, como agrupamentos de produtos, listas de categoria, informações de perfil etc. são excelentes casos de uso para um cache geral. Para obter mais informações sobre o cache geral, clique aqui.


    Cache integrado

    Um cache integrado é uma camada de memória que armazena automaticamente em cache dados acessados com frequência por meio do banco de dados de origem. Normalmente, o banco de dados subjacente utilizará o cache para distribuir a resposta à solicitação do banco de dados de entrada, contanto que os dados residam no cache. Isso aumenta expressivamente a performance do banco de dados, diminuindo a latência da solicitação e reduzindo a utilização da CPU e da memória no mecanismo de banco de dados. Uma importante característica de um cache integrado é que os dados armazenados em cache estão de acordo com os dados armazenados no disco pelo mecanismo de banco de dados.

  • Setores

    Saiba mais sobre vários casos de uso de cache

    Móvel

    Os aplicativos móveis compõem um segmento de mercado cujo crescimento é vertiginoso, graças à rápida adoção de dispositivos de consumo e o declínio no uso de equipamentos tradicionais de computação. Independentemente do setor, seja de jogos, aplicativos comerciais, aplicativos da área de healthcare etc., basicamente todos os segmentos de mercado de hoje contam com um aplicativo móvel. Sob o ponto de vista do desenvolvimento de aplicativos, a criação de aplicativos móveis é muito semelhante à criação de outros de tipos de aplicativos. As áreas de interesse são as mesmas: camada de apresentação, camada empresarial e camada de dados. Embora o espaço útil de tela e as ferramentas de desenvolvimento sejam variáveis, o objetivo de alcançar uma excelente experiência de usuário é compartilhado por todos os aplicativos. Com estratégias de cache eficientes, aplicativos móveis podem proporcionar a performance esperada pelos usuários, fazer amplos ajustes de escala e reduzir custos de modo geral.

    O AWS Mobile Hub é um console que oferece uma experiência integrada para descobrir, configurar e acessar serviços da Nuvem AWS para criar, testar e monitorar o uso de aplicativos móveis.


    IoT

    A Internet das Coisas é o conceito por trás da coleta e da entrega de informações para a Internet ou aplicativos que consomem dados. Essas informações são obtidas por meio de um dispositivo e do mundo físico em si usando sensores de dispositivos. O benefício da IoT é ter a capacidade de entender os dados capturados em intervalos praticamente em tempo real, o que acaba por permitir que o sistema e os aplicativos de consumo respondam rapidamente a esses dados. Considere, por exemplo, um dispositivo que transmite suas coordenadas de GPS. O aplicativo de IoT poderia responder ao sugerir pontos de interesse relacionados à proximidade dessas coordenadas. Além disso, se as preferências relacionadas ao usuário do dispositivo tiverem sido armazenadas, será possível ajustar essas recomendações personalizadas de acordo com o usuário em questão. Nesse exemplo específico, a velocidade com que o aplicativo pode responder às coordenadas é essencial para a obtenção de uma excelente experiência do usuário. O cache pode desempenhar um papel importante aqui. Por exemplo, os pontos de interesse, juntamente às coordenadas geográficas, podem ser guardados em um armazenamento de chave-valor, como o Redis, para possibilitar uma rápida a recuperação. Sob o ponto de vista de desenvolvimento de aplicativos, basicamente, é possível codificar aplicativos de IoT para que eles respondam a qualquer evento, contanto que exista uma maneira programática de fazer isso. As principais considerações a fazer durante a criação de uma arquitetura de IoT incluem o tempo de resposta necessário para a análise dos dados consumidos, projetar uma solução capaz de ajustar a escala de N de dispositivos, além de disponibilizar uma arquitetura econômica.

    O AWS IoT é uma plataforma gerenciada de nuvem que permite a interação fácil e segura de dispositivos com aplicativos de nuvem e outros dispositivos.

    Leitura complementar: Managing IoT and Time Series Data with Amazon ElastiCache for Redis


    AdTech

    Aplicativos modernos de AdTech são particularmente exigentes em termos de performance. Um exemplo de uma área de AdTech que tem demonstrado um crescimento significativo é o Real-time bidding (RTB – Oferta em tempo real), que é uma abordagem com base em leilão à negociação de anúncios de exibição digital em tempo real, no nível de impressão mais minucioso possível. O RTB era o método de negociação predominante em 2015, representando 74% dos anúncios comprados de modo programático, ou 11 bilhões de dólares nos EUA (de acordo com a eMarketer Analysis). Durante a criação de um aplicativo de ofertas em tempo real, um milissegundo pode fazer a diferença entre o envio da oferta a tempo ou tarde demais, tornando-a irrelevante. Isso significa que a obtenção das informações sobre a oferta no banco de dados deve ser extremamente rápida. O cache de banco de dados, que pode acessar detalhes da oferta em menos de dez milissegundos, é uma excelente solução para obter essa alta performance.


    Jogos

    A interatividade é o principal requisito de basicamente qualquer jogo moderno. Nada pode ser mais frustrante para os jogadores do que um jogo lento ou sem capacidade de resposta. Não é à toa que esse tipo de jogo raramente torna-se um sucesso. O requisito relacionado à performance é ainda mais exigente em se tratando de jogos multijogador para dispositivos móveis, em que qualquer ação executada por um jogador precisa ser compartilhada com todos os outros em tempo real. O cache é fundamental para manter o jogo rodando sem problemas e ele faz isso ao disponibilizar uma resposta a consultas de menos de dez milissegundos para dados acessados com frequência. Ele também ajuda a resolver problemas de tecla de atalho quando os mesmos dados forem consultados várias vezes, tais como "quem são os dez melhores jogadores com base na pontuação?".

    Para saber mais sobre o desenvolvimento de jogos na AWS, clique aqui.



    Mídia

    Com frequência, empresas de mídia precisam transmitir grandes quantidades de conteúdo estático aos seus clientes com um número de leitores/espectadores que muda constantemente. Um exemplo disso são os serviços de streaming de vídeo, como a Netflix ou a Amazon Video, que fazem o streaming de um grande conteúdo de vídeos para os espectadores. Esse cenário se adequa perfeitamente a uma Rede de entrega de conteúdo, em que os dados são armazenados em um conjunto de servidores de cache distribuído globalmente. Outra característica dos aplicativos de mídia é que a carga tende a atingir momentos de pico e ser imprevisível. Imagine um blog em um site que acabou de ser mencionado no Twitter de uma celebridade ou o site de um time de futebol americano durante o Super Bowl. Um grande pico na demanda de um subconjunto pequeno do conteúdo é um desafio para a maioria dos bancos de dados, pois eles estão limitados aos seus throughputs por chave. Como a memória tem um throughput muito maior do que o disco, um cache de banco de dados poderia resolver o problema ao redirecionar as leituras para o cache de memória.


    Comércio eletrônico

    Os aplicativos modernos de comércio eletrônico estão ficando mais avançados, oferecendo uma experiência de compras personalizada que inclui recomendações em tempo real com base nos dados de um usuário e no seu histórico de compras. Geralmente, eles incluem também pesquisas nas redes sociais do usuário e oferecem recomendações com base no que os amigos dele curtiram ou compraram. Isso apresenta um paradoxo: enquanto a quantidade de dados necessária para processar tudo isso aumenta cada vez mais, a paciência do cliente diminui a cada dia. Portanto, manter a execução do aplicativo em tempo real não é um luxo, mas uma necessidade. Uma estratégia bem executada de cache é uma característica essencial da performance do aplicativo e pode fazer toda a diferença para que ele seja um sucesso ou um fracasso, entre a execução de uma venda ou a perda de um cliente.

    Clique aqui para ver um exemplo de arquitetura de comércio eletrônico.


    Redes sociais

    Os aplicativos de redes sociais conquistaram o mundo. A redes sociais, como Facebook, Twitter, Instagram e Snapchat, têm um grande número de usuários que consomem uma quantidade de conteúdo cada vez maior. Quando um usuário abre seu feed, ele espera ver o conteúdo personalizado mais recente, praticamente em tempo real. Esse conteúdo não é estático, pois cada usuário tem amigos, imagens, interesses etc. diferentes, o que acentua as necessidades de complexidade da engenharia da plataforma subjacente. Os aplicativos de redes sociais também apresentam uma grande tendência a atingir picos de uso durante grandes eventos desportivos, políticos e de entretenimento. A resiliência a picos e a performance em tempo real são obtidas por meio de várias camadas de cache que incluem Rede de entrega de conteúdo para o conteúdo estático, como imagens de segundo plano, cache de sessão para monitorar os dados atuais de sessão de um usuário e cache de banco de dados para manter à mão dados acessados com frequência, como as últimas novidades dos amigos mais chegados e as fotos mais recentes.


    Healthcare

    O setor de healthcare está passando por uma revolução digital, disponibilizando atendimento médico e o tornando acessível para cada vez mais pacientes em todo o mundo. Alguns aplicativos permitem que pacientes façam consultas com médicos por vídeo e a maioria das grandes operadoras têm aplicativos que possibilitam que os pacientes obtenham seus resultados e interajam com a equipe médica. Sob o âmbito do setor de bem-estar, existem inúmeros aplicativos que abrangem desde o rastreamento de uma atividade de sensor específica de um usuário (como FitBit e Jawbone) até coaching e dados abrangentes desse setor. Considerando a natureza interativa desses aplicativos, é primordial contemplar a necessidade de aplicativos de rápida performance, bem como os níveis empresariais e de dados. Uma estratégia de cache eficiente possibilita disponibilizar uma rápida performance, reduzir custos gerais de infraestrutura e ajustar a escala de acordo com o aumento do uso.

    Para saber mais sobre a criação de aplicativos de healthcare na AWS, clique aqui.


    FinTech

    O modo como consumimos serviços financeiros evoluiu expressivamente nos últimos anos. Os aplicativos incluem o acesso a serviços bancários e do setor de seguros, detecção de fraudes, serviços de investimentos, otimização de mercados de capital via algoritmos em tempo real e muito mais. Disponibilizar acesso em tempo real aos dados financeiros de um cliente, permitindo que ele faça transações, como a transferência de dinheiro ou a execução de pagamentos, é um desafio. Primeiramente, aplicam-se restrições semelhantes às enfrentadas por outros aplicativos em que o usuário deseja interagir com o aplicativo em praticamente tempo real. Além disso, aplicativos financeiros podem impor requisitos adicionais, como maior segurança e detecção de fraudes. Uma arquitetura eficiente, como a estratégia de cache multicamada, é essencial para atingir a performance esperada pelos usuários. Com base nas necessidades dos aplicativos, as camadas de cache incluem uma sessão de cache para o armazenamento dos dados de uma sessão do usuário, uma Rede de entrega de conteúdo para disponibilizar conteúdo estático e um cache de banco de dados para dados acessados com frequência, como as dez compras mais recentes do cliente.

    Para saber mais sobre aplicativos financeiros na AWS, clique aqui.

É fácil começar a usar o cache na nuvem usando um serviço totalmente gerenciado, como o Amazon ElastiCache. Isso elimina a complexidade de configurar, gerenciar e administrar o cache, permitindo que você se dedique ao que agrega valor à sua empresa. Cadastre-se hoje mesmo no Amazon ElastiCache.

Comece a usar o Amazon ElastiCache