O blogue da AWS

Como desvendar o desafio do Big Data

Por Eduardo Horai, Sr Mgr Solutions Architecture

Conforme mencionamos em outros posts, estimular o uso de informações pode ajudar na qualidade e eficácia dos processos de tomada de decisão. Porém esse desafio é gigante dado o volume cada vez maior de informações geradas por uma variedade de fontes diferentes com formatos distintos em uma velocidade proporcionada pela larga utilização da internet e de aplicativos móveis, e mais, tudo isso não é suportado mais por banco de dados tradicionais. Esse é o desafio do Big Data.

Uma estratégia sólida de big data pode ajudar as organizações a reduzir custos e ganhar eficiência operacional com a migração de cargas de trabalho pesadas existentes para tecnologias de big data propícias para suportar os desafios mencionados anteriormente, além de abrir a possibilidade de implantar novos aplicativos para aproveitar novas oportunidades. O contrário, a falha em tratar corretamente esses desafios de Big Data pode resultar no aumento de custos, além da redução de produtividade e competitividade.

As novas ferramentas que tratam todo o ciclo de gerenciamento de dados, tornam o big data viável tanto tecnicamente quando economicamente, auxiliando na coleta e armazenamento de conjunto maiores de dados, e na análise de maneira a fazer novas e valiosas descobertas em tempo hábil. Essas ferramentas auxiliam em quatro áreas de Big Data:

· Coleta: o desafio de coletar dados brutos como transações, logs, dados de dispositivos móveis e muito mais, exige uma versatilidade ampla dado a variedade de dados, estruturados e não estruturados, ingeridos rapidamente.

· Armazenamento: toda plataforma de big data necessita de um repositório seguro, escalável e durável para armazenar os dados antes e após o processamento das tarefas, e as vezes até mesmo durante a análise.

· Processamento e análise: nesta etapa os dados brutos são transformados em um formato consumível, por meio da classificação, agregamento, união e algoritmos avançados. Os dados resultantes podem ser armazenados para outros processamentos posteriores ou disponibilizados através de ferramentas de BI ou visualização.

· Consumo e visualização: big data trata de obter valor a partir de dados, através de ferramentas que disponibilizam idealmente uma inteligência de negócios e facilitem a exploração rápida do conjunto de dados, permitindo previsões estatísticas, análises preditivas ou ações recomendadas.

A Amazon Web Services oferece um portfólio amplo e integrado de serviços de computação na nuvem para ajudar você a criar, proteger e implantar seus aplicativos de big data. Com a AWS, não há hardware para compra e nenhuma infraestrutura para manter e escalar, assim você pode concentrar os recursos na revelação de novas descobertas. Com novas capacidades e recursos adicionados constantemente, você será capaz de aproveitar as mais recentes tecnologias sem estabelecer compromissos de investimento de longa duração.

Para o armazenamento, o Amazon S3 disponibiliza um armazenamento de objetos altamente confiável, seguro e escalável, para os variados formatos de dados como texto, log, arquivos binários para qualquer volume. O Amazon DynamoDB oferece um serviço de banco de dados NoSQL totalmente gerenciado, rápido e flexível para todas as aplicações, como móveis, web, jogs, IoT entre outras, que precisam de latência consistente e abaixo de 10 milissegundos em qualquer escala, inclusive manipular gratos utilizando o Titan para DynamoDB. Se ainda assim precisar de uma base relacional com escalabilidade, o Amazon Aurora combina a velocidade e confiabilidade de bancos de dados relacionais, entregando até 5x o throughput do MySQL.

Para armazenamentos de data warehouse, o Amazon Redshift é um serviço totalmente gerenciado e em escala de petabytes que simplifica e viabiliza uma análise todos seus dados conectando com suas ferramentas existentes de BI.

No processamento e análise, há diversas opções como o Amazon Elastic MapReduce que oferece uma estrutura para Hadoop gerenciado, permitindo alterar dinamicamente a escala do cluster, podendo utilizar diversos frameworks conhecidos de marcado como Apache Spark e Presto, permitindo análises estatísticas, preditiva e recomendadas. O Amazon Elasticsearch service configura e implanta um cluster de Elasticsearch, um conhecido mecanismo open-source de pesquisa e análise que permite análise de logs e monitoramento em tempo real.

Indo além em análises de tempo real, o Amazon Kinesis Streams facilita a captura de dados em streaming. O Amazon Kinesis Firehose facilita o carregamento de grandes volumes para certos serviços da AWS como o Amazon S3 e o Amazon Redshift, viabilizando assim análises utilizando ferramentas de BI.

Por último, para visualização, o Amazon QuickSight oferece funcionalidades completas de BI, permitindo fácil visualização, execução de consultas ad-hoc para obtenção de informações rápidas, com gráficos visuais e avançados. Outra alternativa para visualização, é utilizar ferramentas conhecidas como Tableau, disponíveis no nosso marketplace.

São várias opções para resolver da melhor maneira os seus desafios de big data a fim de contribuir verdadeiramente para o seu negócio. Aprenda como empresas como a Movile, líder em desenvolvimento de plataformas e aplicativos móveis para a América Latina utiliza a Amazon Web Services para extrair informações relevantes ao seu negócio. Deixe a parte difícil com a gente, e foque seu tempo e recursos para ajudar a atingir os objetivos do seu negócio. Para maiores informações e ajuda em big data, entre em contato conosco!