Introdução

Os dados precisam ser acessados e analisados com segurança pelas aplicações e as pessoas. Os volumes de dados vêm de fontes novas e diversas e estão aumentando a uma taxa sem precedentes. As organizações precisam extrair valor dos dados, mas têm dificuldade em capturar, armazenar e analisar todos os dados gerados pelas empresas modernas de hoje.

Enfrentar esses desafios significa criar uma arquitetura de dados moderna que decompõe todos os seus silos de dados para análises e insights, incluindo dados de terceiros, e os coloca nas mãos de todos na organização, com governança de ponta a ponta. Também é cada vez mais importante conectar seus sistemas de análise e machine learning (ML) para permitir a análise preditiva. 

Este guia de decisão ajuda você a fazer as perguntas certas para criar sua arquitetura de dados moderna nos serviços da AWS. Ele explica como quebrar os silos de dados (conectando o data lake e o data warehouses), os silos do sistema (conectando ML e análises) e os silos de pessoal (disponibilizando os dados para todos em sua organização).

Esse trecho de seis minutos é de uma apresentação de uma hora de G2 Krishnamoorthy, vice-presidente de análise da AWS na re:Invent 2022. Ele oferece uma visão geral dos serviços de análise da AWS. A apresentação completa aborda o estado atual das análises na AWS, bem como as mais recentes inovações de serviços em relação aos dados, e destaca os sucessos dos clientes com a análise da AWS.

Hora de ler

20 minutos

Objetivo

Ajudar a determinar quais serviços de análise da AWS são os mais adequados para sua organização.

Nível

Iniciante

Data da última atualização

8 de agosto de 2023

Entender

Uma estratégia de dados moderna é viabilizada por um conjunto de componentes tecnológicos que ajudam você a gerenciar, acessar, analisar e agir com base nos dados. Ele também oferece várias opções para se conectar a fontes de dados. Uma estratégia de dados moderna deve capacitar suas equipes para:

  • Execute análises ou ML usando suas ferramentas ou técnicas preferidas
  • Gerencie quem tem acesso aos dados com os controles adequados de segurança e governança de dados
  • Elimine os silos de dados para oferecer a você o melhor dos data lakes e dos armazenamentos de dados com propósito específico
  • Armazene qualquer volume de dados a um custo baixo e em formatos abertos, baseados em padrões. A arquitetura de dados moderna da AWS conecta o lake, o warehouse e outros serviços criados especificamente em uma integridade coerente.

A implementação de uma estratégia de dados moderna na AWS se baseia nos cinco pilares a seguir:

Data lakes escaláveis

Para tomar decisões rapidamente, você precisará armazenar qualquer quantidade de dados em formatos abertos e ser capaz de quebrar silos de dados desconectados. Talvez você também precise capacitar as pessoas em sua organização para executar análises ou ML (usando suas ferramentas ou técnicas preferidas para fazer isso), bem como gerenciar quem pode acessar dados específicos com os controles adequados de segurança e governança de dados.

Uma arquitetura de dados moderna começa com o data lake. Um data lake permite que você armazene todos os seus dados (relacionais, não relacionais, estruturados e não estruturados) de forma econômica. Com a AWS, você pode mover qualquer volume de dados de vários silos para um data lake do Amazon S3. Em seguida, o Amazon S3 armazena os dados usando um formato aberto baseado em padrões.

Desenvolvido especificamente para desempenho e custo

Os pipelines de dados on-premises geralmente são adaptados às ferramentas que você está usando atualmente, proporcionando uma experiência abaixo do ideal. A AWS fornece um conjunto amplo e profundo de serviços de dados específicos, permitindo que você escolha a ferramenta certa para o trabalho certo, sem comprometer a funcionalidade, o desempenho, a escala ou o custo.

Sem servidor e fácil de usar

Para muitos tipos de necessidades de análise, a AWS fornece opções sem servidor projetadas para permitir que você se concentre nas aplicações, sem precisar tocar em nenhuma infraestrutura.

O processo de colocar dados brutos em um estado que possa ser usado para obter insights de negócios e executado pelo estágio de extração, transformação e carregamento (ETL) do pipeline de dados pode ser desafiador. A AWS está adotando uma abordagem ETL zero (que elimina a necessidade de processos de ETL tradicionais). Essa abordagem ajudará você a analisar os dados onde eles estiverem, sem a necessidade de usar ETL. Os atributos dos serviços da AWS que oferecem suporte a essa abordagem incluem:


  • Amazon Zero-ETL Aurora para Redshift
  • Ingestão de streaming do Amazon Redshift diretamente do Kinesis e do MSK para o Redshift
  • Consulta federada no Amazon Redshift e no Amazon Athena

Acesso a dados, segurança e governança unificados

Depois de ter um data lake centralizado e uma coleção de serviços de análise criados especificamente, você precisa ter a capacidade de acessar esses dados onde quer que estejam, protegê-los e ter políticas de governança para cumprir as regulamentações relevantes e as melhores práticas de segurança.

A governança começa com o AWS Lake Formation. Esse serviço permite que você acesse seus dados onde quer que estejam, seja em um banco de dados, no data warehouse, em um armazenamento de dados específico ou em um data lake, e depois mantenha seus dados seguros, não importa onde você os armazene.

Para a governança de dados, a AWS automaticamente descobre, marca, cataloga e mantém seus dados sincronizados, e você pode definir e gerenciar centralmente as políticas de segurança, a governança e a auditoria para atender às regulamentações específicas do seu setor e geografia.

Machine learning integrado

A AWS oferece integração de ML como parte de nossos serviços de análise específicos. Você pode criar, treinar e implantar modelos de ML usando comandos SQL familiares, sem nenhuma experiência anterior em ML.

Não é incomum usar tipos diferentes de armazenamentos de dados (relacionais, não relacionais, data warehouses e serviços de análise) para diferentes casos de uso. A AWS fornece uma variedade de integrações para oferecer opções para treinar modelos em seus dados ou adicionar resultados de inferência diretamente do seu armazenamento de dados, sem precisar exportar e processar os dados.

Considerar

Há muitos motivos para criar um pipeline de análise na AWS. Talvez você precise apoiar um projeto inovador ou piloto como a primeira etapa em sua jornada de migração para a nuvem. Como alternativa, você pode estar migrando uma workload existente com o mínimo de interrupção possível. Seja qual for seu objetivo, as considerações a seguir podem ser úteis para fazer sua escolha.

  • Analise as fontes de dados e os tipos de dados disponíveis para obter uma compreensão abrangente da diversidade, frequência e qualidade dos dados. Entenda todos os possíveis desafios no processamento e análise dos dados. Essa análise é crucial porque:

    • As fontes de dados são diversas e vêm de vários sistemas, aplicações, dispositivos e plataformas externas.
    • As fontes de dados têm a estrutura, o formato e a frequência exclusivos da atualizações de dados. A análise dessas fontes ajuda a identificar métodos e tecnologias de coleta de dados adequados.
    • A análise do tipos de dados, como dados estruturados, semiestruturados e não estruturados, determina as abordagens apropriadas de processamento e armazenamento de dados.
    • A análise das fontes e tipos de dados facilita a avaliação da qualidade dos dados e ajuda a prever possíveis problemas de qualidade dos dados, como valores ausentes, inconsistências ou imprecisões.
  • Determine os requisitos de processamento de dados sobre como os dados são ingeridos, transformados, limpos e preparados para análise. As principais considerações incluem:

    • Transformação de dados: determine as transformações específicas necessárias para tornar os dados brutos adequados para análise. Isso envolve tarefas como agregação, normalização, filtragem e enriquecimento de dados.
    • Limpeza de dados: avalie a qualidade dos dados e defina processos para lidar com dados ausentes, imprecisos ou inconsistentes. Implemente técnicas de limpeza dos dados para garantir dados de alta qualidade que produzem insights confiáveis.
    • Frequência do processamento: determine se o processamento em tempo real, quase em tempo real ou em lote é necessário com base nas necessidades analíticas. O processamento em tempo real permite insights imediatos, enquanto o processamento em lote pode ser suficiente para análises periódicas.
    • Escalabilidade e throughput: avalie os requisitos de escalabilidade para lidar com volumes de dados, velocidade de processamento e número de solicitações de dados simultâneas. Garanta que a abordagem de processamento escolhida possa acomodar o crescimento futuro.
    • Latência: considere a latência aceitável para o processamento de dados e o tempo que leva desde a ingestão de dados até os resultados da análise. Isso é importante principalmente para as análises em tempo real ou urgentes.
  • Determine as necessidades de armazenamento determinando como e onde os dados são armazenados em todo o pipeline de análise. Considerações importantes incluem:

    • Volume de dados: avalie a quantidade de dados gerados e coletados e estime o crescimento futuro dos dados para planejar a capacidade de armazenamento suficiente.
    • Retenção de dados: defina por quanto tempo os dados devem ser retidos para fins de análise histórica ou conformidade. Determine as políticas de retenção de dados apropriadas.
    • Padrões de acesso a dados: entenda como os dados serão acessados e consultados para escolher a solução de armazenamento mais adequada. Considere as operações de leitura e gravação, a frequência de acesso aos dados e a localidade dos dados.
    • Segurança de dados: priorize a segurança dos dados avaliando as opções de criptografia, controles de acesso e mecanismos de proteção de dados para proteger informações confidenciais.
    • Otimização de custos: otimize os custos de armazenamento selecionando as soluções de armazenamento mais econômicas com base nos padrões de acesso e uso dos dados.
    • Integração com serviços de análise: garanta uma integração perfeita entre a solução de armazenamento escolhida e as ferramentas de processamento e análise de dados no pipeline.
  • Ao decidir sobre os serviços de análise para a coleta e a ingestão de dados, considere vários tipos de dados que sejam relevantes para as necessidades e objetivos da sua organização. Os tipos comuns de dados que talvez você precise considerar incluem:

    • Dados transacionais: incluem informações sobre interações ou transações individuais, como compras de clientes, transações financeiras, pedidos on-line e logs de atividades do usuário.
    • Dados baseados em arquivos: referem-se a dados estruturados ou não estruturados que são armazenados em arquivos, como arquivos de log, planilhas, documentos, imagens, arquivos de áudio e arquivos de vídeo. Os serviços de análise devem oferecer suporte à ingestão de diferentes formatos de arquivo/
    • Dados de eventos: captura ocorrências ou incidentes significativos, como ações do usuário, eventos do sistema, eventos da máquina ou eventos comerciais. Os eventos podem incluir qualquer dado que esteja chegando em alta velocidade e que seja capturado para processamento contínuo ou posterior.
  • A responsabilidade operacional é compartilhada entre você e a AWS, com a divisão de responsabilidade variando em diferentes níveis de modernização. Você tem a opção de autogerenciar sua infraestrutura de análise na AWS ou aproveitar os vários serviços de análise sem servidor para reduzir a workload de infraestrutura.

    As opções autogerenciadas oferecem aos usuários maior controle sobre a infraestrutura e as configurações, mas exigem maior esforço operacional.

    As opções sem servidor eliminam grande parte da carga operacional, fornecendo escalabilidade automática, alta disponibilidade e atributos de segurança robustos, permitindo que os usuários se concentrem mais na criação de soluções analíticas e na geração de insights, em vez de gerenciar tarefas operacionais e de infraestrutura. Considere esses benefícios das soluções de análise sem servidor:

    • Abstração da infraestrutura: os serviços sem servidor abstraem o gerenciamento da infraestrutura, dispensando os usuários das tarefas de provisionamento, dimensionamento e manutenção. A AWS lida com esses aspectos operacionais, reduzindo a sobrecarga do gerenciamento.
    • Escalabilidade automática e desempenho: os serviços sem servidor escalam automaticamente os recursos com base nas demandas da workload, garantindo o desempenho ideal sem intervenção manual.
    • Alta disponibilidade e recuperação de desastres: a AWS fornece alta disponibilidade para serviços sem servidor. A AWS gerencia a redundância de dados, a replicação e a recuperação de desastres para melhorar a disponibilidade e a confiabilidade dos dados.
    • Segurança e conformidade: a AWS gerencia medidas de segurança, criptografia de dados e conformidade para serviços sem servidor, seguindo os padrões e as práticas recomendadas do setor.
    • Monitoramento e registro: a AWS oferece recursos integrados de monitoramento, registro em log e alerta para serviços sem servidor. Os usuários podem acessar métricas e logs detalhados por meio do AWS CloudWatch.
  • Ao criar um pipeline de análise moderno, decidir sobre os tipos de workload a serem suportadas é crucial para atender às diferentes necessidades analíticas de forma eficaz. Os principais pontos de decisão a serem considerados para cada tipo de workload incluem:

    Workload em lote

    • Volume e frequência de dados: o processamento em lote é adequado para grandes volumes de dados com atualizações periódicas.
    • Latência de dados: o processamento em lote pode causar algum atraso na entrega de insights em comparação com o processamento em tempo real.

    Análise interativa

    • Complexidade da consulta de dados: a análise interativa exige respostas de baixa latência para um feedback rápido.
    • Visualização de dados: avalie a necessidade de ferramentas interativas de visualização de dados para permitir que os usuários corporativos explorem os dados visualmente.

    Workloads de streaming

    • Velocidade e volume de dados: as workloads de streaming exigem processamento em tempo real para lidar com dados de alta velocidade.
    • Janela de dados: defina janelas de dados e agregações baseadas em tempo para streaming de dados a fim de extrair insights relevantes.
  • Defina claramente os objetivos de negócios e os insights que você pretende obter da análise. Diferentes tipos de análise servem a propósitos diferentes. Por exemplo:

    • A análise descritiva é ideal para obter uma visão geral histórica
    • A análise de diagnóstico ajuda a entender os motivos por trás de eventos passados
    • A análise preditiva prevê resultados futuros
    • A análise prescritiva fornece recomendações para ações ideais

    Combine suas metas de negócios com os tipos relevantes de análise. Aqui estão alguns dos principais critérios de decisão para ajudar você a escolher os tipos certos de análise:

    • Disponibilidade e qualidade dos dados: a análise descritiva e diagnóstica depende de dados históricos, enquanto as análises preditiva e prescritiva exigem dados históricos suficientes e dados de alta qualidade para criar modelos precisos.
    • Volume e complexidade dos dados: as análises preditiva e prescritiva exigem recursos computacionais e de processamento de dados substanciais. Garanta que sua infraestrutura e ferramentas possam lidar com o volume e a complexidade dos dados.
    • Complexidade da decisão: se as decisões envolverem várias variáveis, restrições e objetivos, a análise prescritiva pode ser mais adequada para orientar as ações ideais.
    • Tolerância a riscos: a análise prescritiva pode fornecer recomendações, mas vem com incertezas associadas. Garanta que os responsáveis pela decisão entendam os riscos associados aos resultados da análise.
  • Avalie as necessidades de escalabilidade e desempenho da arquitetura. O design deve lidar com volumes crescentes de dados, demandas de usuários e workloads analíticas. Os principais fatores de decisão a serem considerados incluem:

    • Volume e crescimento de dados: avalie o volume de dados atual e antecipe o crescimento futuro. 
    • Velocidade de dados e requisitos em tempo real: determine se os dados precisam ser processados e analisados em tempo real ou quase em tempo real.
    • Complexidade do processamento de dados: analise a complexidade de suas tarefas de processamento e análise de dados. Para tarefas computacionalmente intensivas, serviços como o Amazon EMR fornecem um ambiente escalável e gerenciado para processamento de big data.
    • Simultaneidade e carga do usuário: considere o número de usuários simultâneos e o nível de carga do usuário no sistema. 
    • Recursos de escalabilidade automática: considere serviços que ofereçam recursos de escalabilidade automática, permitindo que os recursos aumentem ou diminuam automaticamente com base na demanda. Isso garante a utilização eficiente dos recursos e a otimização dos custos.
    • Distribuição geográfica: considere serviços com replicação global e acesso a dados de baixa latência se sua arquitetura de dados precisar ser distribuída em várias regiões ou locais.
    • Compromisso entre custo e desempenho: equilibre as necessidades de desempenho com as considerações de custo. Serviços com alto desempenho podem ter um custo maior.
    • Acordos de serviço (SLAs): verifique os SLAs fornecidos pelos serviços da AWS para garantir que eles atendam às suas expectativas de escalabilidade e desempenho.
  • A governança de dados é o conjunto de processos, políticas e controles que você precisa implementar para garantir o gerenciamento, a qualidade, a segurança e a conformidade eficazes de seus ativos de dados. Os principais pontos de decisão a serem considerados incluem:

    • Políticas de retenção de dados: defina as políticas de retenção de dados com base nos requisitos normativos e nas necessidades comerciais e estabeleça processos para o descarte seguro de dados quando não forem mais necessários.
    • Trilha de auditoria e registro: decida sobre os mecanismos de registro em log e auditoria para monitorar o acesso e o uso dos dados. Implemente trilhas de auditoria abrangentes para rastrear alterações de dados, tentativas de acesso e atividades do usuário para monitoramento de conformidade e segurança.
    • Requisitos de conformidade: entenda os regulamentos de conformidade de dados geográficos e específicos do setor que se aplicam à sua organização. Garanta que a arquitetura de dados esteja alinhada com esses regulamentos e diretrizes.
    • Classificação de dados: classifique os dados com base em sua sensibilidade e defina os controles de segurança apropriados para cada classe de dados. 
    • Recuperação de desastres e continuidade dos negócios: planeje a recuperação de desastres e a continuidade dos negócios para garantir a disponibilidade e a resiliência dos dados em caso de eventos inesperados ou falhas no sistema.
    • Compartilhamento de dados de terceiros: se estiver compartilhando dados com entidades terceirizadas, implemente protocolos e acordos seguros de compartilhamento de dados para proteger a confidencialidade dos dados e evitar o uso indevido de dados.
  • A segurança dos dados no pipeline de análise envolve a proteção dos dados em todas as etapas do pipeline para garantir sua confidencialidade, integridade e disponibilidade. Os principais pontos de decisão a serem considerados incluem:

    • Controle de acesso e autorização: implemente protocolos robustos de autenticação e autorização para garantir que somente usuários autorizados possam acessar os recursos de dados específicos.
    • Criptografia de dados: escolha métodos de criptografia apropriados para dados armazenados em bancos de dados, data lakes e durante a movimentação de dados entre diferentes componentes da arquitetura.
    • Mascaramento e anonimização de dados: considere a necessidade de mascaramento ou anonimização de dados para proteger dados confidenciais, como PII ou dados comerciais confidenciais, permitindo que certos processos analíticos continuem.
    • Integração segura de dados: estabeleça práticas seguras de integração de dados para garantir que os dados fluam com segurança entre os diferentes componentes da arquitetura, evitando vazamentos de dados ou acesso não autorizado durante a movimentação de dados.
    • Isolamento da rede: considere serviços que ofereçam suporte aos endpoints da VPC da AWS para evitar a exposição de recursos à Internet pública.
  • Defina os pontos de integração e os fluxos de dados entre os vários componentes do pipeline de análise para garantir um fluxo de dados e interoperabilidade contínuos. Os principais pontos de decisão a serem considerados incluem:

    • Integração de fontes de dados: identifique as fontes de dados das quais os dados serão coletados, como bancos de dados, aplicações, arquivos ou APIs externas. Escolha os métodos de ingestão de dados (em lote, em tempo real, com base em eventos) para levar os dados para o pipeline de forma eficiente e com latência mínima.
    • Transformação de dados: determine as transformações necessárias para preparar os dados para análise. Escolha as ferramentas e os processos para limpar, agregar, normalizar ou enriquecer os dados à medida que eles se movem pelo pipeline.
    • Arquitetura da movimentação de dados: escolha a arquitetura apropriada para a movimentação de dados entre os componentes do pipeline. Considere o processamento em lote, o processamento em fluxo ou uma combinação de ambos com base nos requisitos em tempo real e no volume de dados.
    • Replicação e sincronização de dados: escolha os mecanismos de replicação e sincronização de dados para manter os dados atualizados em todos os componentes. Considere soluções de replicação em tempo real ou sincronizações periódicas de dados, dependendo dos requisitos de atualização dos dados.
    • Qualidade e validação de dados: implemente verificações de qualidade de dados e etapas de validação para garantir a integridade dos dados à medida que eles se movem pelo pipeline. Decida as ações a serem tomadas quando os dados falharem na validação, como alertas ou tratamento de erros.
    • Segurança e criptografia de dados: determine como os dados serão protegidos durante o trânsito e em repouso. Decida sobre os métodos de criptografia para proteger dados confidenciais em todo o pipeline, considerando o nível de segurança necessário com base no sigilo dos dados.
    • Escalabilidade e resiliência: garanta que o design do fluxo de dados permita escalabilidade horizontal e possa lidar com maiores volumes de dados e tráfego.
  • Criar seu pipeline de análise na AWS oferece várias oportunidades de otimização de custos. Para garantir a eficiência de custos, considere as seguintes estratégias:

    • Dimensionamento e seleção de recursos: dimensione corretamente seus recursos com base nos requisitos reais da workload. Escolha serviços e tipos de instância da AWS que atendam às necessidades de desempenho das workloads, evitando o provisionamento excessivo.
    • Escalabilidade automática: implemente a escalabilidade automática para serviços que experimentam workloads variadas. A escalabilidade automática ajusta dinamicamente o número de instâncias com base na demanda, reduzindo os custos durante os períodos de baixo tráfego.
    • Instâncias spot: utilize instâncias spot do AWS EC2 para workloads não críticas e tolerantes a falhas. As instâncias spot podem reduzir significativamente os custos em comparação com as instâncias sob demanda.
    • Instâncias reservadas: considere comprar instâncias reservadas da AWS para obter economias significativas em relação aos preços sob demanda para workloads estáveis com uso previsível.
    • Classificação por níveis de armazenamento de dados: otimize os custos de armazenamento de dados usando diferentes classes de armazenamento com base na frequência de acesso aos dados.
    • Políticas de ciclo de vida de dados: configure políticas de ciclo de vida de dados para mover ou excluir dados automaticamente com base na idade e nos padrões de uso dos dados. Isso ajuda a gerenciar os custos de armazenamento e mantém o armazenamento de dados alinhado com seu valor.

Escolher

Agora que você conhece os critérios para avaliar suas necessidades de análise, está tudo pronto para escolher quais serviços de análise da AWS são adequados às suas necessidades organizacionais. A tabela a seguir categoriza conjuntos de serviços alinhados ao que você precisará realizar para atingir suas metas de negócios, como conduzir análises avançadas, realizar gerenciamento de dados ou análises preditivas e ML.

Áreas de metas
Fechar

Análise avançada

A AWS fornece um conjunto amplo e econômico de serviços de análise para ajudar você a obter insights mais rapidamente a partir de seus dados.

Casos de uso
Serviços de análise relacionados

Análise interativa
O processo de realizar análise e exploração de dados em tempo real, permitindo que os usuários consultem e visualizem dados de forma interativa para obter insights e tomar decisões baseadas em dados rapidamente.

Fechar

Amazon Athena

O Amazon Athena é um serviço de análise interativo e sem servidor criado em estruturas de código aberto, com suporte a formatos de tabela e arquivos abertos. O Athena fornece uma maneira simplificada e flexível de analisar petabytes de dados onde eles residem. Analise os dados ou crie aplicações a partir de um data lake do Amazon S3 e mais de 30 fontes de dados, incluindo fontes de dados on-premises ou outros sistemas em nuvem que usem o SQL ou Python. O Athena foi criado em mecanismos Trino e Presto de código aberto e estruturas Apache Spark, sem necessidade de provisionamento ou configuração.

Processamento de big data
O big data é caracterizado por suas três dimensões: volume, velocidade e variedade. As soluções de processamento de big data visam superar os desafios impostos pela grande escala e complexidade do big data.

Fechar

Amazon EMR

O Amazon EMR é a solução de big data em nuvem líder do setor para processamento de dados em escala de petabytes, análise interativa e machine learning que usa estruturas de código aberto como Apache Spark, Apache Hive e Presto.

Data warehouse
Armazenamento, organização e recuperação centralizados de grandes volumes de dados estruturados e às vezes semiestruturados de várias fontes dentro de uma organização.

Fechar

Amazon Redshift

O Amazon Redshift usa SQL para analisar dados estruturados e semiestruturados em data warehouses, bancos de dados operacionais e data lakes, usando hardware e machine learning criados pela AWS para oferecer o melhor custo-benefício em qualquer escala.

Análise em tempo real
O processo de analisar e processar dados à medida que são gerados, recebidos ou ingeridos, sem atrasos significativos.

Fechar

Amazon Kinesis Data Analytics

Com o Amazon Kinesis Data Analytics, você pode transformar e analisar dados de streaming com mais facilidade em tempo real usando o Apache Flink.

Análises operacionais
O uso de análises de dados e insights em tempo real para otimizar e melhorar os processos e atividades operacionais contínuos dentro de uma organização.

Fechar

AWS OpenSearch Service

O OpenSearch é um conjunto distribuído de pesquisa e análise 100% em código aberto, orientado para a comunidade e licenciado para o Apache 2.0 usado para atender a uma ampla variedade de casos de uso, como monitoramento de aplicações em tempo real, análise de logs e pesquisa de sites. O OpenSearch fornece um sistema altamente escalável para fornecer acesso rápido e resposta a grandes volumes de dados com uma ferramenta de visualização integrada, o OpenSearch Dashboards, que facilita a exploração de dados pelos usuários

Painéis e visualizações
Painéis e visualizações fornecem uma representação visual de conjuntos de dados complexos, facilitando aos usuários a compreensão rápida de padrões, tendências e insights. Eles simplificam a compreensão dos dados, mesmo para usuários não técnicos, apresentando informações de forma visualmente atraente e intuitiva.

Fechar

Amazon QuickSight

O Amazon QuickSight capacita organizações orientadas por dados com business intelligence (BI) unificada em hiperescala. Com o QuickSight, todos os usuários podem atender às diversas necessidades analíticas a partir da mesma fonte de verdade por meio de painéis interativos modernos, relatórios paginados, análises incorporadas e consultas em linguagem natural.

Preparação visual de dados
Usar ferramentas e interfaces visuais para explorar, limpar, transformar e manipular dados de maneira visual e intuitiva.

Fechar

AWS Glue DataBrew

O AWS Glue DataBrew é uma ferramenta visual de preparação de dados que facilita para os analistas e cientistas de dados limpar e normalizar dados com o objetivo de prepará-los para análises e machine learning. Você pode escolher entre mais de 250 transformações pré-criadas para automatizar tarefas de preparação de dados sem precisar escrever código. 

Fechar

Gerenciamento de dados

Esses serviços facilitam a combinação, a movimentação e a replicação de dados entre vários datastores e o data lake.

Casos de uso
Serviços de análise relacionados

Movimentação de dados em tempo real
A movimentação de dados em tempo real envolve um atraso mínimo na transferência de dados, normalmente em segundos ou milissegundos após a disponibilização.

Fechar

Amazon MSK

O Amazon Managed Streaming for Apache Kafka (Amazon MSK) é um serviço totalmente gerenciado que permite a criação e execução de aplicações que usam o Apache Kafka para processar dados de streaming. O Amazon MSK fornece as operações do plano de controle, como aquelas para criar, atualizar e excluir clusters.

Fechar

Amazon Kinesis Data Streams

O Amazon Kinesis Data Streams é um serviço sem servidor que torna fácil a captura, o processamento e o armazenamento de transmissões de dados em qualquer escala.

Fechar

Amazon Kinesis Data Firehose

O Amazon Kinesis Data Firehose é um serviço de extração, transformação e carregamento (ETL) que captura, transforma e entrega de forma confiável os dados de streaming em data lakes, armazenamento de dados e serviços analíticos.

Fechar

Amazon Kinesis Video Streams

O Amazon Kinesis Video Streams facilita o streaming seguro de vídeos de dispositivos conectados para a AWS, podendo ser usados para análises, ML, reprodução e outros processamentos. O Kinesis Video Streams provisiona automaticamente e escala de maneira elástica toda a infraestrutura necessária para consumir dados de streaming de vídeo de milhões de dispositivos. O serviço oferece armazenamento resiliente, criptografa e indexa dados de vídeo de streams e permite acessar os dados por meio de APIs fáceis de usar.

Fechar

AWS Glue

O AWS Glue é um serviço de integração de dados sem servidor que facilita a descoberta, a preparação, a movimentação e a integração de dados de várias fontes para análise, machine learning (ML) e desenvolvimento de aplicações.

Governança de dados
Um conjunto de processos, políticas e diretrizes que garantem o gerenciamento, a disponibilidade, a usabilidade, a integridade e a segurança adequados dos dados em todo o ciclo de vida.

Fechar

Amazon DataZone

Use o Amazon DataZone para compartilhar, pesquisar e descobrir dados em escala entre limites organizacionais. Colabore em projetos de dados por meio de um portal de análise de dados unificado que oferece uma visão personalizada de todos os seus dados enquanto aplica suas políticas de governança e conformidade.

Fechar

AWS Lake Formation

O AWS Lake Formation é um serviço totalmente gerenciado que facilita a criação, a proteção e o gerenciamento de data lakes. O Lake Formation simplifica e automatiza várias etapas manuais complexas que geralmente são necessárias para criar data lakes. Essas etapas incluem coletar, limpar, mover e catalogar dados e disponibilizá-los com segurança para análise e machine learning.

Armazenamento de objetos para data lakes
Um data lake criado na AWS usa o Amazon S3 como sua principal plataforma de armazenamento. O Amazon S3 fornece uma base ideal para um data lake devido à sua escalabilidade virtualmente ilimitada e alta durabilidade. 

Fechar

Amazon S3

O Amazon Simple Storage Service (Amazon S3) é um serviço de armazenamento de objetos que oferece escalabilidade, disponibilidade de dados, segurança e desempenho. O Amazon S3 fornece atributos de gerenciamento para otimizar, organizar e configurar o acesso a dados e atender a requisitos comerciais, organizacionais e de conformidade específicos.

Fechar

AWS Lake Formation

O AWS Lake Formation é um serviço totalmente gerenciado que facilita a criação, a proteção e o gerenciamento de data lakes. O Lake Formation simplifica e automatiza várias etapas manuais complexas que geralmente são necessárias para criar data lakes. Essas etapas incluem coletar, limpar, mover e catalogar dados e disponibilizá-los com segurança para análise e machine learning.

Backup e arquivamento para data lakes
Os data lakes, impulsionados pelo Amazon S3, fornecem às organizações a disponibilidade, a agilidade e a flexibilidade necessárias para que as abordagens de análise modernas obtenham insights mais profundos. Proteger informações confidenciais ou essenciais para os negócios armazenadas nesses buckets do S3 é uma alta prioridade para as organizações.

Fechar

Amazon S3 Glacier

As classes de armazenamento do Amazon S3 Glacier são desenvolvidas especificamente para o arquivamento de dados, a fim de oferecer a você o mais alto desempenho, a maior flexibilidade de recuperação e o armazenamento de arquivamento de menor custo na nuvem. Todas as classes de armazenamento S3 Glacier fornecem escalabilidade virtualmente ilimitada e são projetadas para 99,999999999% (11 noves) de durabilidade de dados. 

Fechar

AWS Backup

O AWS Backup é um serviço econômico, totalmente gerenciado e baseado em políticas que simplifica a proteção de dados em escala.

Catálogo de dados
Uma ferramenta de gerenciamento de metadados que fornece informações detalhadas sobre os dados disponíveis, sua estrutura, características e relacionamentos.

Fechar

Amazon Glue

O AWS Glue é um serviço de integração de dados sem servidor que facilita a descoberta, preparação, movimentação e integração de dados de várias fontes para análise, machine learning (ML) e desenvolvimento de aplicações.

Dados de terceiros
Dados de terceiros e dados de software como serviço (SaaS) estão se tornando cada vez mais importantes para as operações comerciais no cenário moderno baseado em dados.

Fechar

AWS Data Exchange

O AWS Data Exchange é um serviço que facilita para os clientes da AWS localizar, assinar e usar os dados de terceiros na Nuvem AWS.

Fechar

Amazon AppFlow

Automatize fluxos de dados bidirecionais entre aplicações SaaS e serviços da AWS com o Amazon AppFlow em apenas alguns cliques. Execute fluxos de dados na frequência que você escolher, seja em um agendamento, em resposta a um evento de negócios ou sob demanda. 

Fechar

Análises preditivas e machine learning

Para casos de uso de análise preditiva, a AWS fornece um amplo conjunto de serviços de machine learning e ferramentas executadas em seu data lake na AWS.

Casos de uso
Serviços de análise relacionados

Estruturas e interfaces
A infraestrutura de ML da AWS oferece suporte a todas as principais estruturas de ML. 

Fechar

AMIs do AWS Deep Learning

As AMIs de aprendizado profundo da AWS (DLAMI) fornecem aos profissionais e pesquisadores de ML um conjunto seguro e com a seleção de estruturas, dependências e ferramentas para acelerar o aprendizado profundo na nuvem. Criadas para Amazon Linux e Ubuntu, as imagens de máquina da Amazon (AMIs) vêm pré-configuradas com TensorFlow, PyTorch, Apache MXNet, Chainer, Microsoft Cognitive Toolkit (CNTK), Gluon, Horovod e Keras, permitindo que você implante e execute rapidamente essas estruturas e ferramentas em escala.

Serviços de plataforma
Infraestrutura totalmente gerenciada para criar, treinar e implantar modelos de machine learning. 

Fechar

Amazon SageMaker

Crie, treine e implante modelos de machine learning (ML) para qualquer caso de uso com infraestrutura, ferramentas e fluxos de trabalho totalmente gerenciados.

Integrações diretas de dados
Crie, treine e implante modelos de ML usando comandos SQL conhecidos.

Fechar

Amazon Athena ML

O Athena ML permite criar e implantar modelos de ML no Amazon SageMaker e usa funções SQL no Amazon Athena para gerar previsões a partir dos modelos do SageMaker. 

Isso permite que as equipes de análise de dados disponibilizem insights baseados em modelos para usuários e analistas comerciais sem a necessidade de infraestrutura e ferramentas especializadas.

Fechar

Amazon QuickSight ML

O QuickSight ML Insights aproveita os recursos comprovados de ML e linguagem natural da AWS para ajudar você a obter insights mais profundos sobre seus dados. Esses atributos poderosos e prontos para uso facilitam para todos descobrir tendências e exceções ocultas, identificar os principais impulsionadores de negócios e realizar análises e previsões hipotéticas poderosas sem a necessidade de conhecimento técnico ou experiência em ML.

Fechar

Amazon Redshift ML

Com o Amazon Redshift ML, analistas de dados e desenvolvedores de banco de dados podem criar, treinar e aplicar modelos de machine learning com mais facilidade, usando comandos SQL conhecidos em data warehouses do Amazon Redshift. Com o Redshift ML, você pode aproveitar o Amazon SageMaker, um serviço de machine learning totalmente gerenciado, sem precisar aprender novas ferramentas ou linguagens. Basta usar as instruções SQL para criar e treinar modelos de ML do Amazon SageMaker usando seus dados do Redshift e, em seguida, usar esses modelos para fazer previsões.

Usar

Agora você deve ter uma compreensão clara dos seus objetivos de negócios e do volume e da velocidade dos dados que você ingerirá e analisará para começar a criar os pipelines de dados.

Para explorar como usar e saber mais sobre cada um dos serviços disponíveis, fornecemos um roteiro para explorar como cada um deles funciona. As seções a seguir fornecem links para documentação detalhada, tutoriais práticos e recursos para você começar do uso básico aos aprofundamentos mais avançados.

Análise avançada

  • Análise interativa
  • Amazon Athena

    Conceitos básicos do Amazon Athena

    Aprenda a usar o Amazon Athena para consultar dados e criar uma tabela com base em dados de amostra armazenados no Amazon S3, consultar a tabela e verificar os resultados da consulta.

    Comece o tutorial »

    Amazon Athena

    Comece a usar o Apache Spark no Amazon Athena

    Use a experiência simplificada de notebooks no console Amazon Athena para desenvolver aplicações Apache Spark usando APIs de cadernos Python ou Athena.

    Comece o tutorial »

    Amazon Athena

    AWS re:Invent 2022 - Novidades do Amazon Athena

    Saiba como você pode levar o Athena para seus dados, aplicando-o a todos os dados, incluindo data lakes, fontes externas e muito mais.


    Assista à sessão »

    Amazon Athena

    Análise de dados no S3 usando o Amazon Athena
     
    Explore como usar o Athena em logs do Elastic Load Balancers, gerados como arquivos de texto em um formato predefinido. Mostramos a você como criar uma tabela, particionar os dados em um formato usado pelo Athena, convertê-los em Parquet e comparar o desempenho das consultas.

    Leia a publicação no blog »

  • Processamento de big data
  • Amazon EMR

    Conceitos básicos do AWS EMR

    Saiba como iniciar um cluster de amostra usando o Spark e como executar um script PySpark simples armazenado em um bucket do Amazon S3.
     


    Comece o tutorial »


    Amazon EMR

    Conceitos básicos do Amazon EMR no EKS
     

    Mostramos como começar a usar o Amazon EMR no EKS implantando uma aplicação Spark em um cluster virtual.

    Comece o tutorial »

    Amazon EMR

    Comece a usar o EMR Sem Servidor
     

    Explore como o EMR Sem Servidor fornece um ambiente de runtime sem servidor que simplifica a operação de aplicações de análise que usam as estruturas de código aberto mais recentes.

    Comece o tutorial »

    Amazon EMR

    Novidades do Amazon EMR

    Saiba mais sobre os desenvolvimentos mais recentes do Amazon EMR, incluindo Amazon EMR Sem Servidor, Amazon EMR Studio e outros.

    Assista à sessão »

  • Data warehouse
  • Amazon Redshift

    Conceitos básicos do Amazon Redshift

    Entenda o fluxo básico do Amazon Redshift sem servidor para criar recursos sem servidor, conectar-se ao Amazon Redshift sem servidor, carregar dados de amostra e, em seguida, executar consultas nos dados.

    Explore o guia »

    Amazon Redshift

    Modernize seu data warehouse


    Explore como você pode usar os novos recursos do Amazon Redshift para modernizar o data warehouse, obtendo acesso a todos os seus dados.



    Assista ao vídeo »

    Amazon Redshift

    Implante um data warehouse na AWS


    Saiba como criar e configurar um data warehouse do Amazon Redshift, carregar dados de amostra e analisar esses dados usando um cliente de SQL.


    Comece o tutorial »

    Amazon Redshift

    Workshop de estudo aprofundado do Amazon Redshift

    Explore uma série de exercícios que ajudam os usuários a começar a usar a plataforma Redshift.

    Comece o workshop »

  • Análise em tempo real
  • Amazon Kinesis Data Analytics

    Conceitos básicos do Amazon Kinesis Data Analytics para Apache Flink
     

    Entenda os conceitos fundamentais do Kinesis Data Analytics para o Apache Flink e a API DataStream.

    Explore o guia »

    Amazon Kinesis Data Analytics

    Workshop de análise de streaming
     


    Neste workshop, você criará uma arquitetura de streaming completa para consumir, analisar e visualizar dados de streaming quase em tempo real.

    Comece o workshop »

    Amazon Kinesis Data Analytics

    Introdução ao Amazon Kinesis Data Analytics para aplicações Java
     

    Explore como usar aplicações do Apache Flink no Amazon Kinesis Data Analytics para obter insights pontuais dos seus dados.

    Assista à sessão (é necessário fazer login) »

    Amazon Kinesis Data Analytics

    Laboratório Clickstream

    Laboratório completo para um caso de uso de sequência de cliques usando o Amazon MSK para armazenamento de streams e o Amazon KDA para aplicações Java com o mecanismo Apache Flink para processamento de streams.

    Comece o laboratório »

  • Análises operacionais
  • Amazon OpenSearch Service

    Conceitos básicos do Amazon OpenSearch Service


    Saiba como usar o Amazon OpenSearch Service para criar e configurar um domínio de teste.

     





    Comece o tutorial »

    Amazon OpenSearch Service

    Visualizar chamadas de suporte ao cliente com o OpenSearch Service e com os Painéis do OpenSearch

    Descubra um passo a passo completo da seguinte situação: uma empresa recebe várias chamadas de suporte ao cliente e deseja analisá-las. Qual é o assunto de cada chamada? Quantos foram positivos? Quantos foram negativos? Como os gerentes podem pesquisar ou revisar as transcrições dessas chamadas?

    Comece o tutorial »

    Amazon OpenSearch Service

    Comece o workshop do Amazon OpenSearch Sem Servidor

    Saiba como configurar um novo domínio do Amazon OpenSearch Sem Servidor no console da AWS. Explore os diferentes tipos de consultas de pesquisa disponíveis, crie visualizações atraentes e saiba como você pode proteger seu domínio e documentos com base nos privilégios de usuário atribuídos.


    Comece o workshop »

    Amazon OpenSearch Service

    Criar uma solução de análise de log com o Amazon OpenSearch Service

    Saiba como dimensionar um cluster do OpenSearch para uma workload de análise de logs. 


    Leia a publicação no blog »

  • Painéis e visualizações
  • Amazon QuickSight

    Conceitos básicos da análise de dados do Amazon QuickSight

    Saiba como criar sua primeira análise. Use dados de amostra para criar uma análise simples ou mais avançada. Ou você pode se conectar aos seus próprios dados para criar uma análise.


    Explore o guia »

    Amazon QuickSight

    Visualizar com o QuickSight


    Descubra o lado técnico da business intelligence (BI) e da visualização de dados com a AWS. Saiba como incorporar painéis em aplicações e sites e gerenciar com segurança o acesso e as permissões.

    Comece o curso »

    Amazon QuickSight

    Workshops do QuickSight


    Comece sua jornada no QuickSight com workshops.

     



    Comece os workshops »

  • Preparação visual de dados
  • AWS Glue DataBrew

    Conceitos básicos do AWS Glue DataBrew

    Saiba como criar seu primeiro projeto DataBrew. Você carrega um conjunto de dados de amostra, executa transformações nesse conjunto de dados, cria uma fórmula para capturar essas transformações e executa um trabalho para gravar os dados transformados no Amazon S3.

    Comece o tutorial »

    AWS Glue DataBrew

    Transforme dados com o AWS Glue DataBrew

    Saiba como o AWS Glue DataBrew, uma ferramenta visual de preparação de dados que facilita para analistas e cientistas de dados limpar e normalizar dados com o objetivo de prepará-los para análises e machine learning. Aprenda a estruturar um processo de ETL usando o AWS Glue DataBrew.

    Comece o laboratório »

    AWS Glue DataBrew

    Dia de imersão no AWS Glue DataBrew

    Explore como usar o AWS Glue DataBrew para limpar e normalizar os dados para análise e machine learning. 





    Comece o workshop »

Gerenciamento de dados

  • Movimentação de dados em tempo real
  • Amazon Kinesis Data Streams

    Conceitos básicos da ingestão de streaming do Amazon Kinesis Data Streams

    Explore como transmitir dados diretamente do Kinesis Data Streams para o Amazon Redshift, reduzindo o tempo necessário para acessar os dados e o custo de armazenamento.

    Explore o guia »

    Amazon MSK

    Conceitos básicos da ingestão de streaming do Amazon Managed Streaming para Apache Kafka

    Saiba como transmitir dados diretamente do Amazon MSK para o Amazon Redshift, reduzindo o tempo necessário para acessar os dados e reduzindo o custo do armazenamento.

    Explore o guia »

    Amazon Redshift

    Comece a integração ETL zero do Amazon Aurora, com o Amazon Redshift

    Saiba como começar a análise operacional quase em tempo real com a integração ETL zero do Amazon Aurora, com o Amazon Redshift.

    Leia a publicação no blog »

    AWS Glue

    Workshop de imersão no AWS Glue com duração de um dia
     
    Trabalhe em vários laboratórios práticos para mostrar como resolver problemas do mundo real usando o AWS Glue e os serviços associados da AWS.


    Comece o workshop »

    Amazon Kinesis Firehose

    Dia de imersão no Amazon Kinesis Data Firehose

    Saiba como você pode ingerir facilmente dados de streaming no Amazon OpenSearch e no Amazon Redshift com poucas etapas de configuração.


    Comece o workshop »

    Amazon Kinesis Video Streams

    Workshop Amazon Kinesis Video Streams

    Saiba como ingerir e armazenar vídeo de dispositivos de câmera, reproduzir ao vivo e sob demanda e baixar arquivos de vídeo usando o Amazon Kinesis Video Streams.

    Comece o workshop »

  • Governança de dados
  • AWS Lake Formation

    Centralize a governança do seu data lake usando o AWS Lake Formation

    Explore como você pode usar o AWS Lake Formation para centralizar a governança de dados e o gerenciamento de acesso aos dados, usando o Amazon Redshift Spectrum para consultar seu data lake.  

    Leia a publicação no blog »

     

    Amazon EMR

    Conceitos básicos do Amazon DataZone
     


    Saiba como criar o domínio raiz do Amazon DataZone, obter o URL do portal de dados e percorrer os fluxos de trabalho básicos do Amazon DataZone para produtores e consumidores de dados.

    Explore o guia »

    Amazon EMR

    Comece a usar o EMR Sem Servidor
     



    Explore como o EMR Sem Servidor fornece um ambiente de runtime sem servidor que simplifica a operação de aplicações de análise que usam as estruturas de código aberto mais recentes.

    Explore o guia »

  • Armazenamento de objetos para data lakes
  • AWS Lake Formation

    Conceitos básicos do AWS Lake Formation

    Aprenda a configurar o Lake Formation pela primeira vez para gerenciar os objetos e locais de dados existentes do Catálogo de Dados do AWS Glue no Amazon S3.

    Explore o guia »

    AWS Lake Formation

    Workshop sobre o AWS Lake Formation


    Explore como usar o AWS Lake Formation para criar, proteger e gerenciar o data lake na AWS.



    Comece o workshop »

    Amazon S3

    Armazenamento central - Amazon S3 como plataforma de armazenamento de data lake

    Descubra como o Amazon S3 é a base ideal para um data lake devido à sua escalabilidade praticamente ilimitada e alta durabilidade.


    Leia o whitepaper »

  • Catálogo de dados
  • Catálogo de Dados do AWS Glue

    Catálogo de dados e crawlers no AWS Glue

    Descubra como você pode usar as informações do Catálogo de Dados para criar e monitorar suas tarefas de ETL.


    Explore o guia »

    Catálogo de Dados do AWS Glue

    Conceitos básicos do Catálogo de Dados do AWS Glue

    Saiba como criar seu primeiro catálogo de dados do AWS Glue, que usa um bucket do Amazon S3 como fonte de dados.

    Comece o tutorial »

  • Dados de terceiros
  • AWS Data Exchange

    Comece como assinante do AWS Data Exchange

    Entenda o processo completo de se tornar um assinante dos produtos de dados no AWS Data Exchange usando o console do AWS Data Exchange.

    Explore o guia »

    AWS Data Exchange

    Comece a trabalhar como provedor do AWS Data Exchange

    Entenda o processo completo de se tornar um fornecedor de produtos de dados no AWS Data Exchange usando o console do AWS Data Exchange.

    Explore o guia »

    Amazon AppFlow icon

    Conceitos básicos do Amazon AppFlow

    Saiba mais sobre o Amazon AppFlow e descubra os pré-requisitos para começar.



    Explore o guia »

    AWS Data Exchange

    Workshop sobre o AWS Data Exchange

    Explore os laboratórios de autoatendimento que você pode usar para entender e aprender como os serviços da AWS podem ser usados em conjunto com dados de terceiros para adicionar insights aos seus projetos de análise de dados.  

    Comece o workshop »

    Amazon AppFlow icon

    Workshop do Amazon AppFlow

    Saiba mais sobre o Amazon AppFlow e como transferir dados com facilidade entre serviços SaaS populares e a AWS.



    Comece o workshop »

Análises preditivas e ML

  • Estruturas e interfaces
  • AMIs do Amazon Deep Learning

    Conceitos básicos das AMIs do AWS Deep Learning

    Explore dicas sobre como escolher a DLAMI certa para você, selecionando um tipo de instância adequado ao seu caso de uso e orçamento, além de informações adicionais que descrevem as configurações personalizadas.
    Explore o guia »

    AMIs do Amazon Deep Learning

    Tutoriais de AMIs de aprendizado profundo


    Conjunto de tutoriais para mostrar como usar a AMI de aprendizado profundo com o software da Conda.



    Comece os tutoriais »

    AMIs do Amazon Deep Learning

    Comece a usar o aprendizado profundo com a AMI do AWS Deep Learning

    Saiba mais sobre as AMIs (Amazon Machine Images) do AWS Deep Learning que permitem criar ambientes e fluxos de trabalho personalizados.


    Leia a publicação no blog »

  • Serviços de plataforma
  • Amazon SageMaker

    Como o Amazon SageMaker funciona


    Explore a visão geral do machine learning e de como o Amazon SageMaker funciona. 



    Explore o guia »

    Amazon SageMaker

    Conceitos básicos do Amazon SageMaker

    Mostramos como começar a usar o Amazon EMR no EKS implantando uma aplicação Spark em um cluster virtual.

    Explore o guia »

    Amazon SageMaker

    Gere previsões de machine learning sem programação de código
     

    Saiba como usar o Amazon SageMaker Canvas para criar modelos de ML e gerar previsões precisas sem a necessidade de programar uma única linha de código.

    Comece o tutorial »

  • Integrações diretas de dados
  • AWS Athena ML

    Usar machine learning com o Amazon Athena

    Explore como o ML com o Amazon Athena permite que você use o Athena para escrever instruções SQL que executam inferência de machine learning (ML) usando o Amazon SageMaker.



    Explore o guia »

    AWS QuickSight ML

    Obter insights com machine learning no Amazon QuickSight

    Saiba como os recursos de ML e linguagem natural com o Amazon QuickSight Enterprise Edition levam você além da análise descritiva e diagnóstica e o levam para a previsão e a tomada de decisões.

    Explore o guia »

    AWS Redshift ML

    Conceitos básicos do Amazon Redshift ML

    Saiba como você pode usar seus dados no cluster do Redshift para treinar modelos com o Amazon SageMaker.





    Explore o guia »

    AWS Neptune ML

    Como começar a usar o Neptune ML

    Mostramos como você pode configurar facilmente o Neptune ML e inferir propriedades de vértices em um gráfico.

    Leia a publicação no blog »

Explorar

Diagramas de arquitetura

Explore diagramas de arquitetura de referência para ajudar você a desenvolver, escalar e testar as soluções de análise na AWS.

Explore diagramas de arquitetura »

 

Whitepapers

Explore os whitepapers para ajudar você a começar, conhecer as práticas recomendadas e entender suas opções de análise.

Explore os whitepapers

 

Soluções da AWS

Explore soluções aprovadas e orientações de arquitetura para casos de uso comuns dos serviços de análise.

Explore soluções »

 

Esta página foi útil para você?