Introducción

Las aplicaciones y las personas deben acceder a los datos y analizarlos de forma segura. Los volúmenes de datos provienen de fuentes nuevas y diversas, y aumentan a un ritmo sin precedentes. Las organizaciones necesitan extraer el valor de los datos, pero tienen dificultades para capturar, almacenar y analizar todos los datos que generan las empresas modernas de hoy en día.

Hacer frente a estos desafíos significa crear una arquitectura de datos moderna que separe todos los silos de datos para el análisis y la información, incluidos los datos de terceros, y los ponga en manos de todos los miembros de la organización, con una gobernanza integral. También es cada vez más importante conectar los sistemas de análisis y machine learning (ML) para permitir el análisis predictivo. 

Esta guía de decisiones le sirve de ayuda para que formule las preguntas correctas para crear su arquitectura de datos moderna en los servicios de AWS. Explica cómo desglosar los silos de datos (conectando el lago de datos y los almacenamientos de datos), los silos de los sistemas (conectando el ML y los análisis) y los silos del personal (poniendo los datos en manos de todos los miembros de la organización).

Este extracto de seis minutos es parte de una presentación de una hora de duración de G2 Krishnamoorthy, vicepresidente de AWS Analytics en re:Invent 2022. Proporciona una descripción general de los servicios de análisis de AWS. La presentación completa cubre el estado actual de los análisis en AWS, así como las últimas innovaciones de servicios en torno a los datos, y destaca los éxitos de los clientes con los análisis de AWS.

Hora de leer

20 minutos

Propósito

Ayude a determinar qué servicios de análisis de AWS son los más adecuados para su organización.

Nivel

Principiante

Última actualización

8 de agosto de 2023

Entienda

Una estrategia de datos moderna se basa en un conjunto de componentes tecnológicos que ayudan a administrar, acceder, analizar y actuar en función de los datos. También ofrece múltiples opciones para conectarse a orígenes de datos. Una estrategia de datos moderna debería permitir a sus equipos:

  • Ejecutar el análisis o el ML mediante sus herramientas o técnicas preferidas
  • Gestionar quién tiene acceso a los datos mediante los controles de seguridad y gobernanza de datos adecuados
  • Eliminar los silos de datos para obtener lo mejor de los lagos de datos y los almacenes de datos personalizados
  • Almacenar cualquier cantidad de datos a bajo coste y en formatos de datos abiertos y basados en normas. La arquitectura de datos moderna de AWS conecta su lago, almacenamiento y otros servicios personalizados en un todo coherente.

La implementación de una estrategia de datos moderna en AWS se basa en los cinco pilares siguientes:

Lagos de datos escalables

Para tomar decisiones rápidamente, le recomendamos almacenar cualquier cantidad de datos en formatos abiertos para poder desglosar los silos de datos desconectados. Es posible que también necesite capacitar a las personas de su organización para que ejecuten análisis o ML (utilizando sus herramientas o técnicas preferidas para hacerlo), así como administrar quién puede acceder a datos específicos mediante los controles de seguridad y la gobernanza de datos adecuados.

Una arquitectura de datos moderna comienza con el lago de datos. Un lago de datos permite almacenar todos sus datos (relacionales, no relacionales, estructurados y no estructurados) de manera rentable. Con AWS, puede mover cualquier cantidad de datos de varios silos a un lago de datos de Amazon S3. A continuación, Amazon S3 almacena los datos mediante un formato abierto basado en estándares.

Diseño especial para el rendimiento y el coste

Las canalizaciones de datos locales a menudo se adaptan a las herramientas que utiliza actualmente, lo que proporciona una experiencia que no es óptima. AWS proporciona un conjunto amplio y profundo de servicios de datos personalizados para que pueda elegir la herramienta adecuada para el trabajo correcto, sin tener que comprometer la funcionalidad, el rendimiento, el escalamiento o el coste.

Sin servidor y fácil de usar

Para muchos tipos de necesidades de análisis, AWS ofrece opciones sin servidor diseñadas para que pueda centrarse en la aplicación sin tener que recurrir a ninguna infraestructura.

Llevar los datos sin procesar a un estado que se pueda utilizar para obtener información empresarial, y que se lleve a cabo mediante la etapa de extracción, transformación y carga (ETL) de la canalización de datos, puede ser todo un desafío. AWS está adoptando un enfoque sin ETL (que elimina la necesidad de los procesos de ETL tradicionales). Este enfoque ayudará a que se puedan analizar los datos donde se encuentran, sin necesidad de utilizar la ETL. Entre las características de los servicios de AWS que respaldan este enfoque, se incluyen:


  • Amazon sin ETL Aurora a Redshift
  • Ingesta de streaming de Amazon Redshift directamente de Kinesis y MSK a Redshift
  • Consulta federada en Amazon Redshift y Amazon Athena

Acceso a los datos, seguridad y gobernanza unificados

Una vez que tenga un lago de datos centralizado y una colección de servicios de análisis personalizados, necesitará la capacidad para acceder a esos datos dondequiera que se encuentren, protegerlos y contar con políticas de gobernanza para cumplir con las normas pertinentes y las mejores prácticas de seguridad.

La gobernanza comienza con AWS Lake Formation. Este servicio permite acceder a sus datos dondequiera que se encuentren, ya sea en una base de datos, un almacenamiento de datos, un almacén de datos personalizado o un lago de datos, y luego, mantener sus datos seguros sin importar dónde los almacene.

Para la gobernanza de los datos, AWS descubre, etiqueta, cataloga y mantiene los datos sincronizados automáticamente, y puede definir y gestionar de forma centralizada las políticas de seguridad, gobernanza y auditoría para cumplir con las normativas específicas de su sector y región geográfica.

Machine learning incorporado

AWS ofrece integración de ML incorporada como parte de sus servicios de análisis especialmente diseñados. Puede crear, entrenar y desplegar modelos de ML con comandos de SQL conocidos, sin necesidad de tener experiencia previa en ML.

No es raro utilizar diferentes tipos de almacenes de datos (relacionales, no relacionales, almacenamientos de datos y servicios de análisis) para diferentes casos de uso. AWS ofrece una gama de integraciones que ofrecen opciones para entrenar modelos con sus datos (o agregar resultados de inferencias directamente desde su almacén de datos) sin tener que exportar ni procesar sus datos.

Considere

Existen muchos motivos para crear una canalización de análisis en AWS. Es posible que deba respaldar un proyecto piloto o totalmente nuevo como primer paso en su proceso de migración a la nube. Como alternativa, puede migrar una carga de trabajo existente con la menor interrupción posible. Sea cual sea su objetivo, las siguientes consideraciones pueden ser útiles para tomar una decisión.

  • Analice los orígenes y los tipos de datos disponibles para obtener una comprensión integral de la diversidad, frecuencia y calidad de los datos. Comprenda los posibles desafíos del procesamiento y el análisis de los datos. Este análisis es crucial porque:

    • Los orígenes de datos son diversos y provienen de varios sistemas, aplicaciones, dispositivos y plataformas externas.
    • Los orígenes de datos tienen una estructura, un formato y una frecuencia de actualización de datos únicos. El análisis de estos orígenes ayuda a identificar los métodos y tecnologías de recopilación de datos adecuados.
    • El análisis de los tipos de datos, como los datos estructurados, semiestructurados y no estructurados, determina los enfoques de procesamiento y almacenamiento de datos adecuados.
    • El análisis de los orígenes y los tipos de datos facilita la evaluación de la calidad de los datos y ayuda a anticipar posibles problemas de calidad de estos - valores faltantes, inconsistencias o imprecisiones.
  • Determine los requisitos para el procesamiento de datos para la forma en que se ingieren, transforman, limpian y preparan los datos para el análisis. Las consideraciones clave incluyen:

    • La transformación de los datos: determine las transformaciones específicas necesarias para que los datos sin procesar sean adecuados para el análisis. Esto implica tareas como la incorporación, la normalización, el filtrado y el enriquecimiento de datos.
    • La limpieza de los datos: evalúe la calidad de los datos y defina los procesos para gestionar los datos faltantes, inexactos o inconsistentes. Implemente técnicas de limpieza de datos para garantizar datos de alta calidad para obtener información confiable.
    • La frecuencia del procesamiento: determine si se requiere el procesamiento en tiempo real, casi en tiempo real o por lotes en función de las necesidades analíticas. El procesamiento en tiempo real permite obtener información inmediata, mientras que el procesamiento por lotes puede ser suficiente para los análisis periódicos.
    • La escalabilidad y el rendimiento: evalúe los requisitos de escalabilidad para administrar los volúmenes de datos, la velocidad de procesamiento y la cantidad de solicitudes de datos simultáneas. Asegúrese de que el enfoque de procesamiento elegido pueda adaptarse al crecimiento futuro.
    • La latencia: tenga en cuenta la latencia aceptable para el procesamiento de datos y el tiempo que transcurre desde la ingesta de datos hasta los resultados del análisis. Esto es particularmente importante para los análisis en tiempo real o urgentes.
  • Determine las necesidades de almacenamiento estableciendo cómo y dónde se almacenan los datos durante toda la canalización del análisis. Algunas consideraciones importantes incluyen:

    • El volumen de datos: evalúe la cantidad de datos que se generan y recopilan, y calcule el crecimiento futuro de los datos para planificar una capacidad de almacenamiento suficiente.
    • La retención de datos: defina el tiempo durante el cual se deben retener los datos para fines de análisis histórico o de cumplimiento. Determine las políticas de retención de datos adecuadas.
    • Los patrones de acceso a los datos: comprenda cómo se accederá a los datos y cómo se consultarán para elegir la solución de almacenamiento más adecuada. Tenga en cuenta las operaciones de lectura y escritura, la frecuencia de acceso a los datos y la localidad de los datos.
    • La seguridad de los datos: priorice la seguridad de los datos evaluando las opciones de cifrado, los controles de acceso y los mecanismos de protección de datos para proteger la información confidencial.
    • La optimización de los costes: optimice los costes de almacenamiento mediante la selección de las soluciones de almacenamiento más rentables en función de los patrones de acceso y el uso de los datos.
    • La integración con los servicios de análisis: garantice una integración perfecta entre la solución de almacenamiento elegida y las herramientas de procesamiento y análisis de datos en la canalización.
  • Cuando decida los servicios de análisis para la recopilación e ingesta de datos, tenga en cuenta varios tipos de datos que sean relevantes para las necesidades y los objetivos de su organización. Algunos tipos de datos comunes que quizá deba tener en cuenta incluyen los siguientes:

    • Los datos transaccionales: incluyen información sobre interacciones o transacciones individuales, como compras de clientes, transacciones financieras, pedidos en línea y registros de actividad de los usuarios.
    • Los datos basados en archivos; hace referencia a los datos estructurados o no estructurados que se almacenan en archivos, como los archivos de registro, las hojas de cálculo, los documentos, las imágenes, los archivos de audio y de vídeo. Los servicios de análisis deben admitir la ingesta de diferentes formatos de archivo/
    • Los datos de eventos: capturan las ocurrencias o incidentes importantes, como las acciones de los usuarios, los eventos del sistema, los eventos de máquinas o los eventos empresariales. Los eventos pueden incluir cualquier dato que llegue a gran velocidad y que se capture para su procesamiento continuo o descendente.
  • Usted y AWS comparten la responsabilidad operativa, y la división de responsabilidades varía según los diferentes niveles de modernización. Usted tiene la opción de autoadministrar su infraestructura de análisis en AWS o aprovechar los numerosos servicios de análisis sin servidor para reducir la carga de administración de la infraestructura.

    Las opciones de autogestión otorgan a los usuarios un mayor control sobre la infraestructura y las configuraciones, pero requieren un mayor esfuerzo operativo.

    Las opciones sin servidor eliminan gran parte de la carga operativa y proporcionan escalabilidad automática, alta disponibilidad y sólidas características de seguridad, lo que permite a los usuarios centrarse más en crear soluciones analíticas y generar información en lugar de gestionar la infraestructura y las tareas operativas. Tenga en cuenta estas ventajas de las soluciones de análisis sin servidor:

    • La abstracción de la infraestructura: los servicios sin servidor eliminan la administración de la infraestructura, lo que libera a los usuarios de las tareas de aprovisionamiento, escalamiento y mantenimiento. AWS administra estos aspectos operativos, lo que reduce los gastos generales de administración.
    • El escalamiento y el rendimiento automáticos: los servicios sin servidor escalan automáticamente los recursos en función de las demandas de carga de trabajo, lo que garantiza un rendimiento óptimo sin intervención manual.
    • La alta disponibilidad y la recuperación de desastres: AWS proporciona una alta disponibilidad para los servicios sin servidor. AWS administra la redundancia de datos, la replicación y la recuperación de desastres para mejorar la disponibilidad y fiabilidad de los datos.
    • La seguridad y la conformidad: AWS administra las medidas de seguridad, el cifrado de datos y la conformidad de los servicios sin servidor, siguiendo los estándares y las prácticas recomendadas del sector.
    • La supervisión y el registro: AWS ofrece funciones integradas de supervisión, registro y alertas para los servicios sin servidor. Los usuarios pueden acceder a métricas y registros detallados a través de AWS CloudWatch.
  • Cuando se crea una canalización de análisis moderna, decidir los tipos de carga de trabajo que se admitirán es crucial para satisfacer las diferentes necesidades analíticas de manera eficaz. Algunos puntos de decisión clave a tener en cuenta para cada tipo de carga de trabajo incluyen:

    La carga de trabajo por lotes

    • El volumen y la frecuencia de datos: el procesamiento por lotes es adecuado para grandes volúmenes de datos con actualizaciones periódicas.
    • La latencia de los datos: el procesamiento por lotes puede provocar cierto retraso en la entrega de información en comparación con el procesamiento en tiempo real.

    El análisis interactivo

    • La complejidad de las consultas de datos: el análisis interactivo requiere respuestas de baja latencia para obtener comentarios rápidos.
    • La visualización de los datos: evalúe la necesidad de herramientas de visualización de datos interactivas que permitan a los usuarios empresariales explorar los datos de forma visual.

    Las cargas de trabajo de streaming

    • La velocidad y el volumen de datos: las cargas de trabajo de streaming requieren un procesamiento en tiempo real para administrar datos de alta velocidad.
    • Las ventanas de datos: defina ventanas de datos e incorporaciones basadas en el tiempo para el streaming de datos con el fin de extraer información relevante.
  • Defina claramente los objetivos empresariales y la información que desea obtener de los análisis. Los diferentes tipos de análisis tienen diferentes propósitos. Por ejemplo:

    • El análisis descriptivo es ideal para obtener una visión general histórica
    • El análisis de diagnóstico ayuda a comprender las razones detrás de los eventos pasados
    • El análisis predictivo prevé los resultados futuros
    • El análisis prescriptivo proporciona recomendaciones para acciones óptimas

    Haga coincidir sus objetivos empresariales con los tipos de análisis pertinentes. Estos son algunos criterios de decisión clave que sirven de ayuda para que elija los tipos de análisis correctos:

    • La disponibilidad y la calidad de los datos: los análisis descriptivos y de diagnóstico se basan en datos históricos, mientras que los análisis predictivos y prescriptivos requieren suficientes datos históricos y de alta calidad para crear modelos precisos.
    • El volumen y la complejidad de los datos: los análisis predictivos y prescriptivos requieren importantes recursos computacionales y de procesamiento de datos. Asegúrese de que su infraestructura y sus herramientas puedan administrar el volumen y la complejidad de los datos.
    • La complejidad de la decisión: si las decisiones implican múltiples variables, restricciones y objetivos, el análisis prescriptivo puede ser más adecuado para guiar las acciones óptimas.
    • La tolerancia al riesgo: el análisis prescriptivo puede proporcionar recomendaciones, pero conlleva incertidumbres asociadas. Asegúrese de que los responsables de la toma de decisiones entiendan los riesgos asociados a los resultados analíticos.
  • Evalúe las necesidades de escalabilidad y rendimiento de la arquitectura. El diseño debe administrar los crecientes volúmenes de datos, las demandas de los usuarios y las cargas de trabajo analíticas. Algunos factores clave de decisión a tener en cuenta incluyen:

    • El volumen y el crecimiento de los datos: evalúe el volumen de datos actual y anticipe el crecimiento futuro. 
    • Los requisitos de velocidad de datos y en tiempo real: determine si los datos deben procesarse y analizarse en tiempo real o casi en tiempo real.
    • La complejidad del procesamiento de datos: analice la complejidad de las tareas de procesamiento y el análisis de datos. Para las tareas informáticas intensivas, los servicios como Amazon EMR proporcionan un entorno escalable y administrado para el procesamiento de macrodatos.
    • La simultaneidad y la carga de usuarios: tenga en cuenta la cantidad de usuarios simultáneos y el nivel de carga de usuarios en el sistema. 
    • Las capacidades de escalamiento automático: considere los servicios que ofrecen capacidades de escalamiento automático, lo que permite que los recursos escalen verticalmente o desescalen verticalmente de forma automática en función de la demanda. Esto garantiza una utilización eficiente de los recursos y la optimización de los costes.
    • La distribución geográfica: considere los servicios con replicación global y acceso a los datos de baja latencia si su arquitectura de datos necesita distribuirse en varias regiones o ubicaciones.
    • La compensación entre los costes y el rendimiento: equilibre las necesidades de rendimiento con las consideraciones de costes. Los servicios de alto rendimiento pueden tener mayores costes.
    • Los acuerdos de nivel de servicio (SLA): compruebe los SLA proporcionados por los servicios de AWS para asegurarse de que cumplen sus expectativas de escalabilidad y rendimiento.
  • La gobernanza de datos es el conjunto de procesos, políticas y controles que debe implementar para garantizar la administración, la calidad, la seguridad y el cumplimiento efectivos de sus activos de datos. Algunos puntos de decisión clave a tener en cuenta incluyen:

    • Las políticas de retención de datos: defina políticas de retención de datos en función de los requisitos reglamentarios y las necesidades empresariales y establezca procesos para la eliminación segura de los datos cuando ya no sean necesarios.
    • El registro y la pista de auditoría: decida los mecanismos de registro y auditoría para supervisar el acceso y el uso de los datos. Implemente pistas de auditoría integrales para realizar un seguimiento de los cambios en los datos, los intentos de acceso y las actividades de los usuarios para supervisar la conformidad y la seguridad.
    • Los requisitos de conformidad: comprenda las normas de conformidad de datos geográficas y específicas del sector que se aplican a su organización. Asegúrese de que la arquitectura de datos se alinee con estas normas y directrices.
    • La clasificación de datos: clasifique los datos en función de su confidencialidad y defina los controles de seguridad adecuados para cada clase de datos. 
    • La recuperación de desastres y la continuidad empresarial: planifique la recuperación de desastres y la continuidad empresarial para garantizar la disponibilidad y la resiliencia de los datos en caso de eventos inesperados o fallas del sistema.
    • El intercambio de datos con terceros: si comparte datos con entidades de terceros, implemente protocolos y acuerdos seguros de intercambio de datos para proteger la confidencialidad de los datos y evitar el uso indebido de los mismos.
  • La seguridad de los datos en la canalización de análisis implica proteger los datos en cada etapa del proceso para garantizar su confidencialidad, integridad y disponibilidad. Algunos puntos de decisión clave a tener en cuenta incluyen:

    • El control y la autorización de acceso: implemente protocolos sólidos de autenticación y autorización para garantizar que solo los usuarios autorizados puedan acceder a recursos de datos específicos.
    • El cifrado de datos: elija los métodos de cifrado adecuados para los datos almacenados en bases de datos, lagos de datos y durante el movimiento de datos entre los diferentes componentes de la arquitectura.
    • El enmascaramiento y la anonimización de datos: considere la necesidad de enmascarar o anonimizar los datos para proteger los datos confidenciales, como la información de identificación personal o los datos empresariales confidenciales, y permitir que continúen ciertos procesos analíticos.
    • La integración segura de datos: establezca prácticas de integración de datos seguras para garantizar que los datos fluyan de forma segura entre los diferentes componentes de la arquitectura para evitar la filtración de datos o el acceso no autorizado durante el movimiento de los datos.
    • El aislamiento de redes: considere los servicios compatibles con los puntos de conexión de AWS VPC para evitar exponer los recursos a la Internet pública.
  • Defina los puntos de integración y los flujos de datos entre los diversos componentes de la canalización de análisis para garantizar un flujo de datos y una interoperabilidad perfectos. Algunos puntos de decisión clave a tener en cuenta incluyen:

    • La integración de los orígenes de datos: identifique los orígenes de datos desde los que se recopilarán los datos, como bases de datos, aplicaciones, archivos o API externas. Decida los métodos de ingesta de datos (por lotes, en tiempo real, basados en eventos) para incorporar los datos a la canalización de manera eficiente y con una latencia mínima.
    • La transformación de datos: determine las transformaciones necesarias para preparar los datos para el análisis. Decida las herramientas y los procesos para limpiar, incorporar, normalizar o enriquecer los datos a medida que avanzan en la canalización.
    • La arquitectura de movimiento de datos: elija la arquitectura adecuada para el movimiento de datos entre los componentes de la canalización. Considere el procesamiento por lotes, el procesamiento de transmisiones o una combinación de ambos en función de los requisitos en tiempo real y el volumen de datos.
    • La replicación y la sincronización de datos: decida los mecanismos de replicación y sincronización de datos para mantener los datos actualizados en todos los componentes. Considere soluciones de replicación en tiempo real o sincronizaciones periódicas de datos según los requisitos de actualización de los datos.
    • La calidad y la validación de los datos: implemente comprobaciones de calidad de los datos y pasos de validación para garantizar la integridad de los datos a medida que avanzan en la canalización. Decida las acciones que se deben tomar cuando no se pueda completar la validación de los datos, como las alertas o la administración de errores.
    • La seguridad y el cifrado de los datos: determine cómo se protegerán los datos durante el tránsito y en reposo. Decida los métodos de cifrado para proteger los datos confidenciales durante todo el proceso, teniendo en cuenta el nivel de seguridad requerido en función de la confidencialidad de los datos.
    • La escalabilidad y la resiliencia: asegúrese de que el diseño del flujo de datos permita la escalabilidad horizontal y pueda gestionar el aumento de los volúmenes de datos y del tráfico.
  • La creación de su canalización de análisis en AWS ofrece diversas oportunidades de optimización de costes. Para garantizar la rentabilidad, considere las siguientes estrategias:

    • El dimensionamiento y la selección de los recursos: asigne el tamaño adecuado a sus recursos en función de los requisitos reales de la carga de trabajo. Elija los tipos de instancias y servicios de AWS que se adapten a las necesidades de rendimiento de las cargas de trabajo y, al mismo tiempo, evite el sobreaprovisionamiento.
    • El escalamiento automático: implemente el escalamiento automático para los servicios que experimentan cargas de trabajo variables. El escalamiento automático ajusta de forma dinámica la cantidad de instancias en función de la demanda, lo que reduce los costes durante los períodos de poco tráfico.
    • Las instancias de spot: utilice las instancias de spot de AWS EC2 para cargas de trabajo no críticas y tolerantes a errores. Las instancias puntuales pueden reducir considerablemente los costes en comparación con las instancias bajo demanda.
    • Las instancias reservadas: considere la posibilidad de comprar instancias reservadas de AWS para lograr importantes ahorros de costes con respecto a los precios bajo demanda para cargas de trabajo estables con un uso predecible.
    • Niveles del almacenamiento de datos: optimice los costes de almacenamiento de datos mediante el uso de diferentes clases de almacenamiento según la frecuencia de acceso a los datos.
    • Las políticas del ciclo de vida de los datos: configure políticas del ciclo de vida de los datos para mover o eliminar automáticamente los datos en función de su antigüedad y sus patrones de uso. Esto ayuda a administrar los costes de almacenamiento y mantiene el almacenamiento de datos alineado con su valor.

Escoja

Ahora que conoce los criterios para evaluar sus necesidades de análisis, está listo para elegir qué servicios de análisis de AWS son los adecuados para las necesidades de su organización. En la siguiente tabla se clasifican los conjuntos de servicios en función de lo que necesitará lograr para sus objetivos empresariales, como la realización de análisis avanzados, la administración de datos o el análisis predictivo y ML.

Áreas objetivo
Cerrar

Análisis avanzado

AWS proporciona un conjunto de servicios de análisis amplio y rentable para que pueda obtener información más rápidamente a partir de sus datos.

Casos de uso
Servicios de análisis relacionados

Análisis interactivo
Es el proceso por medio del cual se llevan a cabo el análisis y la exploración de los datos en tiempo real que permite a los usuarios consultar y visualizar datos de forma interactiva para obtener información y tomar decisiones basadas en datos de forma rápida.

Cerrar

Amazon Athena

Amazon Athena es un servicio de análisis interactivo y sin servidor creado en marcos de código abierto, lo que lo hace compatible con formatos abiertos de archivos y tablas. Athena proporciona un método simplificado y flexible de analizar petabytes de datos donde residan. Analice datos o cree aplicaciones a partir de un lago de datos de Amazon S3 y más de 30 orígenes de datos, que incluyen orígenes de datos locales u otros sistemas en la nube que usan SQL o Python. Athena se ha creado con motores Trino y Presto de código abierto y marcos de Apache Spark, sin necesidad de esfuerzos de aprovisionamiento ni configuración.

Procesamiento de macrodatos
Los macrodatos se caracterizan por sus tres dimensiones: volumen, velocidad y variedad. Las soluciones para el procesamiento de macrodatos tienen como objetivo superar los desafíos que plantean la enorme escala y la complejidad de los macrodatos.

Cerrar

Amazon EMR

Amazon EMR es la solución de macrodatos en la nube líder del sector destinada al procesamiento de datos a escala de petabytes, al análisis interactivo y al machine learning a través del uso de marcos de código abierto, como Apache Spark, Apache Hive y Presto.

Almacenamiento de datos
Es el almacenamiento, la organización y la recuperación centralizados de grandes volúmenes de datos estructurados y, algunas veces, semiestructurados de diversos orígenes dentro de una organización.

Cerrar

Amazon Redshift

Amazon Redshift utiliza SQL para analizar datos estructurados y semiestructurados en almacenamientos de datos, bases de datos operativas y lagos de datos, con hardware y machine learning diseñado por AWS para ofrecer rendimiento al mejor precio a cualquier escala.

Análisis en tiempo real
Es el proceso de analizar y procesar los datos a medida que se generan, reciben o ingieren, sin ningún retraso significativo.

Cerrar

Amazon Kinesis Data Analytics

Con Amazon Kinesis Data Analytics, puede transformar y analizar datos de streaming en tiempo real con Apache Flink de manera más sencilla.

Análisis operacionales
Son el uso de análisis de datos e información en tiempo real para optimizar y mejorar los procesos y actividades operativos en curso dentro de una organización.

Cerrar

AWS OpenSearch Service

OpenSearch es un conjunto distribuido, basado en la comunidad, con licencia de Apache 2.0, totalmente de código abierto para búsqueda y análisis. Se usa para una amplia gama de casos de uso, como la supervisión de aplicaciones en tiempo real, el análisis de registros y la búsqueda en sitios web. OpenSearch ofrece un sistema altamente escalable para brindar acceso y respuesta rápidos a volúmenes grandes de datos con una herramienta de visualización integrada, OpenSearch Dashboards, lo que facilita a los usuarios analizar sus datos.

Paneles y visualizaciones
Los paneles y las visualizaciones proporcionan una representación visual de conjuntos de datos complejos, lo que proporciona a los usuarios una visión general de los patrones, las tendencias y los conocimientos, lo cual facilita su comprensión. Simplifican la comprensión de los datos, incluso para los usuarios sin conocimientos técnicos, ya que presentan la información de una manera visualmente atractiva e intuitiva.

Cerrar

Amazon QuickSight

Amazon QuickSight potencia a las organizaciones basadas en datos con inteligencia empresarial (BI) unificada a hiperescala. Con QuickSight, todos los usuarios pueden satisfacer diferentes necesidades analíticas desde la misma fuente de información mediante modernos paneles interactivos, informes paginados, análisis integrados y consultas en lenguaje natural.

Preparación de datos visuales
Uso de herramientas e interfaces visuales para explorar, limpiar, transformar y manipular datos de forma visual e intuitiva.

Cerrar

AWS Glue DataBrew

AWS Glue DataBrew es una herramienta de preparación visual de datos que facilita a los analistas de datos y científicos de datos limpiar y normalizar los datos con el fin de prepararlos para el análisis y machine learning. Puede elegir entre más de 250 transformaciones prediseñadas para automatizar las tareas de preparación de datos sin necesidad de escribir ningún tipo de código. 

Cerrar

Administración de datos

Estos servicios simplifican la combinación, el traslado y la replicación de datos entre varios almacenes de datos y su lago de datos.

Casos de uso
Servicios de análisis relacionados

Movimiento de datos en tiempo real
El movimiento de datos en tiempo real implica un retraso mínimo en la transferencia de datos, normalmente de segundos o milisegundos después de que estén disponibles.

Cerrar

Amazon MSK

Amazon Managed Streaming para Apache Kafka (Amazon MSK) es un servicio completamente administrado que le permite crear y ejecutar aplicaciones que utilizan Apache Kafka para procesar datos de streaming. Amazon MSK proporciona las operaciones del plano de control, como las de creación, actualización y eliminación de clústeres.

Cerrar

Amazon Kinesis Data Streams

Amazon Kinesis Data Streams es un servicio de datos de streaming sin servidor que hace que sea fácil capturar, procesar y almacenar flujos de datos a cualquier escala.

Cerrar

Amazon Kinesis Data Firehose

Amazon Kinesis Data Firehose es un servicio de extracción, transformación y carga (ETL) que captura, transforma y entrega de manera fiable datos de streaming en lagos y almacenes de datos y servicios de análisis.

Cerrar

Amazon Kinesis Video Streams

Amazon Kinesis Video Streams facilita la transmisión segura de vídeos desde dispositivos conectados a AWS para tareas de análisis, ML, reproducción y otros procesos. Kinesis Video Streams aprovisiona automáticamente y escala de manera elástica toda la infraestructura necesaria para incorporar datos de las transmisiones de vídeo de millones de dispositivos. Almacena, cifra e indexa de forma duradera datos de vídeos en transmisiones y permite obtener acceso a los datos mediante API fáciles de usar.

Cerrar

AWS Glue

AWS Glue es un servicio de integración de datos sin servidor que facilita la detección, preparación, migración e integración de datos provenientes de varios orígenes para el análisis, ML y desarrollo de aplicaciones.

Gobernanza de datos
Es un conjunto de procesos, políticas y pautas que garantizan la administración, disponibilidad, usabilidad, integridad y seguridad adecuadas de los datos durante todo su ciclo de vida.

Cerrar

Amazon DataZone

Use Amazon DataZone para compartir, buscar y descubrir datos a escala más allá de los límites de la organización. Colabore en proyectos de datos mediante un portal de análisis de datos unificado que le ofrecerá una vista personalizada de todos sus datos a la vez que aplica sus políticas de gobernanza y cumplimiento.

Cerrar

AWS Lake Formation

AWS Lake Formation es un servicio completamente administrado que permite crear, proteger y administrar con facilidad los lagos de datos. Lake Formation simplifica y automatiza muchos de los pasos manuales complejos que normalmente son necesarios para crear lagos de datos. Estos pasos incluyen recopilar, limpiar, mover y catalogar datos, y hacer que esos datos estén disponibles de forma segura para el análisis y machine learning.

Almacenamiento de objetos para lagos de datos
Un lago de datos creado en AWS utiliza Amazon S3 como plataforma de almacenamiento principal. Amazon S3 proporciona una base óptima para un lago de datos gracias a su escalabilidad prácticamente ilimitada y a su alta durabilidad. 

Cerrar

Amazon S3

Amazon Simple Storage Service (Amazon S3) es un servicio de almacenamiento de objetos que ofrece escalabilidad, disponibilidad de datos, seguridad y rendimiento. Amazon S3 proporciona características de administración para que pueda optimizar, organizar y configurar el acceso a los datos a fin de cumplir los requisitos empresariales, organizacionales y de conformidad específicos.

Cerrar

AWS Lake Formation

AWS Lake Formation es un servicio completamente administrado que permite crear, proteger y administrar con facilidad los lagos de datos. Lake Formation simplifica y automatiza muchos de los pasos manuales complejos que normalmente son necesarios para crear lagos de datos. Estos pasos incluyen recopilar, limpiar, mover y catalogar datos, y hacer que esos datos estén disponibles de forma segura para el análisis y machine learning.

Copia de seguridad y archivado para lagos de datos
Los lagos de datos, con tecnología de Amazon S3, proporcionan a las organizaciones la disponibilidad, la agilidad y la flexibilidad necesarias para que los enfoques analíticos modernos obtengan una visión más profunda. La protección de la información confidencial o crítica para la empresa almacenada en estos buckets de S3 es una gran prioridad para las organizaciones.

Cerrar

Amazon S3 Glacier

Las clases de almacenamiento de Amazon S3 Glacier se crearon específicamente para el archivado de datos y le ofrecen el mayor rendimiento, la mayor flexibilidad de recuperación y el menor coste de almacenamiento de archivos en la nube. Todas las clases de almacenamiento S3 Glacier ofrecen escalabilidad prácticamente ilimitada y están diseñadas para lograr un 99,999999999 % (11 nueves) de durabilidad de datos. 

Cerrar

AWS Backup

AWS Backup ofrece un servicio rentable, completamente administrado y basado en políticas que simplifica la protección de datos a escala.

Catálogo de datos
Es una herramienta de administración de metadatos que proporciona información detallada sobre los datos disponibles, su estructura, sus características y sus relaciones.

Cerrar

Amazon Glue

AWS Glue es un servicio de integración de datos sin servidor que facilita la detección, preparación, migración e integración de datos provenientes de varios orígenes para el análisis, machine learning (ML) y desarrollo de aplicaciones.

Datos de terceros
Los datos de terceros y los datos de software como servicio (SaaS) son cada vez más importantes para las operaciones empresariales en el panorama moderno basado en datos.

Cerrar

AWS Data Exchange

AWS Data Exchange es un servicio que ayuda a los clientes de AWS a encontrar, suscribirse y utilizar datos de terceros en la nube de AWS.

Cerrar

Amazon AppFlow

Con Amazon AppFlow, automatice los flujos de datos bidireccionales entre las aplicaciones de SaaS y los servicios de AWS con solo unos pocos clics. Ejecute flujos de datos en la frecuencia que elija, ya sea de manera programada, en respuesta a eventos del negocio o bajo demanda. 

Cerrar

Análisis predictivo y machine learning

Para los casos de uso de análisis predictivo, AWS ofrece un amplio conjunto de servicios de machine learning y herramientas que se ejecutan en su lago de datos en AWS.

Casos de uso
Servicios de análisis relacionados

Marcos e interfaces
La infraestructura de ML de AWS es compatible con todos los principales marcos de ML. 

Cerrar

AMI de aprendizaje profundo de AWS

Las AMI de aprendizaje profundo de AWS (DLAMI) brindan a los profesionales e investigadores de ML un conjunto curado y seguro de marcos, dependencias y herramientas para acelerar el aprendizaje profundo en la nube. Dado que fueron creadas para Amazon Linux y Ubuntu, las imágenes de máquina de Amazon (AMI) vienen preconfiguradas con TensorFlow, PyTorch, Apache MXNet, Chainer, Microsoft Cognitive Toolkit (CNTK), Gluon, Horovod y Keras, lo que permite desplegar y ejecutar rápidamente cualquiera de estos marcos y herramientas a escala.

Servicios de la plataforma
Son una infraestructura totalmente administrada para crear, entrenar y desplegar modelos de machine learning. 

Cerrar

Amazon SageMaker

Cree, forme e implemente modelos de machine learning (ML) para cualquier caso de uso con infraestructura, herramientas y flujos de trabajo completamente administrados.

Integraciones de datos directas
Cree, entrene y despliegue modelos de ML mediante comandos de SQL conocidos.

Cerrar

ML de Amazon Athena

Athena ML permite crear y desplegar modelos de ML en Amazon SageMaker y utilizar funciones SQL en Amazon Athena para generar predicciones a partir de sus modelos de SageMaker. 

Esto permite a los equipos de análisis poner información basada en modelos a disposición de usuarios empresariales y analistas sin necesidad de herramientas especializadas e infraestructura.

Cerrar

Amazon QuickSight ML

QuickSight ML Insights aprovecha las capacidades comprobadas de ML y lenguaje natural de AWS para que pueda obtener información más detallada de sus datos. Estas potentes características listas para usar son de utilidad para que cualquier persona pueda descubrir tendencias ocultas y valores atípicos, identificar los principales impulsores empresariales y llevar a cabo potentes análisis y pronósticos hipotéticos sin necesidad de conocimientos técnicos ni experiencia en ML.

Cerrar

ML de Amazon Redshift

ML de Amazon Redshift facilita a los analistas de datos y desarrolladores de bases de datos la creación, el entrenamiento y la aplicación de modelos de machine learning mediante comandos SQL conocidos en los almacenes de datos de Amazon Redshift. Con Redshift ML, puede beneficiarse de Amazon SageMaker, un servicio de machine learning totalmente administrado, sin necesidad de aprender idiomas o a usar nuevas herramientas. Simplemente, utilice declaraciones de SQL para crear y entrenar modelos de ML de Amazon SageMaker con sus datos de Redshift y, a continuación, utilice estos modelos para hacer predicciones.

Use

Ahora debe tener una idea clara de sus objetivos empresariales y del volumen y la velocidad de los datos que va a ingerir y analizar para empezar a crear sus canalizaciones de datos.

Para explorar cómo usar y obtener más información sobre cada uno de los servicios disponibles, proporcionamos una vía para explorar cómo funciona cada uno de los servicios. Las siguientes secciones proporcionan enlaces a documentación detallada, tutoriales prácticos y recursos para comenzar desde el uso básico hasta los análisis profundos más avanzadas.

Análisis avanzado

  • Análisis interactivo
  • Amazon Athena

    Introducción a Amazon Athena

    Aprenda a usar Amazon Athena para consultar datos y crear una tabla basada en datos de muestra almacenados en Amazon S3, consultar la tabla y comprobar los resultados de la consulta.

    Comience con el tutorial »

    Amazon Athena

    Comience con Apache Spark en Amazon Athena

    Utilice la experiencia simplificada de cuadernos de la consola Amazon Athena para desarrollar aplicaciones de Apache Spark con las API de los cuadernos de Python o Athena.

    Comience con el tutorial »

    Amazon Athena

    AWS re:Invent 2022 - Novedades de Amazon Athena

    Descubra cómo puede incorporar Athena a sus datos, aplicando este servicio a todos sus datos, incluidos lagos de datos, orígenes externos y más.


    Vea la sesión »

    Amazon Athena

    Análisis de datos en S3 con Amazon Athena
     
    Descubra cómo usar Athena en los registros de equilibradores de carga elásticos, generados como archivos de texto en un formato predefinido. Le mostramos cómo crear una tabla, particionar los datos en un formato utilizado por Athena, convertirlos a Parquet y comparar el rendimiento de las consultas.

    Lea la publicación del blog »

  • Procesamiento de macrodatos
  • Amazon EMR

    Introducción a AWS EMR

    Aprenda a lanzar un clúster de muestra con Spark y a ejecutar un sencillo script de PySpark almacenado en un bucket de Amazon S3.
     


    Comience con el tutorial »


    Amazon EMR

    Introducción a Amazon EMR en EKS
     

    Demostramos cómo empezar a utilizar Amazon EMR en EKS mediante la implementación de una aplicación Spark en un clúster virtual.

    Comience con el tutorial »

    Amazon EMR

    Introducción a EMR sin servidor
     

    Descubra cómo EMR sin servidor proporciona un entorno de versión ejecutable sin servidor que simplifica el funcionamiento de las aplicaciones de análisis que utilizan los marcos de código abierto más recientes.

    Comience con el tutorial »

    Amazon EMR

    Novedades de Amazon EMR

    Obtenga información sobre los últimos desarrollos de Amazon EMR, incluidos Amazon EMR sin servidor, Amazon EMR Studio y más.

    Vea la sesión »

  • Almacenamiento de datos
  • Amazon Redshift

    Introducción a Amazon Redshift

    Comprenda el flujo básico de Amazon Redshift sin servidor para crear recursos sin servidor, conectarse a Amazon Redshift sin servidor, cargar datos de muestra y, a continuación, ejecutar consultas en los datos.

    Explore la guía »

    Amazon Redshift

    Modernice el almacenamiento de datos


    Descubra cómo puede utilizar las nuevas capacidades de Amazon Redshift para modernizar su almacenamiento de datos mediante el acceso a todos sus datos.



    Vea el vídeo »

    Amazon Redshift

    Despliegue el almacenamiento de datos en AWS


    Aprenda a crear y configurar el almacenamiento de datos de Amazon Redshift, cargar datos de muestra y analizarlos con un cliente SQL.


    Comience con el tutorial »

    Amazon Redshift

    Taller de análisis profundo de Amazon Redshift

    Explore una serie de ejercicios que ayudan a los usuarios a empezar a utilizar la plataforma Redshift.

    Comience con el taller »

  • Análisis en tiempo real
  • Amazon Kinesis Data Analytics

    Introducción a Amazon Kinesis Data Analytics para Apache Flink
     

    Comprenda los conceptos fundamentales de Kinesis Data Analytics para Apache Flink y la API de DataStream.

    Explore la guía »

    Amazon Kinesis Data Analytics

    Taller de análisis de streaming
     


    Aprenda a crear una arquitectura de streaming integral para la ingesta, el análisis y la visualización de datos de streaming en tiempo casi real.

    Comience con el taller »

    Amazon Kinesis Data Analytics

    Introducción a Amazon Kinesis Data Analytics para aplicaciones Java
     

    Explore cómo puede usar las aplicaciones Apache Flink en Amazon Kinesis Data Analytics para obtener más información puntual de sus datos.

    Vea la sesión (es necesario iniciar sesión) »

    Amazon Kinesis Data Analytics

    Laboratorio de secuencia de clics

    Laboratorio integral para un caso de uso de secuencia de clics con Amazon MSK para el almacenamiento de transmisiones y Amazon KDA para aplicaciones Java con el motor Apache Flink para el procesamiento de transmisiones.

    Comience con el laboratorio »

  • Análisis operacionales
  • Amazon OpenSearch Service

    Introducción a Amazon OpenSearch Service


    Aprenda a usar Amazon OpenSearch Service para crear y configurar un dominio de prueba.

     





    Comience con el tutorial »

    Amazon OpenSearch Service

    Visualización de las llamadas de atención al cliente con OpenSearch Service y OpenSearch Dashboards

    Descubra un tutorial completo de la siguiente situación: una empresa recibe cierta cantidad de llamadas de atención al cliente y quiere analizarlas. ¿Cuál es el tema de cada llamada? ¿Cuántos fueron positivos? ¿Cuántos fueron negativos? ¿Cómo pueden los gerentes buscar o revisar las transcripciones de estas llamadas?

    Comience con el tutorial »

    Amazon OpenSearch Service

    Introducción al taller de Amazon OpenSearch sin servidor

    Aprenda a configurar un nuevo dominio de Amazon OpenSearch sin servidor en la consola de AWS. Explore los diferentes tipos de consultas de búsqueda disponibles, diseñe visualizaciones llamativas y descubra cómo puede proteger su dominio y sus documentos en función de los privilegios de usuario asignados.


    Comience con el taller »

    Amazon OpenSearch Service

    Creación de una solución de análisis de registros con Amazon OpenSearch Service

    Aprenda a dimensionar un clúster de OpenSearch para una carga de trabajo de análisis de registros. 


    Lea la publicación del blog »

  • Paneles y visualizaciones
  • Amazon QuickSight

    Introducción al análisis de datos de Amazon QuickSight

    Aprenda a crear su primer análisis. Utilice datos de muestra para crear un análisis simple o más avanzado. O puede conectarse a sus propios datos y crear un análisis.


    Explore la guía »

    Amazon QuickSight

    Visualización con QuickSight


    Descubra el aspecto técnico de la inteligencia empresarial (BI) y la visualización de datos con AWS. Aprenda a integrar paneles en aplicaciones y sitios web, y a administrar de forma segura el acceso y los permisos.

    Comience con el tutorial »

    Amazon QuickSight

    Talleres de QuickSight


    Comience su recorrido con QuickSight con ventaja gracias a los talleres.

     



    Comience con el taller »

  • Preparación de datos visuales
  • AWS Glue DataBrew

    Introducción a AWS Glue DataBrew

    Aprenda a crear su primer proyecto de DataBrew. Usted carga un conjunto de datos de muestra, ejecuta transformaciones en ese conjunto de datos, crea una receta para capturar esas transformaciones y ejecuta un trabajo para escribir los datos transformados en Amazon S3.

    Comience con el tutorial »

    AWS Glue DataBrew

    Transforme los datos con AWS Glue DataBrew

    Obtenga información sobre AWS Glue DataBrew, una herramienta de preparación visual de datos que facilita a los analistas de datos y científicos de datos limpiar y normalizar los datos con el fin de prepararlos para el análisis y machine learning. Aprenda a crear un proceso de ETL con AWS Glue DataBrew.

    Comience con el laboratorio »

    AWS Glue DataBrew

    Día de inmersión en AWS Glue DataBrew

    Descubra cómo usar AWS Glue DataBrew para limpiar y normalizar datos para análisis y machine learning. 





    Comience con el taller »

Administración de datos

  • Movimiento de datos en tiempo real
  • Amazon Kinesis Data Streams

    Introducción a la ingesta de streaming desde Amazon Kinesis Data Streams

    Descubra cómo transmitir datos directamente desde Kinesis Data Streams a Amazon Redshift, lo que reduce el tiempo de acceso a los datos y los costes de almacenamiento.

    Explore la guía »

    Amazon MSK

    Introducción a la ingesta de streaming desde Amazon Managed Streaming para Apache Kafka

    Aprenda a transmitir datos directamente desde Amazon MSK a Amazon Redshift para reducir el tiempo de acceso a los datos y los costes de almacenamiento.

    Explore la guía »

    Amazon Redshift

    Introducción a la integración sin ETL de Amazon Aurora con Amazon Redshift

    Descubra cómo empezar a utilizar análisis operativos casi en tiempo real con la integración sin ETL de Amazon Aurora con Amazon Redshift.

    Lea la publicación del blog »

    AWS Glue

    Taller de un día de inmersión en AWS Glue
     
    Trabajo en varios laboratorios prácticos para demostrar cómo resolver problemas del mundo real con AWS Glue y los servicios de AWS asociados.


    Comience con el taller »

    Amazon Kinesis Firehose

    Día de inmersión en Amazon Kinesis Data Firehose

    Descubra cómo puede incorporar fácilmente streaming de datos en Amazon OpenSearch y Amazon Redshift mediante unos pocos pasos de configuración.


    Comience con el taller »

    Amazon Kinesis Video Streams

    Taller Amazon Kinesis Video Streams

    Aprenda a incorporar y almacenar vídeos de dispositivos con cámara, reproducirlos en directo y bajo demanda y descargar archivos de vídeo mediante Amazon Kinesis Video Streams.

    Comience con el taller »

  • Gobernanza de datos
  • AWS Lake Formation

    Centralice la gobernanza de su lago de datos con AWS Lake Formation

    Descubra cómo usar AWS Lake Formation para centralizar la gobernanza de datos y la administración del acceso a los datos mientras usa Amazon Redshift Spectrum para realizar consultas en su lago de datos.  

    Lea la publicación del blog »

     

    Amazon EMR

    Introducción a Amazon DataZone
     


    Aprenda a crear el dominio raíz de Amazon DataZone, a obtener la URL del portal de datos y a recorrer los flujos de trabajo básicos de Amazon DataZone para productores y consumidores de datos.

    Explore la guía »

    Amazon EMR

    Introducción a EMR sin servidor
     



    Descubra cómo EMR sin servidor proporciona un entorno de versión ejecutable sin servidor que simplifica el funcionamiento de las aplicaciones de análisis que utilizan el marco de código abierto más reciente.

    Explore la guía »

  • Almacenamiento de objetos para lagos de datos
  • AWS Lake Formation

    Introducción a AWS Lake Formation

    Aprenda a configurar Lake Formation por primera vez para administrar sus objetos y ubicaciones de datos existentes del Catálogo de datos de AWS Glue en Amazon S3.

    Explore la guía »

    AWS Lake Formation

    Taller AWS Lake Formation


    Descubra cómo usar AWS Lake Formation para crear, proteger y administrar los lagos de datos en AWS.



    Comience con el taller »

    Amazon S3

    Almacenamiento central - Amazon S3 como plataforma de almacenamiento de lagos de datos

    Descubra cómo Amazon S3 es una base óptima para los lagos de datos gracias a su escalabilidad prácticamente ilimitada y su alta durabilidad.


    Lea el documento técnico »

  • Catálogo de datos
  • Catálogo de datos de AWS Glue

    Catálogo de datos y rastreadores en AWS Glue

    Descubra cómo puede utilizar la información del Catálogo de datos para crear y supervisar sus trabajos de ETL.


    Explore la guía »

    Catálogo de datos de AWS Glue

    Introducción al Catálogo de datos de AWS Glue

    Aprenda a crear su primer Catálogo de datos de AWS Glue, que utiliza un bucket de Amazon S3 como origen de datos.

    Comience con el tutorial »

  • Datos de terceros
  • AWS Data Exchange

    Cómo comenzar como suscriptor de AWS Data Exchange

    Conozca el proceso completo para ser un suscriptor de un producto de datos en AWS Data Exchange mediante la consola de AWS Data Exchange.

    Explore la guía »

    AWS Data Exchange

    Cómo comenzar como proveedor de AWS Data Exchange

    Comprenda el proceso completo para convertirse en proveedor de productos de datos en AWS Data Exchange mediante la consola de AWS Data Exchange.

    Explore la guía »

    Amazon AppFlow icon

    Introducción a Amazon AppFlow

    Obtenga información sobre Amazon AppFlow y descubra los requisitos previos para comenzar.



    Explore la guía »

    AWS Data Exchange

    Taller de AWS Data Exchange

    Explore los laboratorios de autoservicio que puede utilizar para comprender y aprender cómo se pueden utilizar los servicios de AWS junto con datos de terceros para agregar información a sus proyectos de análisis de datos.  

    Comience con el taller »

    Amazon AppFlow icon

    Taller de Amazon AppFlow

    Obtenga información sobre Amazon AppFlow y sobre cómo transferir datos fácilmente entre los servicios SaaS más populares y AWS.



    Comience con el taller »

Análisis predictivo y ML

  • Marcos e interfaces
  • AMI de aprendizaje profundo de Amazon

    Introducción a las AMI de aprendizaje profundo de AWS

    Obtenga consejos sobre cómo elegir la DLAMI adecuada para usted, seleccionar un tipo de instancia que se ajuste a su caso de uso y presupuesto, e información adicional que describa las configuraciones personalizadas.
    Explore la guía »

    AMI de aprendizaje profundo de Amazon

    Tutoriales de AMI de aprendizaje profundo


    Conjunto de tutoriales en los que se muestra cómo utilizar la AMI de aprendizaje profundo con el software de Conda.



    Comience con los tutoriales »

    AMI de aprendizaje profundo de Amazon

    Comience con el aprendizaje profundo mediante las AMI de aprendizaje profundo de AWS

    Obtenga información sobre las AMI de aprendizaje profundo de AWS (Amazon Machine Images), que permiten crear entornos y flujos de trabajo personalizados.


    Lea la publicación del blog »

  • Servicios de la plataforma
  • Amazon SageMaker

    Cómo funciona Amazon SageMaker


    Explore la descripción general de machine learning y el funcionamiento de Amazon SageMaker. 



    Explore la guía »

    Amazon SageMaker

    Introducción a Amazon SageMaker

    Demostramos cómo empezar a utilizar Amazon EMR en EKS mediante la implementación de una aplicación Spark en un clúster virtual.

    Explore la guía »

    Amazon SageMaker

    Genere predicciones de machine learning sin necesidad de escribir código
     

    Aprenda a utilizar Amazon SageMaker Canvas para crear modelos de ML y generar predicciones precisas sin escribir una sola línea de código.

    Comience con el tutorial »

  • Integraciones de datos directas
  • AWS Athena ML

    Uso de machine learning con Amazon Athena

    Descubra cómo ML mediante Amazon Athena permite usar Athena para escribir declaraciones SQL que ejecuten inferencias de Machine Learning (ML) mediante Amazon SageMaker.



    Explore la guía »

    AWS QuickSight ML

    Cómo obtener información con machine learning en Amazon QuickSight

    Descubra cómo las capacidades de ML y de lenguaje natural de Amazon QuickSight edición empresarial van más allá del análisis descriptivo y de diagnóstico y hacen que incursione en las previsiones y en la toma de decisiones.

    Explore la guía »

    AWS Redshift ML

    Introducción a Amazon Redshift ML

    Descubra cómo puede utilizar los datos de su clúster de Redshift para entrenar modelos con Amazon SageMaker.





    Explore la guía »

    AWS Neptune ML

    Introducción a Neptune ML

    Le mostramos cómo configurar fácilmente Neptune ML e inferir las propiedades de los vértices dentro de un gráfico.

    Lea la publicación del blog »

Explore

Diagramas de arquitectura

Explore los diagramas de arquitectura que sirven de ayuda para desarrollar, escalar y probar sus soluciones analíticas en AWS.

Explore los diagramas de arquitectura »

 

Documentos técnicos

Consulte los documentos técnicos que sirven de ayuda para comenzar a usar y aprender las mejores prácticas y comprender sus opciones de análisis.

Explore los documentos técnicos »

 

Soluciones de AWS

Explore las soluciones aprobadas y la guía de arquitectura para los casos de uso comunes para los servicios de análisis.

Explore las soluciones »

 

¿Le resultó útil esta página?