Blog de Amazon Web Services (AWS)
Monetización de datos y optimización de la experiencia del cliente mediante activos de datos de telecomunicaciones – Parte 1
Por Vikas Omer, Arquitecto de Soluciones Especialista en Analytics AWS
El panorama de la industria de las telecomunicaciones está cambiando rápidamente. Para los proveedores de servicios de telecomunicaciones (CSP), los ingresos de los servicios de voz y datos siguen disminuyendo debido a la presión regulatoria y a los OTT emergentes que ofrecen una alternativa atractiva. A pesar de la creciente demanda de los clientes de aumentar el ancho de banda, la velocidad y la eficiencia, los CSP están descubriendo que el ROI de la implementación de nuevas tecnologías de acceso, como 5G, no es sustancial.
Para superar el riesgo de ser relegados únicamente a rutas de transporte o medios de acceso, los CSP buscan hoy diversificarse adoptando modelos de negocio alternativos para generar nuevas corrientes de ingresos.
Recientemente, la adopción de iniciativas de monetización de datos y experiencia del cliente (CX) ha sido un tema clave en todas las industrias. Aunque muchos CSP lideran esta transformación mediante el uso de nuevas tecnologías para mejorar la experiencia del cliente (CX) y aumentar la rentabilidad, muchos aún necesitan embarcarse en este viaje desafiante pero gratificante.
Crear e implementar una estrategia de administración y monetización de datos de CX
La monetización de datos a menudo se interpreta mal como ganar dinero con la venta de datos, pero lo que realmente significa es mejorar el crecimiento potencial aumentando los ingresos con nuevas o existentes líneas de negocio. Puede ser tangible o intangible, interno o externo, o hacer uso de activos de datos.
Según Gartner, la mayoría de los líderes de datos y análisis buscan aumentar las inversiones en inteligencia empresarial (BI) y analítica (consulte los resultados del estudio a continuación).
El gráfico anterior es de «La Agenda de CIO 2019: Secure a New Foundation for Digital Business», publicado el 15 de octubre de 2018.
Si bien las oportunidades de monetización externa son limitadas debido a regulaciones estrictas, hay muchas oportunidades para que los CSP moneticen datos tanto internamente (regulados, pero mucho menos en comparación con externos) como externamente a través de un mercado (altamente regulado). Si los CSP pueden cambiar su mentalidad de ventas de datos para centrarse en el uso de la información para la monetización y mejorar la CX, pueden identificar un número significativo de casos de uso para un impacto positivo inmediato.
Explorar y aprovechar la información sobre el comportamiento de los clientes funciona como una navaja suiza para las empresas. Puede utilizar estos conocimientos para impulsar CX, hiperpersonalizar y localizar, microsegmentar, retener suscriptores, crear programas de fidelización y recompensas, planificar y optimizar su red, rentabilizar datos internos y externos, y mucho más. Los siguientes son algunos casos de uso que se pueden realizar utilizando estrategias de monetización de datos y CX:
- Orientación/microsegmentación (venta cruzada, venta incrementada, publicidad dirigida, localización mejorada de mercados); por ejemplo:
- Identificar objetivos para consumir productos para bebés o aumentar la venta de un canal de televisión infantil
- Identificar a las mujeres de entre 18 y 35 años para apuntar a productos o equipos de belleza de alta calidad
Puede crear cientos de segmentos similares:
- Programas de fidelización y recompensa personalizados (animar a los clientes con lo que les gusta). Por ejemplo, entradas de cine o descuentos para un amante del cine o cupones y ofertas de comida para un amante de la comida.
- Optimización de red orientada a CX (asigne más recursos para puntos de acceso de streaming con clientes de alto valor).
- Identificar socios potenciales para promociones conjuntas. Por ejemplo, agrupar ofertas de dispositivos con una suscripción a una aplicación de música.
- Hiperpersonalización. Por ejemplo, recomendaciones personalizadas para aplicaciones y sitios en el portal.
- Siguiente mejor acción y próxima mejor oferta. Por ejemplo, agrupación inteligente y empaquetado de ofertas.
Desafíos para impulsar el CX y la monetización de datos
En esta era digital, los CSP consideran que el análisis de datos es un pilar estratégico en su búsqueda de evolucionar hacia una verdadera organización basada en datos. Aunque muchos CSP están aprovechando el poder de los datos para impulsar y mejorar la CX, existen lagunas tecnológicas y desafíos en la definición de referencia y en la formulación de estrategias internas y externas de monetización de datos. Algunos de estos desafíos incluyen:
- Inversiones tecnológicas no superpuestas para CX y monetización de datos debido a iniciativas empresariales y de TI desalineadas
- Requisitos elevados de CAPEX para procesar grandes volúmenes de datos
- Dificultad para descubrir información oculta debido a iniciativas de datos en silos
- Dificultad para combinar varios conjuntos de datos debido a la falta de estandarización
- Falta de herramientas y técnicas fáciles para descubrir, ingerir, procesar, correlacionar, analizar y consumir datos
- Incapacidad para experimentar e innovar con agilidad y bajo costo
En esta serie de dos partes, demostraré una solución funcional a través de un AWS CloudFormation acerca de cómo un CSP puede utilizar los activos de datos existentes para generar nuevos flujos de ingresos, mejorar y personalizar CX mediante los servicios de AWS. También incluyo información importante sobre estandarización de datos, línea base de un modelo analítico para combinar diferentes conjuntos de datos en el almacén de datos, análisis de autoservicio, búsqueda de metadatos y estructura de diccionario de medios.
En este blog, implementará la solución utilizando una plantilla de CloudFormation a través de pasos simples para transformar, enriquecer y recopilar múltiples conjuntos de datos para que puedan correlacionarse y consultarse.
En la parte 2, aprenderá cómo los usuarios de negocios avanzados pueden consultar datos enriquecidos y obtener información significativa mediante Amazon Redshift y Espectro de Amazon Redshift o Amazonas Atenea , habilite análisis de autoservicio para usuarios empresariales y publique paneles listos para usar a través de Amazon QuickSight .
Resumen de la solución
El ingrediente principal de esta solución son los datos de sondeo del conmutación de paquetes (PS) integrados en un Inspección profunda de paquetes (DPI), que puede revelar mucha información sobre los intereses del usuario y su comportamiento de uso. Estos datos se transforman y se enriquecen con datos de DPI y diccionarios de dispositivos, junto con otras transformaciones de telco estándar para identificar perspectivas, perfiles y microsegmentación de suscriptores. Los datos enriquecidos se ponen a disposición junto con otros atributos dimensionales transformados (CRM, suscripciones, medios, portadores, dispositivos y administración de configuración de red) para microsegmentar tantas veces como sea necesario.
Por ejemplo, las visualizaciones que aparecen a continuación QuickSight describen un caso de uso para identificar a los amantes de la música de entre 18 y 55 años con dispositivos Apple. También puede generar microsegmentos capturando los suscriptores X principales mediante el consumo o agregando KPI como reciente y frecuencia.
El siguiente diagrama ilustra el flujo de trabajo de la solución:
Para esta publicación de blog, AWS CloudFormation configurará la estructura de carpetas necesaria en Servicio de almacenamiento simple de Amazon (Amazon S3) y proporcionar datos de muestra y archivo de diccionario. La mayoría de los datos incluidos como parte de la plantilla CloudFormation son ficticios y son los siguientes:
- CRM
- Asignación de firmas y firma
- Gestión de configuración de red 3G y 4G
- Operador PLMN
- Datos de sonda PS
- DPI y diccionario de dispositivos
Las descripciones de todos los datos de entrada (input datasets) y atributos están disponibles a través de la herramienta AWS Glue Catálogo de datos y como parte de los metadatos de Amazon Redshift y para todas sus tablas.
El flujo de trabajo de este blog incluye los siguientes pasos:
1. Catalogue todos los archivos del catálogo de datos de AWS Glue mediante los siguientes rastreadores (Crawlers) de datos de AWS Glue:
a. rastreador de datos DPI (para rastrear datos DPI desde el sondeo PS de entrada)
b. Explorador de datos de dimensión (para asignar todos los datos de dimensión)
2. Actualizar descripciones de atributos en el Catálogo de datos (este paso es opcional).
3. Cree el esquema, las tablas, los procedimientos y los metadatos de Amazon Redshift mediante un AWS Lambda
4. Procese cada archivo de origen de datos mediante trabajos independientes de AWS Glue Spark. Estas tareas enriquecen, transforman y aplican las reglas de filtrado empresarial antes de ingerir datos en un clúster de Amazon Redshift.
5. Activa los procedimientos de agregación diaria y horaria de Amazon Redshift utilizando las funciones de Lambda para agregar datos de tablas sin procesar en tablas por hora y diaria.
La parte 2 incluye los siguientes pasos:
- Catalogue los datos sin procesar, agregados y procesados de dimensiones en el Catálogo de datos utilizando el rastreador de datos procesado por DPI.
- Consultar datos de forma interactiva directamente desde Amazon S3 mediante el Amazonas Atenea .
- Habilite el análisis de autoservicio con QuickSight para preparar y publicar información basada en datos almacenados en el clúster de Amazon Redshift.
El flujo de trabajo puede cambiar dependiendo de la complejidad de su entorno y su caso de uso, pero la idea fundamental sigue siendo la misma. Por ejemplo, su caso de uso podría ser procesar datos de DPI en tiempo real en lugar de por lotes, mantener los datos calientes en Amazon Redshift, almacenar datos históricos y fríos en Amazon S3 o archivar datos en Glaciar Amazon S3 para el cumplimiento normativo. Amazon S3 ofrece varias clases de almacenamiento diseñadas para diferentes casos de uso. Puede mover datos entre estas clases diferentes en función de las propiedades del ciclo de vida de Amazon S3. Para obtener más información, consulte Clases de almacenamiento de Amazon S3 .
Requisitos previos
Para esto paso a paso, debe tener los siguientes requisitos previos:
- Una cuenta en AWS
- Política de acceso Administrador otorgado a su cuenta a través de Administración de acceso e identidad de AWS (IAM)
- Los siguientes servicios de AWS:
- CloudFormation
- Amazon S3
- AWS Glue
- Amazon Redshift
- Lambda
- Atenea
- QuickSight
- Amazon CloudWatch
- Administrador de Secretos de Amazon
- Para obtener más información sobre las regiones de AWS y dónde están disponibles los servicios de AWS, consulte regiones .
Creación de recursos con AWS CloudFormation
Para empezar, cree sus recursos con la siguiente pila CloudFormation.
- Haga clic en el Iniciar pila a continuación:
- Deje los parámetros en los valores predeterminados, con las siguientes excepciones:
- Introducir parámetros RedshiftPassword y S3BucketNameParameter, que no se rellenan de forma predeterminada.
- Un nombre de bucket de Amazon S3 es único globalmente, así que introduzca un nombre de bucket único para S3BucketNameParameter.
La siguiente captura de pantalla muestra los parámetros para nuestro caso de uso.
3. Elegir Siguiente .
4. Seleccionar I acknowledge that AWS CloudFormation might create IAM resources with custom names.
5. Elegir Create stack.
El stack tarda aproximadamente 10 minutos en despleagarse. Para obtener más información acerca de las características clave implementadas por este stack, consulte Monetización de datos y optimización de la experiencia del cliente (CX) mediante activos de datos de telecomunicaciones: Detalles de la pila de Amazon CloudFormation . Puede ver todos los recursos en la consola de AWS CloudFormation. Para obtener instrucciones, consulte Visualización de los datos y recursos de la pila de AWS CloudFormation en AWS Management Console.
El stack de CloudFormation que proporcionamos en este artículo sólo sirve como punto de partida y no es una solución lista para la producción.
Creación de un catálogo de datos con AWS Glue
Comienza descubriendo datos de muestra almacenados en Amazon S3 a través de un rastreador de AWS Glue. Para obtener más información, consulte Rellenar el catálogo de datos de AWS Glue . Para catalogar los datos, siga los pasos siguientes:
- En la consola de AWS Glue, en el panel de navegación, elija Rastreadores.
- Seleccionar DPIRAWDataCrawler y elija Ejecutar rastreador.
- Seleccionar DimensionDataCrawler y elija Ejecutar rastreador.
4. Espere hasta que los rastreadores muestren el estado de stopping.
Las tablas añadidas con los rastreadores DimensionDataCrawlere y DPIRAWDataCrawler
deben mostrar 9 y 1 respectivamente.
5. En el panel de navegación, elija
6. Compruebe que las 10 tablas siguientes se han creado en la base de datos cemdm:
-
-
d_crm_demographics
-
d_device
-
diccionario
-
d_network_cm_3g
-
d_network_cm_4g
-
d_operator_plmn
-
d_tac
-
d_tariff_plan
-
d_tariff_plan_desc
-
raw_dpi_coming
-
Actualización de descripciones de atributos en el catálogo de datos
AWS Glue Data Catalog tiene un campo de comentarios para almacenar los metadatos en cada tabla de la base de datos de AWS Glue. Cualquier persona que tenga acceso a esta base de datos puede comprender fácilmente los atributos procedentes de diferentes fuentes de datos a través de metadatos proporcionados en el campo de comentarios. El stack de CloudFormation incluye un archivo CSV que contiene una descripción de todos los atributos de los archivos de origen. Este archivo se utiliza para actualizar el campo de comentario de todas las tablas de catálogo de datos que implementa este stack. Este paso no es necesario para continuar con el flujo de trabajo. Sin embargo, si desea actualizar el campo de comentario en cada tabla, siga los pasos siguientes:
- En la consola de Lambda, en el panel de navegación, elija Funciones .
- Elegir GlueCatalogUpdate
- Configure un evento de prueba seleccionando Configure test events.
- Para el Nombre del Evento en el cuadro de diálogo, escriba
Test
.
5. Elegir Crear.
6. Elegir Test.
Debería ver un mensaje de que la prueba se realizó correctamente, lo que significa que la descripción del atributo Catálogo de datos ha finalizado.
Los atributos de tabla de la base de datos del catálogo de datos ahora deben tener descripciones en el campo de Comentario. Por ejemplo, la siguiente imagen muestra la tabla d_operator_plmn.
Creación de esquemas, tablas, procedimientos y metadatos de Amazon Redshift
Para crear esquemas, tablas, procedimientos y metadatos en Amazon Redshift, siga estos pasos:
- En la consola de Lambda, en el panel de navegación, elija Funciones.
- Elegir FTDDLCCreation
- Elegir Configure test event.
- Para el Evento cuadro de diálogo, escriba
Test
.
5. Elegir Crear.
6. Elegir Test.
Debería ver un mensaje de advertencia de que la prueba se realizó correctamente, lo que significa que la generación de esquemas, tablas, procedimientos y metadatos se ha completado correctamente.
Ejecución de trabajos de AWS Glue ETL
AWS Glue ofrece capacidades de procesamiento sin servidor, escalables y distribuidas para transformar y enriquecer sus conjuntos de datos. Para realizar trabajos de extracción, transformación y carga de AWS Glue (ETL), realice los siguientes pasos:
1. En la consola de AWS Glue, en el panel de navegación, elija Trabajos .
2. Seleccione los siguientes trabajos (uno a la vez) y elija Ejecute el trabajo desde Acción
o d_customer_demographics
o d_device
o diccionario
o d_location
o d_operator_plmn
o d_tac
o d_tariff_plan
o d_tariff_plan_desc
o f_dpi_richment
Puede realizar todos estos trabajos en paralelo.
Todas las dimensiones de los trabajos de datos deben completarse correctamente en 3 minutos, y el trabajo de enriquecimiento de datos debería terminar en 5 minutos.
3. Compruebe que los trabajos se completan seleccionando cada trabajo y revisando Estado de la ejecución en la pestaña de Historial.
Agregar datos de PPP en Amazon Redshift por hora y por día
Para agregar datos de muestra cada hora y diaria en Amazon Redshift a través de las funciones de Lambda, siga estos pasos:
- En la consola de Lambda, en el panel de navegación, elija Funciones .
- Elegir el rol FTDPIHOURLYAGG .
- Elegir Configure test event.
- Para el nombre del evento cuadro de diálogo, escriba
Test
.
5. Elegir Crear.
6. Elegir Test.
Debería ver un mensaje de advertencia de que la prueba se realizó correctamente, lo que significa que la agregación horaria se completó correctamente.
7. En el panel de navegación, elija Funciones .
8. Elegir el rol FTDPidailyagg .
9. Elegir Configurar eventos de prueba .
10. Para el nombre del evento, escriba Test
11. Elegir Crear.
12. Elegir Test.
Debería ver un mensaje de advertencia de que la prueba se realizó correctamente, lo que significa que la agregación diaria se ha completado.
Las funciones Lambda por hora y diaria están codificadas con la fecha y hora para agregar los datos de muestra. Para hacerlos genéricos, hay algunas líneas de código comentadas en que necesitan dejar de ser comentadas y algunas líneas que deben comentarse. Ambas funciones también están equipadas con parámetros de desplazamiento para decidir cuánto tiempo desea realizar agregaciones. Sin embargo, esto no es necesario para este paso a paso.
Usted puede programar estas funciones con Cloudwatch . Sin embargo, esto no es necesario para este paso a paso.
Hasta ahora, hemos completado los siguientes pasos:
- Implementación del stack de CloudFormation.
- Catálogo de ejemplos de datos sin procesar, ejecución de AWS Glue Crawlers
DimensionDataCrawler
yDPIRAWDataCrawler
. - Actualizar descripciones de atributos en AWS Glue Data Catalog con la función Lambda
Gluecatalogupdato
- Creación de esquemas, tablas, procedimientos almacenados y metadatos de Amazon Redshift mediante la función Lambda
FTDDLCreation
- Ejecución de todos los trabajos de AWS Glue ETL para transformar datos sin procesar y cargarlos en sus respectivas tablas de Amazon Redshift.
- Agregue datos diarios y por hora a partir de datos brutos enriquecidos en tablas de Amazon Redshift cada hora y por día mediante la realización de funciones de Lambda
FTDPIHOURLYAGG y FTDPidailyagg
.
Limpieza
Si no planea proceder a la parte 2 de esta serie y desea evitar incurrir en cargos futuros, elimine los recursos creados eliminando el stack de CloudFormation.
Conclusión
En esta publicación, demostré cómo puede transformar, enriquecer y recopilar fácilmente varios datasets de telecomunicaciones en un clúster de almacén de datos de Amazon Redshift. Puede correlacionar estos conjuntos de datos para producir información multidimensional desde varios ángulos, como suscriptor, red, dispositivo, suscripción, itinerancia y mucho más.
En la parte 2 de esta serie , demuestro cómo puede permitir que analistas de datos, científicos y usuarios empresariales consulten datos directamente de Amazon Redshift o Amazon S3.
Como siempre, AWS agradece sus comentarios. Este es un gran espacio para explorar, así que póngase en contacto con nosotros si desea profundizar en la creación de esta solución y mucho más en AWS. Envíe comentarios o preguntas en la sección de comentarios.
Este artículo fue traducido del Blog de AWS en Inglés
Sobre o autor
Vikas Omer es un Arquitecto de Soluciones Experto en Análisis para Amazon Web Services. Vikas tiene una sólida experiencia en análisis, administración de la experiencia del cliente (EMC) y monetización de datos, con más de 11 años de experiencia en la industria de telecomunicaciones a nivel mundial. Con seis certificaciones de AWS, incluida la especialidad de análisis, es un asesor analítico de confianza para clientes y socios de AWS. Le encanta viajar, conocer a los clientes y ayudarles a tener éxito en lo que hacen.
Tradutor
Manuel Puron es un arquitecto de soluciones especialista en Telecomunicaciones, con experiencia en análisis de datos y seguridad.