Saltar al contenido principal

Biblioteca de soluciones de AWS

Guía para obtener información sobre las redes sociales en AWS

Información general

Esta guía muestra cómo obtener información en torno a opiniones, entidades, ubicaciones y temas a partir de publicaciones en redes sociales, reseñas de clientes u otro contenido abreviado. Con el código de muestra adjunto, se proporciona una base de código que sirve como sistema de extracción de información. Este sistema extrae información de varias plataformas de redes sociales, incluidas X, Facebook e Instagram, mediante un modelo de lenguaje de gran tamaño (LLM), lo que proporciona información útil sobre sus productos y servicios.

Funcionamiento

Esta guía le ayuda a obtener información sobre lo que dicen sus clientes sobre sus productos y servicios en sitios web de redes sociales como X, Facebook e Instagram. En lugar de filtrar las publicaciones manualmente, puede crear un sistema de alertas prácticamente en tiempo real que consuma datos de las redes sociales y extraiga información, como temas, entidades, opiniones y ubicación, mediante un modelo lingüístico extenso (LLM) en Amazon Bedrock.

Implemente con confianza

¿Todo listo para la implementación? Revise el código de ejemplo en GitHub para obtener instrucciones de despliegue detalladas para implementarlas tal cual o personalizarlas para que se ajusten a tus necesidades.

Ir al código de muestra

Pilares de AWS Well-Architected Framework

El diagrama de arquitectura mencionado es un ejemplo de una solución que se creó teniendo en cuenta las prácticas recomendadas de una buena arquitectura. Para tener completamente una buena arquitectura, debe seguir todas las prácticas recomendadas de buena arquitectura posibles.

Amazon CloudWatch mantiene registros de las operaciones realizadas en el flujo de trabajo de procesamiento de textos, lo que permite supervisar de manera eficiente el estado de las aplicaciones. Amazon CloudFormation permite la reproducibilidad de la implementación y también puede revertirse a un estado estable en caso de que la implementación falle. Además, Amazon Bedrock es un servicio administrado para usar LLM a través de una interfaz sencilla. Esta combinación de supervisión, despliegues reproducibles y el uso de LLM administrados por AWS ofrece potentes capacidades de procesamiento del lenguaje natural sin tener que administrar la infraestructura subyacente.

Lea el documento técnico sobre excelencia operativa

Los datos almacenados en Amazon S3 se cifran en reposo con las claves de AWS Key Management Service (AWS KMS) y AWS Identity and Access Management (IAM) se utiliza para controlar el acceso a los datos. En concreto, AWS KMS ayuda a crear y administrar las claves de cifrado que se utilizan para cifrar de forma segura los datos almacenados en Amazon S3. Mientras que IAM ofrece la capacidad de configurar permisos granulares en función de las funciones para el control de acceso con privilegios mínimos a esos datos.

Lea el documento técnico sobre seguridad

Los datos se almacenan en Amazon S3, un servicio de almacenamiento de objetos que ofrece una durabilidad del 99,9% (11 nueves). Los LLM se invocan con Amazon Bedrock a través de una interfaz de API sencilla y eficaz que puede ampliarse y reducirse automáticamente. Athena, QuickSight y AWS Glue se utilizan para consultar y visualizar los datos a escala sin necesidad de aprovisionar infraestructura.

Lea el documento técnico sobre fiabilidad

Mediante el uso de varios servicios de AWS administrados y sin servidor, esta guía está diseñada para que sus cargas de trabajo logren una alta eficiencia en el rendimiento, escalen los recursos de forma automática para satisfacer las demandas de la carga de trabajo y proporcionen una experiencia fluida para que pueda acceder a la información de sus plataformas de redes sociales. Por ejemplo, Lambda , un servicio de procesamiento sin servidor, se amplía y reduce automáticamente según la demanda, lo que garantiza que la capacidad de procesamiento esté optimizada para la carga de trabajo. Con Amazon Bedrock , puede invocar LLM desde un catálogo extenso sin necesidad de aprovisionar y administrar los servidores subyacentes.

Lea el documento técnico sobre eficacia del rendimiento

Lambda se usa en esta arquitectura para procesar eventos e iniciar el análisis de transformación por lotes, lo que elimina la necesidad de un servidor en ejecución continua. Además, los trabajos de AWS Glue se utilizan para extraer, transformar y cargar (ETL) en lotes de datos de usuario, en lugar de en registros individuales. Debido al agregado y procesamiento de datos en fragmentos más grandes, se reducen los requisitos generales de computación y almacenamiento, lo que se traduce en costos más bajos en comparación con el manejo de cada registro de forma individual. Por último, Amazon Bedrock permite el uso de la LLN que mejor se adapte a sus necesidades presupuestarias para no incurrir en gastos innecesarios asociados a modelos más potentes, pero potencialmente sobreaprovisionados.

Lea el documento técnico sobre optimización de costos

Lambda , AWS Glue , Athena y QuickSight son todos servicios sin servidor que funcionan bajo demanda y ajustan su uso de recursos para adaptarse a la carga de trabajo actual. Esto ayuda a garantizar que el rendimiento y el uso de los recursos se maximicen, ya que los servicios se escalan y se reducen verticalmente de forma automática para adaptarse a la demanda requerida. Mediante el uso de estas ofertas sin servidor, esta arquitectura puede utilizar de manera eficiente los recursos necesarios y así evitar el sobreaprovisionamiento o la infrautilización de los componentes de computación, almacenamiento y otros componentes de la infraestructura.

Lea el documento técnico sobre sostenibilidad

Contenido relacionado

Blog de aprendizaje automático de AWS

Build a news-based real-time alert system with Twitter, Amazon SageMaker, and Hugging Face

En esta publicación se muestra cómo crear un sistema de alertas en tiempo real que consuma las noticias de X y clasifique los tuits mediante un modelo preentrenado de Hugging Face Hub.

Descargo de responsabilidad

El código de muestra; las bibliotecas de software; las herramientas de línea de comandos; las pruebas de concepto; las plantillas; o cualquier otra tecnología relacionada (incluida cualquiera de las anteriores que proporcione nuestro personal) se brinda como contenido de AWS bajo el Contrato de cliente de AWS, o el contrato escrito pertinente entre usted y AWS (lo que sea aplicable). No debe utilizar este contenido de AWS en sus cuentas de producción, ni en producción ni en otros datos críticos. Es responsable de probar, proteger y optimizar el contenido de AWS, como el código de muestra, según corresponda para el uso de grado de producción en función de sus prácticas y estándares de control de calidad específicos. La implementación de contenido de AWS puede incurrir en cargos de AWS por crear o utilizar recursos con cargo de AWS, como poner en marcha instancias de Amazon EC2 o utilizar el almacenamiento de Amazon S3.