AWS Clean Rooms lance la prise en charge de Spark SQL avec une taille de calcul configurable

Publié le: 29 oct. 2024

AWS annonce aujourd'hui le lancement d'AWS Clean Rooms Spark SQL, qui permet aux clients d'exécuter des requêtes personnalisées à l'aide de Spark SQL. Grâce à ce lancement, les clients peuvent créer une collaboration AWS Clean Rooms à l'aide du moteur d'analyse Spark et prendre en charge des charges de travail de différentes tailles avec des types d'instances configurables lors de l'exécution des requêtes.

Avec AWS Clean Rooms Spark SQL, vous pouvez interroger de grands jeux de données à l'aide du dialecte Spark SQL couramment utilisé. AWS Clean Rooms Spark SQL offre une flexibilité accrue pour personnaliser et allouer des ressources afin d'exécuter des requêtes SQL en fonction de vos exigences en matière de performances, de mise à l’échelle et de coûts. Par exemple, les clients peuvent utiliser des configurations d'instances de grande taille pour satisfaire aux performances requises pour leurs jeux de données et leurs requêtes complexes, ou des instances plus petites pour optimiser les coûts. Il s'agit du dernier ajout aux multiples fonctionnalités d'analyse SQL d'AWS Clean Rooms, notamment l'agrégation, les listes et les règles d'analyse personnalisées, Clean Rooms ML, la confidentialité différentielle et le générateur d'analyse sans code.

AWS Clean Rooms Spark SQL est généralement disponible dans ces régions AWS et uniquement pour la règle d'analyse personnalisée. AWS Clean Rooms aide les entreprises et leurs partenaires à analyser plus facilement leurs jeux de données collectifs et à collaborer sans révéler ni copier les données sous-jacentes des autres. Les entreprises peuvent déployer leurs propres salles blanches sans avoir à créer, gérer ou maintenir leurs propres solutions et sans déplacer de données en dehors de leur environnement AWS. Pour en savoir plus, rendez-vous sur AWS Clean Rooms.