Avec Amazon Athena, vous payez uniquement ce que vous consommez. Aucun frais initial, ni aucun engagement minimum ou contrat à long terme n’est requis. Votre utilisation est facturée à la fin du mois. 

Pour commencer, vous créez un groupe de travail qui vous permettra de spécifier votre moteur de requête, votre répertoire de travail dans Amazon Simple Storage Service (S3) pour contenir les résultats de votre exécution, les rôles de gestion des identités et des accès AWS (AWS IAM) (si nécessaire), et vos étiquettes de ressources. Vous pouvez utiliser les groupes de travail pour séparer les utilisateurs, les équipes, les applications ou les charges de travail ; fixer des limites sur la quantité de données que chaque requête ou l'ensemble du groupe de travail peut traiter ; et suivre les coûts. En fonction du groupe de travail que vous créez, vous pouvez soit (a) exécuter des requêtes SQL et être facturé pour le nombre d'octets analysés, soit (b) exécuter du code Apache Spark Python et être facturé à l'heure pour l'exécution de votre code.

Prix par requête

Réalisez encore plus d'économies grâce aux formats de données en colonnes et au partitionnement et à la compression de données

Vous pouvez désormais économiser entre 30 à 90 % par requête et bénéficier de meilleures performances en compressant, partitionnant et convertissant vos données en formats en colonnes.

Informations de tarification

Requêtes SQL à l'aide d'un éditeur de requêtes ou Interface de la ligne de commande AWS (AWS CLI) 

Vous êtes facturé en fonction de la quantité de données analysées par chaque requête. Vous pouvez réaliser des économies importantes et bénéficier de meilleures performances en compressant vos données, en les partitionnant ou en les convertissant dans un format en colonnes, car chacune de ces opérations réduit la quantité de données qu'Athena doit analyser pour exécuter une requête.

Vous êtes facturé en fonction du nombre d'octets analysés par Athena, arrondi au mégaoctet supérieur le plus proche, avec un minimum de 10 Mo par requête. Aucuns frais ne vous sont facturés pour les instructions DDL (Data Definition Language) comme CREATE/ALTER/DROP TABLE, les instructions de gestion des partitions et les requêtes ayant échoué. Les requêtes annulées sont facturées en fonction de la quantité de données analysées.

La compression permet à Athena d'analyser moins de données. Lorsque vos données sont converties à des formats en colonnes, Athena lit uniquement les colonnes nécessaires pour traiter les données. Athena prend en charge Apache ORC et Apache Parquet. Le partitionnement des données permet également à Athena de réduire la quantité de données analysées. Cela vous permet à la fois de réduire vos coûts et d'améliorer les performances. Vous pouvez voir la quantité de données analysées par requête sur la console Athena. Pour plus d'informations, consultez l'exemple de tarification ci-dessous.

Tarification des requêtes fédérées

Vous êtes facturé en fonction du nombre d'octets analysés par Athena sur toutes les sources de données, arrondi au mégaoctet supérieur, avec un minimum de 10 Mo par requête.

Exécuter le code Python d'Apache Spark à l'aide des blocs-notes ou de AWS CLI

Vous ne payez que pour le temps pendant lequel votre application Apache Spark tourne. Vous êtes facturé à l'heure en fonction du nombre d'unités de traitement de données (ou DPU) utilisées pour exécuter votre application Apache Spark. Une seul DPU fournit 4 vCPU et 16 Go de mémoire. Vous serez facturé au tarif de 1 USD par tranche d'une seconde, arrondie à la seconde la plus proche.

Lorsque vous démarrez une session Spark, soit en lançant un bloc-notes sur la console Athena, soit en utilisant l'API Athena, deux nœuds sont provisionnés pour votre application : un nœud de bloc-notes qui agira comme le serveur pour l'interface utilisateur du bloc-notes et un nœud pilote Spark qui se coordonnera avec l'application Spark et communiquera avec tous les composants master Spark. Les composants master Spark sont responsables de l'exécution des tâches de l'application Spark. Après avoir démarré une session, vous pouvez exécuter une application Spark soit en exécutant des cellules dans votre bloc-notes, soit en utilisant l'API start-calculation-execution. Lorsque vous exécutez une application Spark, Athena provisionne les composants master Spark pour votre application. Lorsque votre application termine son exécution, les composants master sont libérés. Comme Athena pour Apache Spark réduit instantanément les ressources, Athena minimise les frais d'inactivité que vous payez. Lorsque la session Spark est finalisée, le pilote, les composants master et les nœuds de blocs-notes sont libérés. Vous serez facturé par Athena pour la durée de la session du nœud pilote et du composant master. Athena fournit les blocs-notes sur la console en tant qu'interface utilisateur pour la création, l'envoi et l'exécution des applications Spark et vous offre ceci sans coût supplémentaire. Athena ne facture pas les nœuds de bloc-notes utilisés au cours de la session Spark.

Coûts supplémentaires

Athena lance des requêtes de données directement depuis Amazon S3. Les requêtes de données avec Athena n'entraînent aucuns frais de stockage supplémentaires. Le stockage, les requêtes et le transfert de données sont facturés selon les tarifs Amazon S3 standard. Par défaut, les résultats de requêtes sont stockés dans le compartiment S3 de votre choix et sont également facturés selon les tarifs S3 standard.

Si vous utilisez le catalogue de données AWS Glue avec Athena, le tarif standard du catalogue de données s'applique. Pour plus d'informations, consultez la page de tarification d'AWS Glue.

De plus, vous êtes facturé au tarif standard pour les services AWS que vous utilisez conjointement avec Athena, par exemple Amazon S3, AWS Lambda, AWS Glue et Amazon SageMaker. À titre d'illustration, le stockage, les requêtes et le transfert de données entre régions sont facturés selon les tarifs S3. Par défaut, les résultats de requêtes sont stockés dans le compartiment S3 de votre choix et sont également facturés selon les tarifs S3 standard. Si vous utilisez Lambda, vous êtes facturé en fonction du nombre de requêtes pour vos fonctions et pour la durée, c'est-à-dire le temps nécessaire à l'exécution de votre code.

Les requêtes fédérées appellent les fonctions Lambda de votre compte, et vous êtes alors facturé au tarif standard pour l'utilisation de Lambda. Les fonctions Lambda appelées par les requêtes fédérées sont soumises à l'offre gratuite de Lambda. Pour plus d'informations, consultez la page de tarification Lambda.

Exemple de tarification

Exemple 1 – requête SQL

Imaginons une table contenant 4 colonnes de même taille, stockée dans un fichier texte non compressé et d'une taille totale de 3 To sur Amazon S3. Pour exécuter une requête afin d'obtenir des données auprès d'une colonne de la table, Amazon Athena doit analyser la totalité du fichier, car les formats texte ne peuvent pas être divisés.

  • Cette requête reviendrait à 15 USD. (Prix de l'analyse de 3 To : 3 * 5 USD/To = 15 USD.)

Si vous compressez le fichier au format GZIP, vous pourriez constater des gains de compression de 3:1. Dans ce cas, vous obtiendrez un fichier compressé de 1 To. L'exécution de la même requête sur ce fichier reviendrait alors à 5 USD. Athena doit à nouveau analyser la totalité du fichier, mais étant donné que ce dernier est trois fois plus petit, vous payez un tiers du prix précédent. Si vous compressez le fichier et le convertissez également dans un format en colonnes tel qu'Apache Parquet (compression de 3:1), vous obtiendrez au final 1 To de données sur S3. Cependant, dans ce cas, étant donné que Parquet est un format en colonnes, Athena ne peut lire que la colonne concernée par la requête. Puisque la requête en question ne référence qu'une seule colonne, Athena ne lit que cette colonne et cela lui évite ainsi de lire les trois quarts du fichier. Dans la mesure où Athena ne lit qu'un quart du fichier, le service analyse seulement 0,25 To de données depuis S3.

  • Cette requête reviendrait à 1,25 USD. La compression permet de réaliser trois fois plus d’économies, tandis que la lecture d'une seule colonne, permet de réaliser quatre fois plus d'économies. 
    (Taille du fichier = 3 To/3 = 1 To. Volume de données analysées lors de la lecture d'une seule colonne = 1 To/4 = 0,25 To. Prix de l'analyse de 0,25 To : 0,25 * 5 USD/To = 1,25 USD)

Exemple 2 – Application Apache Spark

Envisagez d'utiliser un bloc-notes dans la console Athena pour extraire les chiffres de vente du trimestre précédent et les représenter graphiquement pour créer un rapport. Vous commencez une session en utilisant un bloc-notes. Votre session dure 1 heure et vous soumettez 6 calculs dans le cadre de la session. Chaque calcul nécessite 20 composant master 1-DPU et dure une minute.

  • Heures-UPD du travailleur = Nombre de calculs * UPD utilisées par calculs * temps d'exécution du calcul = 6 calculs * 20 UPD par calcul * (1/60) heures par calcul = 2,0 heures-UPD
  • Heures-UPD du pilote = DPUs utilisés par session * temps de session = 1 DPUs par session * 1 heure par session = 1.0 DPU-heures
  • Total des UDP-heures = UDP-heures du travailleur + UDP-heures du pilote= 2,0 UDP-heures + 1,0 UDP-heures = 3,0 UDP-heures
  • Frais d'application Spark = 0,35 USD par heure DPU * 3,0 heures DPU = 1,05 USD.

Remarque : S3 vous facturera séparément le stockage et la lecture de vos données et des résultats de votre exécution.

Ressources de tarification supplémentaires

Calculateur de tarification AWS

Calculer facilement vos coûts mensuels avec AWS

Obtenir une assistance pour la tarification

Contacter les spécialistes AWS pour obtenir un devis personnalisé

Consultez la page de démarrage

Apprenez comment utiliser Amazon Athena.

En savoir plus »
Commencer à créer dans la console

Commencez à créer avec Amazon Athena dans Console de gestion AWS.

Se connecter »
Contacter un expert

Explorez les options de prise en charge d'Amazon Athena.

Contactez-nous »