Bei Amazon Athena zahlen Sie nur das, was Sie tatsächlich nutzen. Es gibt keine Vorabgebühren, Mindestgebühren und langfristigen Verträge. Die Nutzung wird Ihnen am Ende des Monats in Rechnung gestellt. 

Zu Beginn erstellen Sie eine Arbeitsgruppe, in der Sie Ihre Abfrage-Engine, Ihr Arbeitsverzeichnis im Amazon Simple Storage Service (S3), in dem die Ergebnisse Ihrer Ausführung gespeichert werden, AWS-Identitäts- und Zugriffmanagement (IAM)-Rollen (falls erforderlich) und Ihre Ressourcen-Tags angeben können. Sie können Arbeitsgruppen verwenden, um Benutzer, Teams, Anwendungen oder Workloads zu trennen, Grenzen für die Datenmenge festzulegen, die jede Abfrage oder die gesamte Arbeitsgruppe verarbeiten kann, und Kosten zu verfolgen. Auf der Grundlage der von Ihnen erstellten Arbeitsgruppe können Sie entweder (a) SQL-basierte Abfragen ausführen und die Anzahl der gescannten Bytes in Rechnung stellen oder (b) Apache Spark Python-Code ausführen und einen Stundensatz für die Ausführung Ihres Codes in Rechnung stellen.

Preis pro Abfrage

Sparen Sie bares Geld durch Komprimierung, Partitionierung und Konvertierung Ihrer Daten in ein Spaltenformat

Sie sparen sich 30 % bis 90 % Ihrer Abfragekosten und erhalten eine bessere Leistung, wenn Sie Ihre Daten vor der Abfrage komprimieren, partitionieren und in ein Spaltenformat konvertieren.

Preisdetails

SQL-basierte Abfragen mit einem Abfrage-Editor oder der AWS-Befehlszeilenschnittstelle (CLI) 

Dabei richtet sich die Gebühr nach der Menge der pro Abfrage durchsuchten Daten. Erhebliche Kosten können Sie sich sparen – bei großen Leistungsgewinnen –, wenn Sie Ihre Daten komprimieren, partitionieren oder in ein Spaltenformat konvertieren, denn jedes dieser Verfahren reduziert die Menge der Daten, die Athena während einer Abfrage durchsuchen muss.

Die Gebühren berechnen sich aus der Anzahl der Bytes, die Athena durchsucht, gerundet auf Megabyte, wobei pro Abfrage mindestens 10 MB berechnet werden. Für Data Definition Language-Anweisungen (DDL) wie CREATE, ALTER oder DROP TABLE, Anweisungen für die Verwaltung von Partitionen oder fehlgeschlagene Abfragen werden keine Gebühren berechnet. Für abgebrochene Abfragen werden Gebühren auf Basis der bereits durchsuchten Datenmenge berechnet.

Durch Komprimierung Ihrer Daten verringern Sie die Menge der von Athena durchsuchten Daten. Wenn Sie Ihre Daten in ein Spaltenformat umwandeln, kann Athena sich auf die Spalten beschränken, die zum Verarbeiten der Daten erforderlich sind. Athena unterstützt Apache ORC und Apache Parquet. Wenn Sie Ihre Daten in Partitionen aufteilen, kann Athena ebenfalls die Menge der abgerufenen Daten einschränken. Dies führt zu Kosteneinsparungen und besserer Leistung. Die Menge der pro Abfrage durchsuchten Daten wird auf der Athena-Konsole angezeigt. Weitere Informationen hierzu finden Sie im unten stehenden Preisbeispiel.

Preise für Verbundabfragen

Ihnen wird die Anzahl der von Athena gescannten Bytes berechnet, die über alle Datenquellen aggregiert und auf das nächste Megabyte aufgerundet werden, mit einem Minimum von 10 MB pro Abfrage.

Führen Sie Apache Spark Python-Code mit Notebooks oder AWS CLI aus

Sie zahlen nur für die Zeit, die Ihre Apache Spark-Anwendung zur Ausführung benötigt. Sie zahlen einen Stundenpreis auf der Basis der Zahl von Data Processing Units (oder DPUs), die zum Ausführen Ihrer Apache Spark-Anwendung genutzt werden. Eine einzelne DPU bietet 4 vCPU und 16 GB Speicher. Sie bezahlen in Schritten von 1 Sekunde, aufgerundet auf die nächste Sekunde.

Wenn Sie eine Spark-Sitzung starten, indem Sie entweder ein Notebook in der Athena-Konsole starten oder die Athena-API verwenden, werden zwei Knoten für die Anwendung bereitgestellt: ein Notebook-Knoten, der als Server für die Benutzeroberfläche des Notebooks fungiert, und ein Spark-Treiberknoten, der die Spark-Anwendung koordiniert und mit allen Spark-Worker-Knoten kommuniziert. Die Spark-Worker-Knoten sind für die Ausführung der Aufgaben der Spark-Anwendung verantwortlich. Nachdem Sie eine Sitzung gestartet haben, können Sie eine Spark-Anwendung entweder durch die Ausführung von Zellen in Ihrem Notebook oder mit der API Start-Kalkulation-Ausführung ausführen. Wenn Sie eine Spark-Anwendung ausführen, stellt Athena Spark Worker-Knoten für Ihre Anwendung bereit. Wenn die Ausführung Ihrer Anwendung abgeschlossen ist, werden die Worker-Knoten freigegeben. Da Athena für Apache Spark Ressourcen sofort automatisch herunterskaliert, minimiert Athena die Leerlaufgebühren, die Sie zahlen. Wenn die Spark-Sitzung beendet ist, werden der Treiber, alle Worker-Knoten und Notebook-Knoten freigegeben. Athena berechnet Ihnen für Treiber- und Worker-Knoten eine Gebühr für die Dauer der Sitzung. Athena bietet Notebooks zur Konsole als Benutzerschnittstelle zur Erstellung, zum Einreichen und Ausführen von Spark-Anwendungen und bietet Ihnen diese ohne Zusatzkosten an. Athena berechnet für die Notebook-Knoten, die während der Spark-Sitzung verwendet werden, keine Gebühren.

Weitere Kosten

Amazon Athena fragt die Daten direkt aus Amazon S3 ab. Für die Abfrage Ihrer Daten mit Athena fallen keine zusätzlichen Speichergebühren an. Für die Nutzung von Amazon S3 werden Ihnen die Standardtarife von S3 für Speicher, Anforderungen und Datenübertragung berechnet. Die Abfrageergebnisse werden standardmäßig in einem S3-Bucket Ihrer Wahl gespeichert, der ebenfalls zu den Standardtarifen von S3 berechnet wird.

Wenn Sie den AWS Glue-Datenkatalog mit Athena verwenden, werden die Standardraten des Datenkatalogs berechnet. Einzelheiten finden Sie auf der Seite Preise für AWS Glue.

Zusätzlich werden Ihnen Standardtarife für die AWS-Services berechnet, die Sie mit Athena nutzen, wie z. B. Amazon S3, AWS Lambda, AWS Glue und Amazon SageMaker. Für Speicher, Anforderungen und regionübergreifende Datenübertragung werden Ihnen zum Beispiel S3-Tarife berechnet. Die Abfrageergebnisse werden standardmäßig in einem S3-Bucket Ihrer Wahl gespeichert, der ebenfalls zu den Standardtarifen von S3 berechnet wird. Wenn Sie Lambda verwenden, wird Ihnen die Anzahl der Anforderungen für Ihre Funktionen sowie die Dauer (Zeit bis zur Ausführung des Codes) berechnet.

Verbundabfragen rufen Lambda-Funktionen in Ihrem Konto auf, und die Lambda-Nutzung wird Ihnen zu Standardtarifen in Rechnung gestellt. Lambda-Funktionen, die durch Verbundabfragen aufgerufen werden, unterliegen der freien Stufe von Lambda. Einzelheiten finden Sie auf der Seite Preise für Lambda.

Preisbeispiel

Beispiel 1 – SQL-Abfrage

Beispiel: Eine Tabelle mit 4 gleich großen Spalten, gespeichert als nicht komprimierte Textdatei, mit einer Gesamtgröße von 3 TB auf Amazon S3. Für eine Abfrage der Daten aus nur einer Spalte muss Amazon Athena die gesamte Datei durchsuchen, da Textformate nicht teilbar sind.

  • Diese Abfrage kostet: 15 USD. (Preis für drei 3 TB durchsuchter Daten: 3 * 5 USD/TB = 15 USD)

Wenn Sie diese Datei mit GZIP in einem Verhältnis von 3:1 komprimieren. erhalten Sie eine komprimierte Datei mit einer Größe von 1 TB. Die gleiche Abfrage würde dann nur noch 5 USD kosten. Auch hier muss Athena die gesamte Datei durchsuchen. Da sich ihre Größe aber auf ein Drittel reduziert hat, zahlen Sie gegenüber des vorherigen Beispiels nur ein Drittel der Gebühren. Wenn Sie die Datei zusätzlich zur Komprimierung (bei einem Verhältnis von 3:1) auch in ein Spaltenformat wie Apache Parquet konvertieren, werden nach wie vor 1 TB auf S3 hochgeladen. Im Spaltenformat von Parquet muss Athena nur die für die Abfrage relevanten Spalten lesen. Da die durchgeführte Abfrage nur eine Spalte referenziert, liest Athena nur diese Spalte, so dass drei-Viertel der Datei entfallen. Athena liest also nur ein Viertel der Datei und durchsucht so nur 0,25 TB der in S3 gespeicherten Daten.

  • Diese Abfrage kostet: 1,25 USD. Die Komprimierung bringt eine 3-fache und das Lesen von nur einer Spalte eine 4-fache Einsparung. 
    (Dateigröße = 3 TB/3 = 1 TB. Durchsuchte Daten, wenn nur eine Spalte eingelesen wird = 1 TB/4 = 0,25 TB. Preis für 0,25 TB = 0,25 * 5 USD/TB = 1,25 USD)

Beispiel 2 - Apache Spark-Anwendung

Beispiel: Sie möchten ein Notebook in der Athena-Konsole verwenden, um die Umsatzzahlen für das vorangegangene Quartal abzurufen und sie in einem Bericht grafisch darzustellen. Dann beginnen Sie eine Sitzung mit einem Notebook. Ihre Sitzung dauert 1 Stunde und Sie erhalten 6 Berechnungen als Teil der Sitzung. Jede dieser Berechnungen benötigt 20 1-DPU-Worker-Knoten und dauert 1 Minute.

  • Worker-DPU-Stunden = Anzahl der Berechnungen * DPU verwendet pro Berechnungen * Ausführungszeit der Berechnung = 6 Berechnungen * 20 DPU pro Berechnung (1/60) Stunden pro Berechnung = 2,0 DPU-Stunden
  • Driver-DPU-Stunden = verwendete DPU pro Sitzung * Sitzungszeit = 1 DPU pro Sitzung * 1 Stunde pro Sitzung = 1,0 DPU-Stunde
  • Gesamt DPU-Stunden = Worker-DPU-Stunden + Driver-DPU-Stunden = 2,0 DPU-Stunden + 1,0 DPU-Stunden = 3,0 DPU Stunden
  • Spark-Anwendungsgebühren = 0,35 USD pro DPU-Stunde * 3,0 DPU-Stunden = 1,05 USD

Hinweis: S3 stellt Ihnen das Speichern und Lesen Ihrer Daten und der Ergebnisse Ihrer Ausführung separat in Rechnung.

Zusätzliche Ressourcen zur Preiskalkulation

AWS Pricing Calculator

Berechnen Sie Ihre monatlichen Nutzungskosten für AWS auf einfache Art und Weise

Erhalten Sie Unterstützung bei der Preisberechnung

Kontaktieren Sie AWS-Spezialisten, um ein personalisiertes Angebot zu erhalten

Seite „Erste Schritte“ besuchen

Machen Sie sich mit den ersten Schritten in Amazon Athena vertraut.

Weitere Informationen »
Beginnen Sie mit der Entwicklung in der Konsole

Beginnen Sie mit dem Erstellen von Amazon Athena in der AWS-Managementkonsole.

Anmelden »
Einen Experten kontaktieren

Erkunden Sie die Supportmöglichkeiten für Amazon Athena.

Kontaktieren Sie uns »