I costi di Amazon Data Firehose sono calcolati in base al volume di dati importati dal servizio. Non sono previsti costi di configurazione né impegni anticipati. Esistono quattro tipi di utilizzo on demand di Data Firehose: importazione, conversione del formato, distribuzione del VPC e partizione dinamica. Potrebbero essere applicati costi di trasferimento dei dati aggiuntivi.
Importazione di PUT Diretto e KDS come origine
Le funzioni base di un flusso Firehose sono l'importazione e la distribuzione. Il costo dell'acquisizione dei dati è suddiviso e fatturato per ogni GB acquisito con incrementi di 5 KB (un registro da 3 KB viene fatturato come 5 KB, un registro da 12 KB viene fatturato come 15 KB, ecc.). Non sono previsti costi aggiuntivi per Data Firehose per la distribuzione, a meno che non vengano utilizzate funzionalità opzionali.
Importazione di MSK come origine
Le funzioni base di un flusso Firehose sono l'importazione e la distribuzione. Il prezzo di importazione è suddiviso in livelli e fatturato per GB importati senza incrementi di 5 KB. I prezzi sono suddivisi in più livelli e fatturati per GB in base al valore più elevato tra byte inseriti e byte consegnati. La fatturazione si basa sul volume di dati, non è previsto alcun arrotondamento delle dimensioni dei record.
Importazione di Vended Log come origine
Per i registri originati da Vended Log, il prezzo di importazione è suddiviso in livelli e fatturato per GB importati senza incrementi di 5 KB.
Conversione del formato (opzionale)
È possibile attivare la conversione del formato da JSON ad Apache Parquet o Apache ORC a una tariffa per GB basata sui GB importati con incrementi pari a 5 KB.
Distribuzione del VPC (opzionale)
Per i flussi Firehose con una destinazione che risiede in un VPC Amazon, verrà addebitata la quantità di dati distribuiti alla destinazione nel VPC e ogni ora in cui il flusso Firehose è attivo in ciascuna zona di disponibilità. Ogni ora parziale sarà fatturata come un'ora completa.
Partizione dinamica per distribuzione Amazon S3 (facoltativo)
Puoi abilitare il partizionamento dinamico per raggruppare continuamente i dati partizionando le chiavi nei tuoi record (come "customer_id") e fornire i dati raggruppati dalle chiavi di partizionamento ai prefissi Amazon S3 corrispondenti. Con il partizionamento dinamico, paghi in base alla quantità di dati elaborati tramite il partizionamento dinamico e per oggetto consegnato ad Amazon S3. Se si utilizza il parser JQ per il partizionamento dinamico, si paga per ora di elaborazione per l'analisi JQ.
Decompressione dei file di log CloudWatch (opzionale)
Per i record provenienti dai file di log CloudWatch, se la decompressione è abilitata, il prezzo di decompressione viene fatturato per ogni GB decompresso.
Snowflake come destinazione
Per i flussi Firehose configurati con Snowflake come destinazione, ti verrà addebitata la quantità di dati elaborati verso la destinazione. Il prezzo viene fatturato per GB importato senza incrementi di 5 KB. I prezzi si basano sul valore più elevato tra byte importati e byte consegnati.
Tabelle Apache Iceberg come destinazione
Per i flussi Firehose configurati con tabelle Apache Iceberg come destinazione, ti verrà addebitata la quantità di dati elaborati verso la destinazione. Il prezzo viene fatturato per GB importato senza incrementi di 5 KB. Se i byte di dati elaborati prima della consegna sono superiori ai byte importati a causa dell'elaborazione Lambda personalizzata, vengono fatturati anche i byte aggiuntivi. I byte aggiuntivi vengono fatturati alla stessa tariffa indicata in Kinesis Data Streams come origine per le tabelle Apache Iceberg come destinazione per tutte le origini di importazione, incluso Direct PUT.
-
Direct PUT
-
Flusso di dati Kinesis come origine
-
Log venduti come origine
-
MSK come origine
-
Direct PUT
-
-
Tabelle Apache Iceberg come destinazione
-
Snowflake come destinazione
-
Altre destinazioni
-
Tabelle Apache Iceberg come destinazione
-
-
Snowflake come destinazione
-
-
Altre destinazioni
-
-
-
Flusso di dati Kinesis come origine
-
-
Tabelle Apache Iceberg come destinazione
-
Snowflake come destinazione
-
Altre destinazioni
-
Tabelle Apache Iceberg come destinazione
-
-
Snowflake come destinazione
-
-
Altre destinazioni
-
-
-
Log venduti come origine
-
-
Tabelle Apache Iceberg come destinazione
-
Altre destinazioni
-
Tabelle Apache Iceberg come destinazione
-
-
Altre destinazioni
-
-
-
MSK come origine
-
-
Tabelle Apache Iceberg come destinazione
-
Altre destinazioni
-
Tabelle Apache Iceberg come destinazione
-
-
Altre destinazioni
-
-
Esempi di prezzo
Prezzo di importazione per PUT diretto e KDS come origine
I registri da 3 KB vengono arrotondati per eccesso ai 5 KB più vicini importati = 5 KB
Prezzo per i primi 500 TB/mese = 0,029 USD per GB
GB fatturati per l'importazione dati = (100 registri/sec * 5 KB/registro)/1.048.576 KB/GB * 30 giorni/mese * 86.400 sec/giorno = 1.235,96 GB
Costi mensili di acquisizione dati = 1.235,96 GB * 0,029 USD/GB = 35,84 USD
Prezzi di importazione per MSK come origine
Dimensione del registro di 2 KB (senza incrementi di 5 KB)
Costo per i primi 500 TB/mese = 0,055 USD per GB
GB fatturati per i dati di importazione (assumendo lo stesso volume di dati dei dati di consegna) = (100 record/sec * 2 KB/record)/1.048.576 KB/GB * 30 giorni/mese * 86.400 sec/giorno = 494,38 GB
Addebiti mensili per il volume di dati = 494,38 GB * 0,055 USD/GB = 27,19 USD
Costi di Importazione per Vended Log come origine
Dimensione del record di 0,5 KB (500 byte) = 0,5 KB (nessun incremento di 5 KB)
Costo per i primi 500 TB/mese = 0,13 USD per GB
GB fatturati per importazione dati = (100 record/sec * 0,5 KB/record)/1.048.576 KB/GB * 30 giorni/mese * 86.400 secondi/giorno = 123,59 GB
Costi mensili di importazione = 123,59 GB x 0,13 USD/GB = 16,06 USD
Prezzi per Snowflake come destinazione
Dimensione del record di 0,5 KB (500 byte) = 0,5 KB (nessun incremento di 5 KB)
Prezzo per GB consegnato a Snowflake = 0,071 USD per GB
GB fatturati per importazione dati = (100 record/sec * 0,5 KB/record)/1.048.576 KB/GB * 30 giorni/mese *86.400 secondi/giorno = 123,59 GB
Costi mensili di importazione = 123,59 GB x 0,13 USD/GB = 8,77 USD
Prezzi per le tabelle Apache Iceberg come destinazione
Dimensione del record di 0,5 KB (500 byte) = 0,5 KB (nessun incremento di 5 KB)
Prezzo per GB fornito alle tabelle di Apache Iceberg da Kinesis Data Streams come origine = 0,045 USD per GB
GB fatturati per importazione dati = (100 record/sec * 0,5 KB/record)/1.048.576 KB/GB * 30 giorni/mese *86.400 secondi/giorno = 123,59 GB
Costi mensili di importazione = 123,59 GB x 0,045 USD/GB = 5,56 USD
Costi per la conversione del formato: da JSON a Parquet o ORC (opzionale)
Dimensione del record di 0,5 KB (500 byte) = 0,5 KB (nessun incremento di 5 KB)
Costo per i primi 500 TB/mese = 0,13 USD per GB
GB fatturati per importazione dati = (100 record/sec * 0,5 KB/record)/1.048.576 KB/GB * 30 giorni/mese * 86.400 secondi/giorno = 123,59 GB
Costi mensili di importazione = 123,59 GB x 0,13 USD/GB = 16,06 USD
La conversione del formato dei dati è un componente aggiuntivo opzionale dell'importazione dei dati e il costo viene calcolato sulla base dei GB fatturati per l'importazione.
Prezzo per GB importati convertiti = 0,018 USD
Costi mensili di conversione del formato = 1.235,96 GB * 0,018 USD/GB convertiti = 22,25 USD
Prezzi della consegna VPC (opzionale)
La consegna in un VPC è un componente aggiuntivo opzionale per l'importazione dei dati e utilizza i GB consegnati a destinazione in VPC per calcolare i costi.
Prezzo per GB consegnato a destinazione in VPC = 0,01 USD
Prezzo orario per zona di disponibilità per consegna VPC = 0,01 USD
Costi mensili per l'elaborazione VPC = 1.235,96 GB * 0,01 USD/GB elaborato = 12,35 USD
Costi mensili orari per VPC = 24 ore * 30 giorni/mese * 3 zone di disponibilità = 2.160 ore * 0,01 USD/ora = 21,60 USD Costi totali mensili VPC = 33,95 USD
Prezzi della partizione dinamica (opzionale)
La partizione dinamica è un componente aggiuntivo facoltativo dell'importazione dei dati e utilizza i GB elaborati tramite la partizione dinamica, il numero di oggetti consegnati ad S3 e, facoltativamente, le ore di elaborazione JQ. In questo esempio, supponiamo che 64 MB di oggetti vengano consegnati come risultato della configurazione dell'indicazione di buffer del flusso Firehose.
Utilizzando funzionalità opzionali, come la trasformazione dei dati tramite Lambda, la conversione del formato o la compressione, nel flusso Firehose, la quantità di dati elaborati tramite il partizionamento dinamico potrebbe essere diversa dalla quantità di dati importati dall'origine o dalla quantità di dati distribuiti alla destinazione. Queste fasi aggiuntive di elaborazione dei dati eseguite prima e dopo il partizionamento dinamico potrebbero fare la differenza.
Prezzo per GB elaborato tramite partizionamento dinamico = 0,020 USD
Prezzo per 1.000 oggetti S3 consegnati 0,005 USD = 0,005 USD
Prezzo per ora di elaborazione JQ = 0,07 USD
GB mensili elaborati tramite partizionamento dinamico = (3 KB * 100 record/secondo)/1.048.576 KB/GB * 86.400 secondi/giorno * 30 giorni/mese = 741,58 GB
Costi mensili per GB elaborati tramite partizionamento dinamico = 741,58 GB 0,02 USD per GB elaborati tramite partizionamento dinamico = 14,83 USD
Numero di oggetti consegnati = 741,58 GB * 1.024 MB/GB / 64 MB dimensione degli oggetti = 11.866 oggetti
Prezzi mensili per oggetti consegnati ad S3 = 11.866 oggetti * 0,005 USD / 1.000 oggetti = 0,06 USD
Prezzi mensili per JQ (se abilitato) = 70 ore JQ consumate al mese x 0,07 USD/ore JQ di elaborazione = 4,90 USD
Decompressione dei file di log CloudWatch
I file di log CloudWatch inviano i dati in formato compresso gzip. La funzionalità di decompressione di Data Firehose decomprime i dati e addebita i costi per ogni GB di dati decompressi.
Utilizzo mensile = 10 TB di dati di file di log CloudWatch decompressi
Prezzo per GB decompresso = 0,00325 USD/GB in IAD
Costi mensili di decompressione = 10240 GBx0,00325 USD/GB = 33,28 USD
Contratto sul livello di servizio
Per saperne di più sul Contratto sul livello di servizio di Amazon Data Firehose, consulta le nostre Domande frequenti.
Trova altre risorse per Amazon Data Firehose