Domande frequenti su S3 - Informazioni generali

D: Che cos'è Amazon S3?

Amazon S3 è uno storage di oggetti per archiviare e recuperare qualsiasi volume di dati da qualsiasi origine. È un servizio di storage semplice che offre durabilità, disponibilità, prestazioni, sicurezza e scalabilità virtualmente illimitata leader nel settore a costi molto bassi.

D: Cosa permette di fare Amazon S3?

Amazon S3 offre un'interfaccia Web service semplice che consente di archiviare e recuperare qualsiasi volume di dati, in qualsiasi momento e da qualsiasi posizione. Grazie a questo servizio, è possibile realizzare, con la massima semplicità, applicazioni che si appoggiano allo storage nativo per il cloud. Poiché Amazon S3 è altamente scalabile e le sue tariffe sono calcolate sulle risorse effettivamente impiegate, è possibile iniziare con una soluzione di base per poi espandere l'applicazione secondo le specifiche esigenze, senza dover scendere a compromessi su prestazioni o affidabilità.

Amazon S3 è stato inoltre progettato per essere altamente flessibile. È possibile archiviare qualsiasi tipo e volume di dati, accedere agli stessi dati milioni di volte o soltanto in caso di ripristino di emergenza, costruire una semplice applicazione FTP oppure una sofisticata applicazione Web come il sito di vendita al dettaglio di Amazon.com. Amazon S3 consente agli sviluppatori di concentrarsi sull'innovazione anziché di occuparsi dell'archiviazione dei dati.

D: Che cosa occorre per cominciare a usare Amazon S3?

Per eseguire la registrazione ad Amazon S3, clicca su questo link. Per accedere a questo servizio devi avere un account Amazon Web Services. Se non possiedi un account, all'inizio della procedura di registrazione ad Amazon S3 ti verrà chiesto di crearne uno. Dopo la registrazione, consulta la documentazione di Amazon S3 e il codice di esempio reperibile presso il Centro risorse per iniziare ad usare Amazon S3.

D: Quali possibilità non disponibili con le soluzioni on-premise offre Amazon S3 agli sviluppatori?

Amazon S3 consente agli sviluppatori di usufruire delle risorse su larga scala di Amazon senza investimenti anticipati o compromessi sulle prestazioni. Gli sviluppatori sono ora liberi di innovare sapendo che, indipendentemente dal successo delle loro attività, sarà semplice e conveniente garantire che i loro dati siano rapidamente accessibili, sempre disponibili e sicuri.

D: Quale genere di informazioni è possibile memorizzare in Amazon S3?

Si può archiviare praticamente qualsiasi tipo di dati in qualunque formato. Per i dettagli, consulta il contratto di licenza di Amazon Web Services.

D: Quali volumi di dati è possibile archiviare in Amazon S3

Il volume totale di dati e il numero di oggetti che si possono archiviare sono illimitati. I singoli oggetti di Amazon S3 possono variare nelle dimensioni da un minimo di 0 byte a un massimo di 5 terabyte. La dimensione massima che può essere caricata in un unico PUT è 5 gigabyte per oggetto. Tuttavia, per gli oggetti di dimensioni superiori ai 100 megabyte, è consigliabile usare la funzionalità di caricamento in più parti.

D: È possibile disporre di un bucket con oggetti differenti in classi di archiviazione diverse?

Sì, è possibile disporre di un bucket S3 con oggetti differenti archiviati in S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive.

D: Come impiega Amazon i dati archiviati Amazon S3?

Amazon conserva i dati e tiene traccia del loro uso a scopi di fatturazione. Amazon non accede ai dati per alcuno scopo estraneo al servizio Amazon S3, salvo nel caso in cui ciò le sia imposto dalla legge. Per i dettagli, consulta il contratto di licenza di Amazon Web Services.

D: Amazon memorizza anche i propri dati in Amazon S3?

Sì. Gli sviluppatori di Amazon utilizzano Amazon S3 per svariati progetti. Per molti di questi progetti Amazon S3 è il datastore principale di riferimento al quale si affidano le operazioni di importanza critica.

D: Come sono organizzati i dati in Amazon S3?

Amazon S3 è un semplice spazio di archiviazione di oggetti basato su chiavi. Quando si archiviano dei dati, si assegna loro una chiave oggetto unica che serve per recuperarli in seguito. Le chiavi possono essere costituite da qualsiasi stringa e possono essere formulate in modo da riprodurre attributi gerarchici. In alternativa, è possibile utilizzare l'applicazione di tag agli oggetti S3 per organizzare i dati in tutti i bucket S3 e/o i prefissi.

D: In che modo è possibile interfacciarsi con Amazon S3?

Amazon S3 utilizza una semplice interfaccia di servizio Web REST basata su standard, progettata per operare con qualsiasi kit di strumenti per lo sviluppo Web. Il funzionamento è stato semplificato per facilitare l'aggiunta di nuovi protocolli di distribuzione e livelli funzionali.

D: Qual è il livello di affidabilità di Amazon S3?

Con Amazon S3, gli sviluppatori hanno accesso alla stessa infrastruttura di archiviazione dati altamente scalabile, disponibile, veloce ed economica che Amazon impiega per gestire la sua rete globale di website. La classe di archiviazione S3 Standard è progettata per offrire una disponibilità del 99,99%, le classi S3 Standard-IA, S3 Intelligent-Tiering e S3 Glacier Instant Retrieval del 99,9% e la classe S3 One Zone-IA del 99,5%, mentre le classi S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive sono progettate per offrire una disponibilità del 99,99% e uno SLA del 99,9%. Tutte le classi di archiviazione sono soggette all'Accordo sul Livello di Servizio (SLA) di Amazon S3.

D: In che modo reagisce Amazon S3 durante i picchi di traffico?

Amazon S3 è stato progettato sin dall'inizio per gestire il traffico di qualsiasi applicazione Internet. Il pagamento in base al consumo e le capacità illimitata assicurano la regolarità dei costi incrementali e la disponibilità del servizio. Le ingenti risorse di Amazon S3 consentono di distribuire il carico uniformemente, in modo che nessuna applicazione subisca conseguenze negative in caso di picchi di traffico.

D: Amazon S3 offre un accordo sul livello di servizio (SLA)?

Sì. Il contratto sul livello di servizio di Amazon S3 offre un credito sui servizi qualora la percentuale di disponibilità mensile del sistema durante qualsiasi ciclo di fatturazione sia inferiore a quella dichiarata da Amazon.

D: Qual è il modello di consistenza per Amazon S3?

Amazon S3 offre automaticamente una consistenza forte per la lettura e la scrittura, senza modifiche alle prestazioni o alla disponibilità, senza sacrificare l'isolamento regionale per le applicazioni e senza costi aggiuntivi.

Dopo la scrittura di un nuovo oggetto o la sovrascrittura di un oggetto esistente, ogni richiesta di lettura successiva riceve immediatamente l'ultima versione dell'oggetto. S3 fornisce anche una consistenza forte per le operazioni di elenchi, così dopo la scrittura è possibile eseguire immediatamente un elenco degli oggetti in un bucket con le eventuali modifiche applicate.

D: Perché la forte coerenza read-after-write è utile?

Una forte coerenza read-after-write (ovvero, lettura dopo scrittura) è utile quando si ha bisogno di leggere immediatamente un oggetto dopo una scrittura, ad esempio, quando spesso si leggono e si creano elenchi subito dopo aver scritto gli oggetti. È un vantaggio anche per i carichi di lavoro di calcolo ad alte prestazioni: quando un oggetto viene sovrascritto e poi letto più volte contemporaneamente, la forte coerenza per la lettura e la scrittura assicura che l'ultima scrittura venga letta in tutte le letture. La forte coerenza per la lettura e la scrittura costituisce automaticamente un vantaggio immediato per queste applicazioni. Inoltre, la forte coerenza di S3 riduce i costi perché non sono più necessarie infrastrutture aggiuntive.  

Regioni AWS

D: Dove sono memorizzati i dati?

Al momento della creazione di un bucket Amazon S3 è possibile specificare una regione AWS. Per le classi di archiviazione S3 Standard, S3 Standard-IA, S3 Intelligent-Tiering, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive, gli oggetti vengono archiviati automaticamente su più dispositivi in un minimo di tre zone di disponibilità distanti diversi chilometri fra loro all'interno di una regione AWS. Gli oggetti archiviati nella classe di archiviazione S3 One Zone-IA vengono archiviati in modo ridondante all'interno di una singola zona di disponibilità nella regione AWS scelta. Per S3 su Outposts, i dati vengono memorizzati nel tuo ambiente Outpost in locale, a meno che tu non decida di trasferili manualmente in una regione AWS. Per ulteriori dettagli sulla disponibilità dei servizi di Amazon S3, consulta la pagina Servizi regionali AWS.

D: Che cos'è una regione AWS?

Una regione AWS è un'area geografica in cui AWS fornisce diverse zone di disponibilità fisicamente separate e isolate fra loro, connesse a reti a bassa latenza, con velocità effettiva elevata e altamente ridondanti.

D: Che cos'è una zona di disponibilità AWS?

Una zona di disponibilità AWS è un percorso isolato all'interno di una regione AWS. In ogni regione AWS, S3 opera in almeno tre zone di disponibilità, ciascuna distanziata di alcuni chilometri per proteggerle da eventuali eventi catastrofici locali quali incendi, allagamenti e così via.

Le classi di archiviazione Amazon S3 Standard, S3 Standard -Infrequent Access, S3 Intelligent-Tiering, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive replicano i dati in un minimo di tre zone di disponibilità per proteggerli in caso di guasto di un'intera zona. Queste condizioni valgono anche per le regioni in cui sono disponibili pubblicamente meno di tre zone. Gli oggetti memorizzati in queste classi di storage sono accessibili da tutte le zone di disponibilità presenti nella regione AWS.

La classe di archiviazione Amazon S3 One Zone-IA replica i dati in una singola zona di disponibilità. I dati archiviati in S3 One Zone-IA non sono resilienti alla perdita fisica di una zona di disponibilità dovuta a calamità come terremoti e alluvioni.

D: Come si sceglie la regione AWS in cui archiviare i propri dati?

Vi sono diversi i fattori da considerare a seconda dell'applicazione specifica. Per esempio, potresti voler archiviare i tuoi dati in una regione vicina ai tuoi clienti, data center o ad altre risorse AWS per ridurre le latenze di accesso ai dati. Potresti anche voler archiviare i dati in una regione distante dalle altre operazioni, per motivi di ridondanza geografica e di ripristino di sicurezza. Dovresti anche considerare le Regioni che ti permettono di affrontare specifici requisiti legali e normativi e/o di ridurre i costi di archiviazione: per risparmiare, puoi scegliere una Regione con un prezzo più basso. Per informazioni sui prezzi di S3, consulta la pagina dei prezzi di S3.

D: In quali regioni è disponibile Amazon S3?

Amazon S3 è disponibile in tutte le regioni AWS; è inoltre possibile utilizzare il servizio indipendentemente dalla posizione. È solo necessario decidere in quale regione o in quali regioni AWS memorizzare i dati di Amazon S3. Per visionare un elenco delle regioni AWS in cui è disponibile S3, consulta la tabella della disponibilità per regione AWS.

Fatturazione

D: Quanto costa Amazon S3?

I prezzi di Amazon S3 sono calcolati solo in base all'uso effettivo. Non è prevista una tariffa minima. È possibile calcolare la fattura mensile con il Calcolatore di prezzi di AWS.

Il servizio è meno caro nelle zone in cui i nostri costi sono inferiori. Alcuni prezzi possono variare in base alle regioni Amazon S3. I costi di fatturazione sono calcolati in base alla sede del bucket S3. Non è previsto alcun costo di trasferimento dei dati per i dati trasferiti all'interno di una regione Amazon S3 attraverso una richiesta COPY. Le tariffe per il trasferimento di dati da una regione AWS a un'altra mediante una richiesta COPY sono riportate nella sezione dei prezzi della pagina dei dettagli di Amazon S3. Non è previsto alcun costo di trasferimento dei dati per i dati trasferiti tra Amazon EC2 (o qualsiasi servizio AWS) e Amazon S3 all'interno della stessa regione, ad esempio all'interno della regione Stati Uniti orientali (Virginia settentrionale). Tuttavia, Il trasferimento di dati tra Amazon EC2 (o qualsiasi servizio AWS) e Amazon S3 tra tutte le altre regioni, ad esempio tra Amazon EC2 Stati Uniti orientali (Virginia settentrionale) e Amazon S3 Stati Uniti occidentali (California settentrionale), viene invece addebitato alle tariffe specificate nella pagina dei prezzi di Amazon S3. Per i prezzi di S3 su Outposts, visita la pagina dei prezzi di Outposts.

D: Come viene addebitato e fatturato l'utilizzo di Amazon S3?

L'utilizzo del servizio non richiede alcun impegno di lungo termine né costi di configurazione. Alla fine del mese, verrà automaticamente addebitato il costo delle risorse utilizzate nel corso del mese. Puoi controllare i consumi per il periodo di fatturazione corrente in qualunque momento sul sito Web di Amazon Web Services accedendo al tuo account e facendo clic su "Console di gestione dei costi e della fatturazione" nella sezione "Il tuo account Web Services".

Con il Piano di utilizzo gratuito di AWS* puoi cominciare a usare Amazon S3 gratuitamente in tutte le regioni ad eccezione di quelle AWS GovCloud. Dopo la registrazione, i nuovi clienti AWS riceveranno 5 GB di archiviazione Amazon S3 Standard, 20.000 richieste GET, 2.000 richieste PUT e 100 GB di trasferimento dati in uscita (verso Internet, altre regioni AWS o CloudFront) al mese per un anno. Le risorse mensili non usate non saranno trasferite al mese successivo.

Amazon S3 prevede l'addebito per i tipi d'uso riportati di seguito. Nota: i calcoli riportati sotto valgono nel caso il piano di utilizzo gratuito AWS non sia attivo.

Utilizzo di storage:

I costi dello storage di Amazon S3 sono riassunti nella pagina dei prezzi di Amazon S3.

Il volume di storage fatturato in un mese si basa sulla media dello storage utilizzato in tale mese. Includerà quindi tutti i metadati e i dati oggetto archiviati in bucket creati all'interno dell'account AWS. L'utilizzo dello storage è misurato in "Tempo di storage/ore-byte", che sono sommate alla fine del mese per determinare il costo mensile.

Esempio di archiviazione:

Supponiamo di memorizzare 100 GB (107,374,182,400 byte) di dati in Amazon S3 Standard nel tuo bucket per 15 giorni a marzo, e 100 TB (109,951,162,777,600 byte) di dati in Amazon S3 Standard per gli ultimi 16 giorni di marzo.

Alla fine di marzo il consumo in ore-byte è il seguente: consumo ore-byte totale = [107.374.182.400 byte x 15 giorni x (24 ore al giorno)] + [109.951.162.777.600 byte x 16 giorni x (24 ore al giorno)] = 42.259.901.212.262.400 ore-byte. Calcola le ore in base al numero effettivo di giorni un mese. Ad esempio, nel nostro esempio utilizziamo marzo, che ha 31 giorni o 744 ore.

Convertiamo questa cifra in GB/mese: 42.259.901.212.262.400 ore-byte / 1.073.741.824 byte per GB / 744 ore al mese = 52.900 GB al mese

A questo volume di utilizzo si applicano due scaglioni di prezzo. Supponendo che la regione sia Stati Uniti orientali (Virginia settentrionale), il costo di storage mensile è il seguente: Scaglione da 50 TB: 51.200 GB x 0,023 USD = 1.177,60 Scaglione da 50 TB a 450 TB: 1.700 GB x 0,022 USD = 37,40 USD

Costo di storage totale = 1.177,60 USD + 37,40 USD = 1.215,00 USD

Trasferimento dei dati di rete in entrata

I costi per i trasferimenti di dati in entrata di Amazon S3 sono riassunti nella pagina dei prezzi di Amazon S3. Si tratta del volume di dati inviati ai bucket di Amazon S3. 

Trasferimento dei dati di rete in uscita

I costi per i trasferimenti di dati in uscita di Amazon S3 sono riassunti nella pagina dei prezzi di Amazon S3. Per Amazon S3, queste tariffe sono applicate ogni volta che vengono letti dati di uno qualsiasi dei bucket da un percorso esterno alla regione Amazon S3 in cui si trovano.

Gli scaglioni di prezzo per i trasferimenti dati in uscita si basano sul totale dei dati trasferiti in uscita da una data regione a Internet attraverso Amazon EC2, Amazon S3, Amazon RDS, Amazon SimpleDB, Amazon SQS, Amazon SNS e Amazon VPC. Questi scaglioni non si applicano ai trasferimenti dati in uscita da Amazon S3 verso una regione AWS differente.

Esempio di trasferimento dati in uscita:
Supponiamo di trasferire 1 TB di dati da Amazon S3 nella regione Stati Uniti orientali (Virginia settentrionale) a Internet ogni giorno per un mese di 31 giorni. Supponiamo anche di trasferire, nello stesso periodo, 1 TB di dati da un'istanza Amazon EC2 della stessa regione a Internet.

Il volume complessivo di dati trasferiti sarebbe di 62 TB (31 TB da Amazon S3 e 31 TB da Amazon EC2). Ciò equivale a 63.488 GB (62 TB * 1024 GB/TB).

A questo volume di utilizzo si applicano tre scaglioni di prezzo. Supponendo che la Regione sia Stati Uniti orientali (Virginia settentrionale), il costo mensile per il trasferimento di dati in uscita è il seguente:
Scaglione fino a 10 TB: 10.239 GB (10×1024 GB/TB - 1 (gratis)) x 0,09 USD = 921,51 USD
Scaglione da 10 TB a 50 TB: 40,960 GB (40×1024) x 0,085 USD = 3,481.60 USD
Scaglione da 50 TB a 150 TB: 12.288 GB (rimanenti) x 0,070 USD = 860,16 USD

Costo totale trasferimenti di dati in uscita = 921,51 USD + 3.481,60 USD + 860,16 USD = 5.263,27 USD

Richieste di dati:

I costi delle richieste di Amazon S3 sono riassunti nella pagina dei prezzi di Amazon S3.

Esempio di richiesta:
Supponiamo di trasferire 10.000 file in Amazon S3 e 20.000 fuori da Amazon S3 ogni giorno durante il mese di marzo. Il 31 marzo eliminiamo quindi 5.000 file.
Totale richieste PUT = 10.000 richieste x 31 giorni = 310.000 richieste
Totale richieste GET = 20.000 richieste x 31 giorni = 620.000 richieste
Totale richieste DELETE = 5.000 × 1 giorno = 5.000 richieste

Supponendo che il bucket si trovi nella Regione Stati Uniti orientali (Virginia settentrionale), il costo delle richieste è il seguente:
310.000 richieste PUT: 310.000 richieste x 0,005 USD/1.000 = 1,55 USD
620.000 richieste GET: 620.000 richieste x 0,004 USD/10.000 = 0,25 USD
5.000 richieste DELETE = 5.000 richieste x 0,00 USD (operazione gratuita) = 0,00 USD

Recupero dei dati

Le tariffe di recupero dei dati di Amazon S3 che si applicano alle classi di storage S3 Standard-Infrequent Access (S3 Standard-IA) e S3 One Zone-IA sono riassunte nella pagina dei prezzi di Amazon S3.

Esempio di recupero di dati:
Supponiamo in un mese di recuperare 300 GB di dati S3 Standard-IA, di cui 100 GB verso la rete Internet, 100 GB verso EC2 nella stessa regione AWS e 100 GB verso CloudFront nella stessa regione AWS.

Il costo mensile del recupero dei dati viene calcolato come 300 GB x 0,01 USD per GB = 3,00 USD. Per la parte che ha utilizzato internet verrà addebitato anche il costo di trasferimento dei dati in rete.

Per informazioni sul costo dell'archiviazione di oggetti in Amazon S3 Glacier, consulta questa pagina.

* * L'utilizzo consentito all'interno del piano gratuito viene calcolato ogni mese in tutte le regioni, ad esclusione della regione AWS GovCloud, e viene applicato automaticamente alla fattura; l'utilizzo mensile non sfruttato non verrà trasferito al mese successivo. Si applicano limitazioni. Consulta i termini dell'offerta per ulteriori dettagli.

D: Perché i prezzi variano a seconda della regione Amazon S3 scelta?

Il servizio è meno caro nelle zone in cui i nostri costi sono inferiori. Ad esempio, i nostri costi sono inferiori nella regione Stati Uniti orientali (Virginia settentrionale) che nella regione Stati Uniti occidentali (California settentrionale).

D: Quali costi vengono addebitati per l'uso della funzione Versioni multiple?

Per ogni versione di un oggetto salvata o richiesta vengono addebitati i normali costi di Amazon S3. Per illustrare i costi di storage quando viene utilizzata la funzione Versioni multiple, prendiamo come esempio il seguente scenario ambientato in un mese di 31 giorni:

1) Giorno 1 del mese: viene eseguita una richiesta PUT di 4 GB (4.294.967.296 byte) sul bucket.
2) Giorno 16 del mese: viene eseguita una richiesta PUT di 5 GB (5.368.709.120 byte) sullo stesso bucket tramite la stessa chiave usata il primo giorno del mese.

Durante l'analisi dei costi di storage per le operazioni descritte, è necessario tenere conto che l'oggetto da 4 GB caricato il primo giorno del mese non viene eliminato dal bucket quando l'oggetto da 5 GB viene aggiunto a metà mese. L'oggetto da 4 GB viene anzi conservato come versione precedente, mentre l'oggetto da 5 GB diventa la versione scritta più recente dello stesso oggetto nel bucket. Alla fine del mese:

Consumo ore-byte totale
= [4.294.967.296 byte x 31 giorni x (24 ore al giorno)] + [5.368.709.120 byte x 16 giorni x (24 ore al giorno)] = 5.257.039.970.304 ore-byte.

GB al mese totali
5.257.039.970.304 ore-byte x (1 GB/1.073.741.824 byte) x (1 mese/744 ore) = 6,581 GB/mese

I costi sono calcolati in base alle tariffe correnti nella regione d'uso secondo la pagina dei prezzi di Amazon S3.

D: Come viene fatturato l'accesso ad Amazon S3 tramite la Console di gestione AWS?

Quando si accede al servizio attraverso la Console di gestione AWS si applicano le normali tariffe di Amazon S3. Per migliorare la fruibilità, la Console di gestione AWS potrebbe eseguire richieste in modo proattivo. Inoltre, alcune operazioni interattive richiedono l'esecuzione di più richieste al servizio.

D: Come viene fatturato l'accesso ai bucket Amazon S3 da un altro account AWS?

L'accesso allo storage da un altro account AWS viene fatturato secondo le tariffe standard di Amazon S3. È possibile scegliere di configurare un bucket con pagamento a carico del richiedente, nel qual caso sarà l'account che esegue l'accesso a farsi carico dei costi delle richieste e dei download dei dati in Amazon S3.

Per ulteriori informazioni sulla configurazione dei bucket con pagamento a carico del richiedente, consulta la documentazione di Amazon S3.

D: I prezzi includono le tasse?

Salvo diversamente specificato, i prezzi sono al netto di eventuali tasse e imposte doganali, inclusa l'IVA ed eventuali tasse di vendita. Per i clienti con indirizzo di fatturazione in Giappone, l'utilizzo dei servizi AWS è soggetto all'imposta sul consumo giapponese.

Ulteriori informazioni sulle imposte per i servizi AWS »

Amazon S3 e IPv6

D: cosa si intende per IPv6?

Tutti i server e i dispositivi connessi a Internet devono avere un indirizzo univoco. Lo schema di indirizzamento originale a 32 bit era l'Intel Protocol Version 4 (IPv4). La crescita esponenziale di Internet, tuttavia, in futuro saturerà tutti gli indirizzi IPv4 disponibili. Il protocollo IPv6 (Internet Protocol Version 6) è un meccanismo progettato per superare le limitazioni di assegnazione di indirizzi del protocollo IPv4.

D: A cosa serve IPv6?

Con il supporto di Amazon S3 per IPv6, le applicazioni possono connettersi ad Amazon S3 senza software o sistemi di conversione degli indirizzi IPv4 o IPv6. In questo modo è più semplice soddisfare i requisiti di conformità, eseguire l'integrazione con applicazioni basate su IPv6 esistenti in locale ed evitare l'acquisto di costose apparecchiature di rete per gestire la conversione degli indirizzi. Ora è anche possibile utilizzare le caratteristiche di filtro dell'indirizzo sorgente esistente in policy di IAM e di bucket con indirizzi IPv6, ampliando le opzioni per proteggere le applicazioni che interagiscono con Amazon S3.

D: Come si inizia a usare il protocollo IPv6 in Amazon S3?

È possibile iniziare indirizzando l'applicazione verso il nuovo endpoint "dual stack" di Amazon S3, che supporta l'accesso tramite sia IPv4 sia IPv6. Nella maggior parte di casi non è necessario procedere ad alcuna configurazione aggiuntiva per accedere su IPv6, perché in molti client di rete il protocollo IPv6 è quello predefinito. Le applicazioni che riscontrano problemi usando IPv6 possono tornare in qualsiasi momento a collegarsi a endpoint standard compatibili esclusivamente con IPv4. IPv6 con Amazon S3 è supportato in tutte le regioni AWS commerciali, tra cui le regioni AWS GovCloud (Stati Uniti), la regione Amazon Web Services Cina (Pechino), gestita da Sinnet, e la regione Amazon Web Services Cina (Ningxia), gestita da NWCD. 

D: Le prestazioni di Amazon S3 cambiano se si adotta il protocollo IPv6?

No, le prestazioni di Amazon S3 sono identiche a prescindere che il protocollo in uso sia IPv4 o IPv6.

Notifiche degli eventi S3

D: Che cosa sono le notifiche degli eventi di Amazon S3?

Si possono abilitare notifiche degli eventi di Amazon S3 e riceverle in risposta a eventi specifici nel proprio bucket S3, ad esempio eventi PUT, POST, COPY e DELETE. È possibile pubblicare le notifiche in Amazon EventBridgeAmazon SNS, Amazon SQS o direttamente in AWS Lambda.

D: A che cosa servono le notifiche degli eventi di Amazon S3?

Le notifiche degli eventi di Amazon S3 consentono di eseguire flussi di lavoro, inviare avvisi o eseguire altre operazioni in risposta a modifiche negli oggetti archiviati in S3. È possibile usare le notifiche degli eventi S3 per configurare l'attivazione di operazioni quali la transcodifica di file multimediali durante il caricamento, l'elaborazione di file di dati non appena risultano disponibili e la sincronizzazione di oggetti S3 con altri datastore. È anche possibile configurare notifiche degli eventi in base ai prefissi e ai suffissi del nome dell'oggetto. Ad esempio, è possibile scegliere di ricevere notifiche sui nomi di oggetto che iniziano con "images/".

D: Quali informazioni sono incluse nelle notifiche degli eventi di Amazon S3?

Per una descrizione dettagliata delle informazioni incluse nei messaggi di notifica degli eventi di Amazon S3, consulta la sezione relativa alla Configurazione delle notifiche degli eventi di Amazon S3 nella Guida per sviluppatori di Amazon S3.

D: Come si impostano le notifiche degli eventi di Amazon S3?

Per istruzioni dettagliate su come configurare le notifiche degli eventi, consulta la sezione Configurazione delle notifiche degli eventi di Amazon S3 nella Guida per sviluppatori di Amazon S3. Per ulteriori informazioni sui servizi di messaggistica di AWS, consulta la documentazione di Amazon SNS e la documentazione di Amazon SQS.

D: Quanto costa usare le notifiche degli eventi di Amazon S3?

Non sono previsti costi aggiuntivi per l'uso delle notifiche degli eventi di Amazon S3. Vengono addebitati solo i costi di invio dei messaggi di Amazon SNS o di Amazon SQS o i costi di esecuzione delle funzioni AWS Lambda. Consulta le pagine relative ai prezzi di Amazon SNS, Amazon SQS e AWS Lambda per avere informazioni dettagliate sulle relative tariffe.

Amazon S3 Transfer Acceleration

D: Cos'è S3 Transfer Acceleration?

Amazon S3 Transfer Acceleration consente il trasferimento rapido, semplice e sicuro di file a lunga distanza tra il tuo client e il tuo bucket Amazon S3. S3 Transfer Acceleration sfrutta le posizioni edge di AWS di Amazon CloudFront distribuite in tutto il mondo. Quando i dati raggiungono una AWS edge location, vengono instradati verso il bucket Amazon S3 selezionato seguendo un percorso di rete ottimizzato.

D: Come si inizia a usare S3 Transfer Acceleration?

Per iniziare a usare S3 Transfer Acceleration S3, abilita il servizio in un bucket S3 tramite la console o l'API di Amazon S3 oppure l'interfaccia a riga di comando di AWS. Una volta abilitata la S3 Transfer Acceleration, è possibile selezionare come destinazione delle richieste PUT e GET di Amazon S3 il nome di dominio dell'endpoint s3-accelerate. Il tipo di endpoint che l'applicazione di trasferimento dei dati deve utilizzare per accedere al bucket con una velocità di trasferimento superiore è uno dei seguenti: .s3-accelerate.amazonaws.com oppure .s3-accelerate.dualstack.amazonaws.com per un endpoint "dual stack". Se desideri utilizzare il trasferimento di dati standard, puoi continuare a utilizzare gli stessi endpoint.

Sono previste alcune restrizioni in relazione ai bucket compatibili con S3 Transfer Acceleration. Per ulteriori informazioni, consulta la Guida per sviluppatori di Amazon S3.

D: Quali velocità consente S3 Transfer Acceleration?

La funzione S3 Transfer Acceleration consente di sfruttare l'intera larghezza di banda, riducendo al minimo gli effetti della distanza sulla velocità effettiva, ed è progettata per garantire trasferimenti di dati veloci e costanti verso Amazon S3 indipendentemente dalla posizione del client. L'accelerazione dipende dalla larghezza di banda disponibile, dalla distanza tra fonte e destinazione e dal tasso di perdita dei pacchetti sul percorso di rete. In generale, l'accelerazione sarà più evidente quando la fonte è più lontana dalla destinazione, quando la larghezza di banda disponibile è maggiore e/o quando le dimensioni degli oggetti trasferire sono superiori.

Uno dei nostri clienti ha registrato una riduzione del 50% nel tempo medio di inoltro di 300 MB di file dalla propria base utenti globale distribuita tra Stati Uniti, Europa e Asia in un bucket nella regione Asia Pacifico (Sydney). Un altro cliente ha visto il trasferimento dati migliorare di oltre il 500% per alcuni utenti nel Sud-est asiatico e in Australia che caricano 250 MB di file (in parti da 50 MB) in un bucket S3 nella regione Stati Uniti orientali (Virginia settentrionale).

Prova il nuovo strumento di confronto delle velocità per ottenere un'anteprima dei vantaggi alle prestazioni dalla tua posizione.

D: A chi è rivolta la funzione S3 Transfer Acceleration?

S3 Transfer Acceleration è una funzione progettata per ottimizzare le velocità di trasferimento dei dati in tutto il mondo verso bucket S3. Quando occorre caricare dati in un bucket centralizzato a partire da diverse posizioni distanti tra loro, oppure quando occorre spostare regolarmente GB o TB di dati tra continenti diversi, con S3 Transfer Acceleration è possibile ridurre i tempi di trasferimento di ore o di giorni.

D: Quanto è sicuro S3 Transfer Acceleration?

S3 Transfer Acceleration fornisce lo stesso livello di sicurezza dei normali trasferimenti verso Amazon S3. Sono infatti supportate tutte le funzionalità di sicurezza di Amazon S3, ad esempio le restrizioni di accesso basate sull'indirizzo IP del client. S3 Transfer Acceleration comunica con i client tramite protocollo TCP standard e non richiede modifiche del firewall. I dati trasferiti non vengono mai salvati nelle AWS edge location.

D: Cosa succede se S3 Transfer Acceleration non migliora la velocità di trasferimento di Amazon S3?

Ogni volta che usi S3 Transfer Acceleration per caricare un oggetto, verificheremo che il trasferimento sia effettivamente più rapido rispetto ai comuni trasferimenti in Amazon S3. Se il caricamento con S3 Transfer Acceleration non dovesse risultare più veloce del normale trasferimento con Amazon S3 dello stesso oggetto verso la stessa regione AWS di destinazione, non sarà addebitato alcun costo per il servizio e il sistema non sarà utilizzato per tale trasferimento.

D: È possibile utilizzare la funzione S3 Transfer Acceleration per i caricamenti in più parti?

Sì, S3 Transfer Acceleration supporta tutte le caratteristiche a livello di bucket, incluso il caricamento in più parti.

D: Quando è più conveniente scegliere S3 Transfer Acceleration o le richieste PUT/POST di Amazon CloudFront?

S3 Transfer Acceleration consente di ottimizzare il protocollo TCP e fornisce ulteriore intelligence tra il cliente e il bucket S3, perciò è una scelta migliore quando è necessaria una velocità effettiva superiore. Se gli oggetti o i set di dati da trasferire hanno dimensioni inferiori a 1 GB, consigliamo di impiegare i comandi PUT/POST di Amazon CloudFront per ottenere prestazioni ottimali.

D: Quando è più conveniente scegliere S3 Transfer Acceleration o la famiglia di prodotti AWS Snow (Snowball, Snowball Edge e Snowmobile)?

La famiglia di prodotti AWS Snowball è una soluzione ideale per i clienti che devono trasferire grandi quantità di dati in una volta. AWS Snowball in genere richiede 5-7 giorni. Nello stesso periodo di tempo, S3 Transfer Acceleration è in grado di trasferire approssimativamente 75 TB di dati, se impiega completamente una linea da 1 Gb/s. In genere, se il trasferimento tramite Internet richiede più di una settimana, oppure se i processi di trasferimento sono ricorrenti e la larghezza di banda disponibile è superiore a 25 Mb/s, S3 Transfer Acceleration è l'opzione ideale. È anche possibile utilizzare entrambi i servizi: il trasferimento iniziale con la maggior parte dei dati può essere effettuato con AWS Snowball (una o più appliance), mentre i trasferimenti di modifiche incrementali permanenti possono essere eseguiti con S3 Transfer Acceleration.

D: È possibile utilizzare S3 Transfer Acceleration in sinergia con AWS Direct Connect?

AWS Direct Connect rappresenta una buona soluzione per i clienti che necessitano di una rete privata o che hanno accesso al traffico di AWS Direct Connect. S3 Transfer Acceleration è invece più utile per inoltrare dati da client sparsi in diverse posizioni su connessioni Internet pubbliche, oppure quando la velocità effettiva è inficiata da condizioni di rete variabili. Alcuni clienti di AWS Direct Connect si avvalgono di S3 Transfer Acceleration per velocizzare i trasferimenti di dati da filiali remote, dove la connessione Internet potrebbe essere rallentata.

D: È possibile utilizzare S3 Transfer Acceleration in sinergia con AWS Storage Gateway o gateway di terze parti?

É possibile ottenere vantaggi configurando la destinazione di bucket nel gateway di terze parti, in modo che utilizzi un dominio di endpoint S3 Transfer Acceleration.

Per ulteriori informazioni sull'implementazione di AWS, consulta la sezione File delle Domande frequenti su Storage Gateway.

D: È possibile utilizzare S3 Transfer Acceleration in sinergia con software integrati di terze parti?

Sì. I pacchetti software che si connettono direttamente in Amazon S3 possono utilizzare S3 Transfer Acceleration quando inoltrano processi in Amazon S3.

Ulteriori informazioni sulle soluzioni dei partner di archiviazione »

D: S3 Transfer Acceleration è soggetto alla normativa HIPAA?

Sì, AWS ha esteso il proprio programma di conformità agli standard HIPAA in modo da includere Amazon S3 Transfer Acceleration. Se disponi di un contratto di società in affari con AWS, puoi utilizzare Amazon S3 Transfer Acceleration per trasferire i dati in modo rapido, facile e sicuro, incluse le informazioni sanitarie protette su grandi distanze tra il client e il bucket Amazon S3.

Ulteriori informazioni sulla conformità alla normativa HIPAA »

Sicurezza

D: Qual è il livello di sicurezza dei dati in Amazon S3?     

La sicurezza è una delle caratteristiche primarie di Amazon S3. Al momento della creazione, puoi accedere soltanto ai bucket Amazon S3 da te creati e hai il controllo assoluto di chi è autorizzato ad accedere ai tuoi dati. Amazon S3 è provvisto di funzionalità di autenticazione per controllare l'accesso ai dati. È possibile usare meccanismi di controllo degli accessi come policy dei bucket per autorizzare l'accesso in modo selettivo a utenti e gruppi di utenti. La console di Amazon S3 mostra i bucket accessibili pubblicamente, indica l'origine di tale accessibilità e avvisa qualora le modifiche di policy o liste di controllo degli accessi dei bucket ne rendessero pubblico l'accesso. È opportuno attivare il blocco dell'accesso pubblico per tutti gli account e i bucket che non si desidera rendere accessibili al pubblico. 

È possibile caricare o scaricare in modo sicuro i propri dati su Amazon S3 attraverso endpoint con crittografia SSL impiegando il protocollo HTTPS. Se si desidera un livello di sicurezza maggiore, è possibile usare l'opzione SSE (Server Side Encryption) per crittografare i dati inattivi. I bucket Amazon S3 possono essere configurati per consentire la crittografia automatica degli oggetti prima che vengano archiviati, nel caso in cui le richieste di storage in ingresso non dispongano di informazioni di crittografia. In alternativa, è possibile usare le proprie librerie di crittografia per codificare i dati prima di archiviarli in Amazon S3.

Per ulteriori informazioni sulla sicurezza in AWS, consulta la pagina sulla sicurezza di AWS, e per avere informazioni sulla sicurezza di S3, visita la pagina sulla sicurezza di S3 o la guida alle best practice sulla sicurezza di S3.

D: Come si monitora l'accesso ai dati archiviati in Amazon S3?

I clienti possono usare una serie di meccanismi per controllare l'accesso alle risorse di Amazon S3, fra cui policy di AWS Identity and Access Management (IAM), policy di bucket, policy dei punti di accesso, liste di controllo accessi, autenticazione stringa della query, policy degli endpoint Virtual Private Cloud (Amazon VPC), policy di controllo dei servizi (SCP) in AWS Organizations e il blocco dell'accesso pubblico di Amazon S3

IAM
IAM consente alle aziende che hanno molti dipendenti di creare e gestire più utenti su uno stesso account AWS. Con le policy di IAM, i clienti possono garantire agli utenti IAM il controllo granulare dei bucket o degli oggetti di Amazon S3 mantenendo il controllo completo di tutte le operazioni loro consentite. 

Policy di bucket e punti di accesso
Con le policy di bucket e punti di accesso, i clienti possono definire regole applicabili globalmente a tutte le richieste per risorse Amazon S3, ad esempio la concessione di privilegi di scrittura a un sottogruppo di risorse di Amazon S3. È anche possibile limitare l'accesso in base a particolari elementi della richiesta, come referrer HTTP e indirizzo IP. 

ACL
Amazon S3 supporta il nostro metodo di accesso originale, ovvero le liste di controllo degli accessi (ACL). Con le ACL, i clienti possono concedere autorizzazioni specifiche (ovvero READ, WRITE, FULL_CONTROL) a utenti specifici per un singolo oggetto o bucket. Per i clienti che preferiscono usare esclusivamente policy per il controllo degli accessi, Amazon S3 offre la caratteristica Object Ownership per disabilitare le ACL. 

Autenticazione stringa della query
Con l'autenticazione stringa della query, è possibile creare un URL per un oggetto Amazon S3 valido solo per un periodo di tempo limitato. Per ulteriori informazioni sulle varie policy di controllo degli accessi disponibili in Amazon S3, consulta la sezione relativa al
controllo degli accessi nella Guida per sviluppatori di Amazon S3.

Amazon VPC
Quando i clienti creano un endpoint Amazon VPC, possono allegare una policy endpoint che controlli l'accesso alle risorse di Amazon S3 a cui desiderano collegarsi. I clienti possono anche usare le policy di bucket Amazon S3 per controllare l'accesso ai bucket da endpoint o VPC specifici.

Policy di controllo dei servizi
Le policy di controllo dei servizi (SCP) sono un tipo di policy di AWS Organizations che i clienti possono usare per gestire le autorizzazioni nella loro organizzazione. Le SCP offrono il controllo centralizzato sul numero di autorizzazioni disponibili massimo per tutti gli account in un'organizzazione. Con le SCP, i clienti possono assicurare che i loro account rispettino le linee guida sul controllo degli accessi dell'organizzazione.

Blocco dell'accesso pubblico S3
Il blocco dell'accesso pubblico di Amazon S3 offre impostazioni relative a punti di accesso, bucket e account per aiutare i clienti a gestire l'accesso pubblico alle risorse di Amazon S3. Con il blocco dell'accesso pubblico di Amazon S3, gli amministratori degli account e i proprietari dei bucket possono impostare facilmente controlli centralizzati per limitare l'accesso pubblico alle loro risorse di Amazon S3 che vengono applicati a prescindere dalla modalità di creazione delle risorse.

Ulteriori informazioni su policy e autorizzazioni sono disponibili nella Guida per l'utente di AWS IAM.

D: Amazon S3 supporta la verifica dell'accesso ai dati?

Sì. È possibile configurare i bucket di Amazon S3 in modo che vengano creati, nel log degli accessi, record di tutte le richieste che li riguardano. In alternativa, se occorre acquisire informazioni su IAM e sulle identità degli utenti nei fil di log, è possibile configurare gli eventi sui dati di AWS CloudTrail.

I record dei log di accesso contengono i dettagli della richiesta, quali tipo di richiesta, risorse specificate e ora e data in cui la richiesta è stata elaborata, pertanto possono essere utilizzati a fini di audit.

D: Quali opzioni di crittografia sono disponibili per i dati archiviati in Amazon S3?

I dati possono essere crittografati mediante le tecnologie SSE-S3, SSE-C, SSE-KMS oppure mediante una libreria come Amazon S3 Encryption Client. Tutte e quattro le tecnologie consentono di crittografare i dati su disco sensibili archiviati in Amazon S3.

SSE-S3 rappresenta una soluzione integrata: Amazon gestisce le chiavi e la loro protezione utilizzando molteplici livelli di sicurezza. È l'opzione da scegliere se si preferisce affidare ad Amazon la gestione delle chiavi.

SSE-C consente ad Amazon S3 di eseguire la crittografia e la decrittografia degli oggetti mantenendo il controllo delle chiavi utilizzate per crittografare gli oggetti. Con SSE-C non occorre implementare o utilizzare una libreria lato client per eseguire la crittografia e la decrittografia degli oggetti archiviati in Amazon S3, ma è necessario gestire le chiavi che si inviano ad Amazon S3 per crittografare e decrittografare gli oggetti. Se desideri mantenere il controllo delle chiavi di crittografia, ma non hai intenzione di implementare o utilizzare una libreria file crittografato lato client, consigliamo l'uso di SSE-C.

SSE-KMS consente ad AWS Key Management Service (AWS KMS) di gestire le tue chiavi di crittografia. L'impiego di AWS KMS per gestire le chiavi fornisce ulteriori vantaggi. AWS KMS prevede autorizzazioni separate per utilizzare la chiave KMS, il che fornisce un ulteriore livello di controllo e previene l'accesso non autorizzato agli oggetti archiviati in Amazon S3. AWS KMS offre tracce di controllo per visualizzare chi abbia usato la chiave per accedere agli oggetti, a quali oggetti e quando, nonché i tentativi di accesso falliti ai dati da parte di utenti sprovvisti di autorizzazione a decriptare i dati. Infine, AWS KMS offre ulteriori controlli di sicurezza per agevolare l'adeguamento ai requisiti di settore PCI-DSS, HIPAA/HITECH e FedRAMP.

Con una libreria di crittografia client, come Amazon S3 Encryption Client, potrai mantenere il controllo delle chiavi e completare la crittografia e la decrittografia degli oggetti lato client utilizzando una libreria di crittografia di tua scelta. Alcuni clienti preferiscono avere il controllo completo della crittografia e decrittografia degli oggetti; in questo modo, vengono inviati tramite Internet ad Amazon S3 soltanto oggetti crittografati. Se desideri mantenere il controllo delle chiavi di crittografia, hai la possibilità di implementare o utilizzare una libreria file crittografato lato client e hai intenzione di crittografare gli oggetti prima che siano inviati ad Amazon S3 per l'archiviazione, consigliamo l'uso di una libreria di crittografia lato client.

Per ulteriori informazioni sull'uso delle opzioni di crittografia SSE-S3, SSE-C ed SSE-KMS di Amazon S3, consulta la sezione relativa all'utilizzo della crittografia nellaGuida per sviluppatori di Amazon S3.

D: È possibile ottemperare alle normative dell'Unione Europea sulla privacy dei dati utilizzando Amazon S3?

I clienti possono scegliere di archiviare tutti i dati nell'Unione europea utilizzando le regioni UE (Francoforte), UE (Irlanda), UE (Londra) o UE (Parigi). Puoi anche utilizzare S3 su Outposts per mantenere tutti i tuoi dati on-premise nell'Outpost e puoi anche scegliere di trasferire i dati tra Outposts o a una regione AWS. Garantire il rispetto delle leggi sulla privacy dell'Unione europea è responsabilità del cliente. Per ulteriori informazioni, consulta il Centro per il Regolamento generale sulla protezione dei dati (GDPR) di AWS. Se hai requisiti più specifici relativi alla posizione o altre normative sulla privacy dei dati che ti impongono di conservare i dati un una posizione in cui non è presente una regione AWS, puoi usare S3 su Outposts.

D: Cos'è un endpoint VPC Amazon per Amazon S3?

Un endpoint Amazon VPC per Amazon S3 è un'entità logica all'interno di un VPC che consente la connettività a S3 tramite la rete globale di Amazon. Esistono due tipi di endpoint VPC per S3: endpoint VPC gateway ed endpoint VPC di interfaccia. Gli endpoint gateway sono un gateway che specifichi nella tabella di routing per accedere a S3 dal tuo VPC tramite la rete Amazon. Gli endpoint di interfaccia estendono la funzionalità degli endpoint gateway utilizzando IP privati per instradare le richieste a S3 dall'interno del VPC, in locale o da una regione AWS diversa. Per ulteriori informazioni, consulta la documentazione.

D: Posso consentire l'accesso a un bucket Amazon S3 da parte di un endpoint Amazon VPC specifico?

Utilizzando le policy dei bucket Amazon S3 puoi limitare l'accesso al bucket da un endpoint Amazon VPC specifico o da un set di endpoint. Le policy dei bucket S3 supportano la condizione aws:sourceVpce, che consente di restringere gli accessi. Per ulteriori informazioni e policy di esempio, consulta la pagina relativa all'utilizzo degli endpoint VPC.

D: Cos'è AWS PrivateLink per Amazon S3?

AWS PrivateLink per S3 fornisce connettività privata tra Amazon S3 e gli ambienti on-premise. Puoi eseguire il provisioning degli endpoint VPC di interfaccia per S3 nel tuo VPC per connettere le applicazioni in locale direttamente a S3 tramite AWS Direct Connect o AWS VPN. Non è più necessario utilizzare IP pubblici, modificare le regole del firewall o configurare un gateway Internet per accedere a S3 da ambienti in locale. Per ulteriori informazioni, consulta la documentazione.

D: Come inizio a usare gli endpoint VPC di interfaccia per S3?

Puoi creare un endpoint VPC di interfaccia utilizzando la console di gestione VPC di AWS, l'AWS Command Line Interface (AWS CLI), AWS SDK o API. Per ulteriori informazioni, consulta la documentazione.

D: Quando dovrei scegliere gli endpoint VPC gateway piuttosto che gli endpoint VPC di interfaccia basati su AWS PrivateLink?

Ti consigliamo di utilizzare endpoint VPC di interfaccia per accedere a S3 da ambienti in locale o da un VPC situato in un'altra regione AWS. Per le risorse che accedono a S3 da un VPC situato nella stessa regione AWS, consigliamo di utilizzare endpoint VPC gateway poiché il loro utilizzo non comporta costi. Per ulteriori informazioni, consulta la documentazione.

D: Posso utilizzare sia gli endpoint di interfaccia che gli endpoint gateway per S3 nello stesso VPC?

Sì. Se già disponi di un endpoint VPC gateway, crea un endpoint VPC di interfaccia nel tuo VPC e aggiorna le applicazioni client con i nomi endpoint specifici dell'endpoint VPC. Ad esempio, se l'ID dell'endpoint VPC di interfaccia è vpce-0fe5b17a0707d6abc-29p5708s nella regione us-east-1, il nome DNS specifico dell'endpoint sarà vpce-0fe5b17a0707d6abc-29p5708s.s3.us-east-1.vpce.amazonaws.com. In questo caso, solo le richieste ai nomi specifici dell'endpoint VPC verranno instradate attraverso gli endpoint VPC di interfaccia a S3, mentre tutte le altre richieste continueranno a essere instradate attraverso l'endpoint VPC gateway. Per ulteriori informazioni, consulta la documentazione.

D: Cos'è Amazon Macie e come si può usare per proteggere i dati?

Amazon Macie è un servizio di sicurezza basato sull'IA che aiuta a prevenire la perdita di dati perché rileva, classifica e protegge i dati sensibili archiviati in Amazon S3. Amazon Macie utilizza l'apprendimento automatico per riconoscere dati sensibili quali le informazioni che consentono l'identificazione personale o i dati soggetti a proprietà intellettuale, vi assegna un valore e fornisce visibilità su relativi percorsi di memorizzazione e modalità di utilizzo in azienda. Amazon Macie monitora costantemente le attività di accesso ai dati per rilevare eventuali anomalie e invia avvisi quando individua rischi di accesso non autorizzato o di divulgazione accidentale di informazioni.

Amazon Macie costituisce una protezione contro le minacce alla sicurezza perché monitora costantemente i dati e le credenziali di un account. Amazon Macie è un servizio automatizzato con cui è possibile individuare e classificare i dati aziendali. I controlli sono disponibili tramite modelli di funzioni Lambda, che permettono di revocare l'accesso o attivare le policy di reimpostazione della password quando vengono individuati comportamenti sospetti o accessi non autorizzati ai dati con entità o applicazioni di terze parti. Quando viene generato un avviso, si può usare Amazon Macie per fornire una prima risposta, sfruttando Amazon CloudWatch Events per eseguire operazioni immediate a protezione dei dati. Per ulteriori informazioni, consulta la Guida per l'utente di Amazon Macie.

Che cos'è IAM Access Analyzer for Amazon S3 e come funziona?

Access Analyzer for S3 è una caratteristica che semplifica la gestione delle autorizzazioni impostando, verificando e perfezionando le policy per i bucket S3 e i punti di accesso. 

Access Analyzer for S3 monitora le policy di accesso esistenti per verificare che forniscano solo l'accesso richiesto alle proprie risorse S3. Access Analyzer for S3 valuta le policy di accesso ai bucket e aiuta a identificare e risolvere rapidamente i bucket che non richiedono l'accesso.

Access Analyzer for S3 avvisa quando un bucket è configurato per consentire l'accesso pubblico o è condiviso con altri account AWS. Riceverai risultati sull'origine e sul livello di accesso pubblico o condiviso. Ad esempio, Access Analyzer for S3 ti informerà in modo proattivo in caso di accesso in lettura o scrittura indesiderato attraverso una lista di controllo accessi o una policy di bucket. Grazie a questi risultati potrai impostare o ripristinare immediatamente la policy di accesso necessaria.

Quando esamini i risultati relativi a un potenziale accesso condiviso a un bucket, ti basterà un solo clic per attivare il blocco dell'accesso pubblico al bucket dalla console di S3. Inoltre, puoi eseguire il drill-down delle singole impostazioni relative alle autorizzazioni di accesso al bucket per configurare livelli di accesso granulari. Ai fini della verifica, è possibile scaricare i risultati di Access Analyzer for S3 come report CSV. 

Inoltre, la console S3 riporta avvisi di sicurezza, errori e suggerimenti da IAM Access Analyzer mentre si creano le policy S3. La console esegue automaticamente più di 100 controlli per convalidare le tue policy. Questi controlli ti fanno risparmiare tempo, ti guidano nella risoluzione degli errori e ti aiutano ad applicare le best practice di sicurezza.

Per ulteriori informazioni, consulta la documentazione di IAM Access Analyzer.

S3 Access Point

D: Cos'è Amazon S3 Access Point?

Oggi i clienti gestiscono l'accesso ai propri bucket S3 utilizzando un'unica bucket policy che controlla l'accesso di centinaia di applicazioni con diversi livelli di autorizzazione.

Amazon S3 Access Point, semplifica la gestione dell'accesso ai dati su vasta scala per applicazioni che utilizzano set di dati condivisi su Amazon S3. Con S3 Access Points ora puoi creare con facilità centinaia di punti di accesso per bucket, sviluppando un nuovo modo di garantire accesso a set di dati condivisi. Access Point garantisce un percorso personalizzato in un bucket, con un nome host unico e una policy di accesso che implementa le autorizzazioni specifiche e i controlli di rete per qualsiasi richiesta avanzata tramite il punto di accesso. Ulteriori informazioni sono disponibili nella pagina di Access Point S3 e nella guida per l'utente.

D: Quali sono i vantaggi degli access point?

Gli S3 Access Point semplificano la gestione delle modalità di accesso ai dataset condivisi su S3 da parte delle tue applicazioni. Non è più necessario gestire una singola e complessa bucket policy con centinaia di diverse regole di autorizzazione che devono essere scritte, lette, tracciate e verificate. Con gli S3 Access Point ora puoi creare access point specifici dell'applicazione che consentono l'accesso a dataset condivisi con policy personalizzate per l'applicazione specifica.

Utilizzando gli Access Point, puoi scomporre una bucket policy di grandi dimensioni in policy di access point separate e discrete per ogni applicazione che accede al dataset condiviso. Ciò rende più semplice la creazione della giusta policy di accesso per un'applicazione, senza doversi preoccupare di interrompere l'attività di un'altra applicazione all'interno del dataset condiviso. Inoltre, puoi creare una policy di controllo del servizio (SCP) e richiedere che tutti gli access point vengano limitati a un Virtual Private Cloud (VPC), proteggendo i dati all'interno delle tue reti private. 

D: Come funziona Access Point S3?

Ogni S3 Access Point è configurato con una policy di accesso specifica per un caso d'uso o un'applicazione, e un bucket può avere centinaia di access point. Ad esempio, puoi creare un punto di accesso per il bucket S3 che conceda a gruppi di utenti o applicazioni l'accesso al data lake. Un Access Point potrebbe supportare un singolo utente o un'applicazione, o gruppi di utenti o applicazioni, consentendo una gestione separata di ciascun punto di accesso. 

Ogni punto di accesso è associato a un singolo bucket e contiene un controllo dell'origine della rete e un controllo di tipo Block Public Access. Ad esempio, puoi creare un punto di accesso con un controllo dell'origine della rete che permetta l'accesso all'archiviazione solo dal tuo cloud privato virtuale, una sezione logicamente isolata di AWS Cloud. Inoltre, puoi creare un punto di acceso configurandone la policy in modo da permettere l'accesso solo agli oggetti con un prefisso definito o ad oggetti con tag specifici.

Puoi accedere ai dati nei bucket condivisi tramite un punto di accesso in due modi. Per le operazioni sugli oggetti S3, puoi utilizzarel’ARN del punto di accesso al posto di un nome di bucket. Per le richieste con un nome bucket nel formato del nome bucket S3 standard, puoi invece utilizzare un alias del punto di accesso. Gli alias per i punti di accesso S3 vengono generati automaticamente e sono intercambiabili con i nomi dei bucket S3 ovunque utilizzi un nome di bucket per l'accesso ai dati. Ogni volta che crei un punto di accesso per un bucket, S3 genera automaticamente un nuovo alias punto di accesso. Per il set completo di operazioni e servizi AWS compatibili, visita la Documentazione S3.

D: Esiste una quota relativa agli access point che si possono creare?

Per impostazione predefinita, si possono creare 1.000 access point per account o per regione. A differenza dei bucket S3, non è previsto un limite fisso per il numero di access point per ciascun account AWS. Visita la pagina AWS Service Quotas per chiedere un aumento della quota.

D: Quando si usa un access point, come vengono autorizzate le richieste?

Gli access point S3 hanno una propria policy di accesso IAM. Scrivi le policy degli access point come per una policy di bucket, utilizzando l'ARN dell'access point come risorsa. Le policy degli access point possono concedere o limitare l'accesso ai dati S3 richiesti tramite l'access point. Amazon S3 valuta tutte le policy rilevanti, incluse quelle relative a utente, bucket, access point, endpoint VPC, e le policy di controllo dei servizi per decidere se autorizzare o meno la richiesta.

D: Come si scrivono le policy per access point?

LE policy per access point si scrivono esattamente come le policy per bucket, usando le regole IAM per gestire le autorizzazioni e l'ARN dell'access point nel documento della policy.

D: Qual è la differenza tra le restrizioni di accesso a VPC specifici che usano controlli dell'origine della rete su access point e quelle che usano policy di bucket?

Puoi continuare ad utilizzare policy di bucket per limitarne l'accesso a VPC specificati. Gli access point offrono un modo più facile e controllabile per bloccarli tutti o un subset di dati in un set di dati condivisi a un traffico esclusivo VPC per tutte le applicazioni nella tua organizzazione che si avvalgono di controlli API. Puoi utilizzare una policy SCP AWS Organizations per esigere che qualsiasi access point creato nella tua organizzazione imposti il valore del parametro API "controllo dell'origine della rete" su "vpc". Qualsiasi nuovo access point creato automaticamente limita così l'accesso dei dati al traffico esclusivo VPC. Per assicurarsi che le richieste di dati siano elaborate solo dai VPC specificati, non è richiesta alcuna policy di accesso supplementare.

D: Si può applicare una policy "Nessun accesso a dati Internet" per tutti i punti di accesso di un'organizzazione?

Sì. Per applicare una policy "Nessun accesso a dati Internet" per i punti di accesso nella tua organizzazione, dovresti assicurarti che tutti i punti di accesso implementino un accesso esclusivo VPC. Affinché questo accada, scriverai una policy di controllo dei servizi AWS che supporti solo il valore "vpc" per il parametro "controllo dell'origine della rete" nell'API create_access_point(). In caso di punti di accesso connessi a Internet creati da te in precedenza, questi possono essere eliminati. Dovrai anche modificare la policy di bucket in ciascuno dei tuoi bucket per limitare ulteriormente l'accesso Internet al tuo bucket tramite il nome host del bucket. Dato che altri servizi AWS possono accedere direttamente al tuo bucket, assicurati di configurare l'accesso per abilitare i servizi AWS che desideri modificando la policy per abilitarli. Consulta la documentazione S3 per esempi su come farlo.

D: È possibile disabilitare completamente l'accesso diretto ad un bucket utilizzando il nome host del bucket?

Al momento non ancora, ma puoi collegare una policy di bucket che rifiuti le richieste non avanzate utilizzando un access point. Consulta la documentazione S3 per ulteriori dettagli.

D: È possibile sostituire o rimuovere un access point da un bucket?

Sì. Quando si rimuove un access point, l'accesso al bucket associato attraverso altri access point e l'host name del bucket non sarà interrotto.

D: Quanto costa il servizio Access Point di Amazon S3?

Non sono previste spese aggiuntive per access point o bucket che utilizzano access point. Si applicano le normali tariffe per richieste Amazon S3.

D: Come si inizia a usare Access Point S3?

Si può iniziare a creare access point S3 sui bucket nuovi ed esistenti usando la console di gestione AWS, l'interfaccia a riga di comando (CLI) di AWS, l'API e il client del Software Development Kit (SDK) AWS. Per ulteriori informazioni su Access Point S3, consulta la guida per l'utente.

Durabilità e protezione dei dati

D: Qual è la durabilità di Amazon S3?

Le classi di archiviazione Amazon S3 Standard, S3 Standard-IA, S3 Intelligent-Tiering, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive sono tutte progettate per fornire una durabilità pari al 99,999999999% (undici nove) degli oggetti per un determinato anno. Tale livello di durabilità corrisponde a una perdita di oggetti annuale media stimata dello 0,000000001%. Ad esempio, se vengono memorizzati 10.000.000 di oggetti in Amazon S3, in media ci si può aspettare la perdita di un singolo oggetto una volta ogni 10.000 anni. S3 su Outposts è progettato per archiviare i dati, secondo criteri di durabilità e ridondanza, su più dispositivi e server sul tuo Outpost. Inoltre, le classi Amazon S3 Standard, S3 Standard-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive sono state progettate per salvaguardare i dati anche in caso di perdita di un'intera zona di disponibilità S3.

Come per qualsiasi altro ambiente, le best practice prevedono di creare un backup da archiviare in un percorso protetto dall'eliminazione fraudolenta o accidentale. Per i dati di S3, le best practice includono autorizzazioni di accesso sicure, la replica in più regioni, il controllo delle versioni e backup testati regolarmente. 

D: In che modo Amazon S3 assicura una durabilità dei dati del 99,999999999%?

Le classi di archiviazione Amazon S3 Standard, S3 Standard-IA, S3 Intelligent-Tiering e S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive archiviano gli oggetti secondo un criterio di ridondanza su più dispositivi in un minimo di tre zone di disponibilità all'interno di una regione Amazon S3 prima di restituire SUCCESS. La classe di archiviazione S3 One Zone-IA archivia i dati in modo ridondante su più dispositivi all'interno di una stessa zona di disponibilità. Questi servizi sono progettati per salvaguardare i dati anche nel caso di fallimento dei dispositivi; rilevano e riparano infatti in modo rapido l'eventuale perdita di ridondanza, verificando regolarmente l'integrità dei dati mediante checksum.

D: Quale tipo di checksum impiega Simple Storage Service (Amazon S3) per verificare l'integrità dei dati?

Per verificare l'integrità dei dati, Amazon S3 impiega una combinazione di checksum Content-MD5, Secure Hash Algorithm (SHA) e controlli di ridondanza ciclici (CRC). Amazon S3 esegue il checksum sui dati a riposo e corregge gli eventuali errori utilizzando i dati ridondanti. Inoltre, S3 calcola i checksum su tutto il traffico di rete per rilevare alterazioni dei pacchetti di dati durante il salvataggio o il recupero dei dati. Puoi scegliere tra quattro algoritmi di checksum supportati per la verifica dell'integrità dei dati sulle richieste di caricamento e download. A seconda delle esigenze della tua applicazione, puoi scegliere tra gli algoritmi di checksum SHA-1, SHA-256, CRC32 o CRC32C. Puoi calcolare e verificare automaticamente i checksum mentre archivi o recuperi dati da S3 e accedere alle informazioni relative al checksum in qualunque momento tramite l'API S3 GetObjectAttributes o il report sull'inventario S3. Il calcolo del checksum durante la trasmissione dei dati in S3 consente di risparmiare tempo, perché la verifica e la trasmissione dei dati sono riunite in unico passaggio anziché richiedere due operazioni successive. L'utilizzo dei checksum per la convalida dei dati è una best practice per la durata dei dati e queste funzionalità aumentano le prestazioni e riducono i costi associati.

D: Che cos'è il controllo delle versioni?

La funzione Versioni multiple consente di conservare, recuperare e ripristinare qualsiasi versione di ogni oggetto archiviato in un bucket Amazon S3. Quando si abilita la funzione Versioni multiple per un bucket, Amazon S3 conserva gli oggetti esistenti tutte le volte che si esegue un'operazione PUT, POST, COPY o DELETE su di essi. Di default, le richieste GET recuperano la versione più recente. Le versioni precedenti di un oggetto sovrascritto o eliminato possono essere recuperate specificando la versione nella richiesta.

D: Qual è il vantaggio di utilizzare la funzione Versioni multiple?

Amazon S3 mette a disposizione dei clienti un'infrastruttura di storage estremamente durevole. La funzione Versioni multiple offre un ulteriore livello di protezione in quanto consente di recuperare un oggetto sovrascritto o eliminato accidentalmente. In questo modo è possibile eseguirne il ripristino sia in seguito ad errori da parte dell'utente, sia in seguito a guasti dell'applicazione. È inoltre possibile utilizzare la funzione Versioni multiple a fini di conservazione e archiviazione dei dati.

D: Come si inizia a usare la funzione Versioni multiple?

La funzione Versioni multiple si abilita mediante un'impostazione del bucket di Amazon S3. Per ulteriori informazioni in proposito, consulta la documentazione tecnica di Amazon S3.

D: In che modo la funzione Versioni multiple protegge gli oggetti dall'eliminazione accidentale?

Quando un utente effettua un'operazione DELETE su un oggetto, le successive richieste semplici (che quindi non specificano la versione) non recupereranno più quell'oggetto. Tuttavia, tutte le versioni di quell'oggetto continueranno ad essere mantenute nel bucket di Amazon S3 e potranno essere recuperate o ripristinate. Soltanto il proprietario del bucket Amazon S3 può eliminare definitivamente una versione. È possibile impostare delle regole del ciclo di vita per gestire la durata e il costo di archiviazione di molteplici versioni degli oggetti.

D: È possibile configurare una finestra di cestino, di cestino di riciclaggio o di un intervallo di ripristino dello stato precedente per gli oggetti Amazon S3 in modo da poterli recuperare dall'eliminazione o dalla sovrascrittura?

È possibile usare regole del ciclo di vita di Amazon S3 insieme alla funzione di Controllo delle versioni S3 per definire un intervallo per il ripristino dello stato precedente degli oggetti S3. Ad esempio, in un bucket con la funzione di controllo delle versioni abilitata, è possibile impostare una regola che determini l'archiviazione di tutte le versioni precedenti nella classe di archiviazione S3 Glacier Flexible Retrieval, la più economica, e la loro eliminazione dopo 100 giorni; in tal modo si avrà un intervallo di ripristino dello stato precedente di cento giorni per annullare le modifiche, riducendo allo stesso tempo i costi di archiviazione. Inoltre, puoi risparmiare sui costi eliminando le vecchie versioni (non correnti) di un oggetto dopo cinque giorni e quando ci sono almeno due nuove versioni dell'oggetto. Puoi modificare il numero di giorni o il numero di nuove versioni in base ai tuoi requisiti di ottimizzazione dei costi. Questo ti permette di mantenere versioni aggiuntive dei tuoi oggetti quando necessario ma ti fa risparmiare sui costi spostandole o rimuovendole dopo un certo periodo di tempo.

D: In che modo è possibile garantire la massima sicurezza per le versioni precedenti di un oggetto?

Per ottenere un ulteriore livello di protezione, è possibile impiegare la funzionalità di eliminazione Multi-Factor Authentication (MFA) della funzione Versioni multiple, che utilizza l'autenticazione a più fattori. Di default, tutte le richieste verso il bucket Amazon S3 necessitano l'inserimento delle credenziali dell'account AWS. Abilitando la funzione Versioni multiple con l'eliminazione MFA sul bucket Amazon S3, per eliminare definitivamente una versione di un oggetto sono necessarie due forme di autenticazione: le credenziali del tuo account AWS e un codice a sei cifre comprensivo di numero seriale proveniente da un dispositivo di autenticazione che solo tu possiedi fisicamente. Per ulteriori informazioni su come abilitare la funzione Versioni multiple con l'eliminazione MFA e su come acquistare e attivare il dispositivo di autenticazione, consulta la documentazione tecnica di Amazon S3.

D: Quali costi vengono addebitati per l'uso della funzione Versioni multiple?

Per ogni versione di un oggetto salvata o richiesta vengono addebitati i normali costi di Amazon S3. Per illustrare i costi di storage quando viene utilizzata la funzione Versioni multiple, prendiamo come esempio il seguente scenario ambientato in un mese di 31 giorni:

1) Giorno 1 del mese: viene eseguita una richiesta PUT di 4 GB (4.294.967.296 byte) sul bucket.
2) Giorno 16 del mese: viene eseguita una richiesta PUT di 5 GB (5.368.709.120 byte) sullo stesso bucket tramite la stessa chiave usata il primo giorno del mese.

Durante l'analisi dei costi di storage per le operazioni descritte, è necessario tenere conto che l'oggetto da 4 GB caricato il primo giorno del mese non viene eliminato dal bucket quando l'oggetto da 5 GB viene aggiunto a metà mese. L'oggetto da 4 GB viene anzi conservato come versione precedente, mentre l'oggetto da 5 GB diventa la versione scritta più recente dello stesso oggetto nel bucket. Alla fine del mese:

Consumo ore-byte totale
= [4.294.967.296 byte x 31 giorni x (24 ore al giorno)] + [5.368.709.120 byte x 16 giorni x (24 ore al giorno)] = 5.257.039.970.304 ore-byte.

GB al mese totali
5.257.039.970.304 ore-byte x (1 GB/1.073.741.824 byte) x (1 mese/744 ore) = 6,581 GB/mese

I costi sono calcolati in base alle tariffe correnti nella regione d'uso secondo la pagina dei prezzi di Amazon S3.

Classi di archiviazione

D: Che cosa sono le classi di archiviazione Amazon S3?

Amazon S3 offre una gamma di classi di archiviazione che puoi scegliere in base ai requisiti di accesso ai dati, resilienza e costi dei tuoi carichi di lavoro. Le classi di archiviazione S3 sono costruite appositamente per fornire l'archiviazione più economica per diversi modelli di accesso. Le classi di archiviazione S3 sono ideali per qualsiasi caso d'uso, compresi quelli con esigenze di prestazioni impegnative, requisiti di residenza dei dati, modelli di accesso sconosciuti o variabili, o spazio di archiviazione. Ciascuna classe di archiviazione S3 prevede un costo per l'archiviazione dei dati e tariffe per l'accesso ai dati. Quando devi scegliere la classe di archiviazione S3 più adatta al tuo carico di lavoro, considera i modelli di accesso e il tempo di conservazione dei tuoi dati per ottimizzare il costo totale per tutta la vita utile dei dati.

Le classi di archiviazione S3 possono essere configurate a livello di oggetto e un singolo bucket può contenere oggetti archiviati in tutte le classi. Per trasferire oggetti in modo automatico da una classe a un'altra senza apportare modifiche alle applicazioni, è possibile usare anche le policy del ciclo di vita di S3.

D: Come si sceglie la classe di archiviazione S3 da usare?

Quando devi scegliere la classe di archiviazione S3 più adatta al tuo carico di lavoro, considera i modelli di accesso e il tempo di conservazione dei tuoi dati per ottimizzare il costo totale per tutta la vita utile dei dati. Molti carichi di lavoro presentano modelli di accesso variabili (contenuto generato dagli utenti), imprevedibili (analisi dei dati, data lake) o sconosciuti (nuove applicazioni), ecco perché S3 Intelligent-Tiering dovrebbe essere la classe di archiviazione di default per risparmiare automaticamente sui costi di archiviazione. Se conosci i modelli di accesso dei tuoi dati, puoi seguire queste linee guida. La classi di archiviazione S3 Standard è l'ideale per i dati ad accesso frequente; si tratta della scelta migliore se si accede ai dati più di una volta al mese. S3 Standard-Infrequent Access è l'ideale per i dati mantenuti per almeno un mese e a cui si accede una volta al mese od ogni due mesi.

Le classi di archiviazione di Amazon S3 Glacier sono dedicate all'archiviazione dei dati e forniscono le prestazioni migliori, la massima flessibilità in termini di recupero e il costo di archiviazione più basso nel cloud. Puoi scegliere fra tre classi di archiviazione ottimizzate a seconda dei modelli di accesso e della durata dell'archiviazione. Per i dati di archivio che richiedono l'accesso immediato, come le immagini mediche, le risorse della stampa o i dati sulla genomica, scegli la classe di archiviazione S3 Glacier Instant Retrieval, una classe di archiviazione che offre il recupero in millisecondi a un costo irrisorio. Per i dati di archivio che non richiedono l'accesso immediato ma per cui è necessaria la flessibilità per recuperare grandi set di dati a un costo irrisorio, come backup o casi d'uso di ripristino di emergenza, scegli S3 Glacier Flexible Retrieval (precedentemente S3 Glacier), che eseguirà il recupero in pochi minuti oppure recuperi in massa gratuiti dalle 5 alle 12 ore. Per risparmiare ulteriormente sull'archiviazione a lungo termine come archivi di conformità e conservazione dei media digitali, scegli S3 Glacier Deep Archive, il servizio di archiviazione cloud più conveniente che ti permette di recuperare i dati entro 12 ore. Tutte queste classi di archiviazione offrono la resilienza su più zone di disponibilità archiviando i dati in modo ridondante su molteplici dispositivi e zone di disponibilità AWS fisicamente separate all'interno di una regione AWS.

Per i dati che presentano requisiti di resilienza inferiori, puoi ridurre i costi selezionando una classe di archiviazione a zona di disponibilità singola, ad esempio S3 One Zone-Infrequent Access. Se hai determinati requisiti sulla posizione o sulla latenza dei dati che non possono essere soddisfatti da alcuna regione AWS esistente, puoi scegliere S3 su Outposts per archiviare i dati on-premise.

Per ulteriori informazioni sulle classi, consulta la pagina delle classi di archiviazione di Amazon S3

S3 Intelligent-Tiering

D: Che cos'è S3 Intelligent-Tiering?

S3 Intelligent-Tiering è la prima soluzione di archiviazione nel cloud che riduce i costi di archiviazione a livello di oggetto granulare spostando automaticamente i dati al livello di accesso più conveniente in base alla frequenza di accesso, senza impatto su prestazioni, tariffe di recupero o investimenti operativi. S3 Intelligent-Tiering offre prestazioni con latenza nell'ordine dei millisecondi e velocità effettiva elevata per dati ad accesso frequente, infrequente e raro nei livelli Frequent, Infrequent e Archive Instant Access. Al costo di una tariffa mensile modica per il monitoraggio e l'automazione degli oggetti, S3 Intelligent-Tiering monitora i modelli di accesso e sposta gli oggetti automaticamente da un livello all'altro. S3 Intelligent-Tiering non prevede costi di recupero, pertanto non si verificano aumenti imprevisti degli importi delle fatture relative all'archiviazione al cambiamento dei modelli di accesso.

È possibile usare S3 Intelligent-Tiering come classe di archiviazione di default per qualsiasi carico di lavoro, in particolare per i data lake, l'analisi dei dati, il machine learning, le nuove applicazioni e i contenuti generati dagli utenti.

D: Come funziona S3 Intelligent-Tiering?

La classe di archiviazione Amazon S3 Intelligent-Tiering è progettata per ottimizzare i costi di archiviazione attraverso lo spostamento automatico dei dati nel livello di accesso più conveniente quando si verifica un cambiamento nei modelli di accesso. Al costo di una tariffa mensile modica per il monitoraggio e l'automazione degli oggetti, S3 Intelligent-Tiering monitora i modelli di accesso e sposta automaticamente gli oggetti a cui non è stato effettuato l'accesso per trenta giorni consecutivi nel livello Infrequent Access per risparmiare fino al 40% sui costi di archiviazione. Dopo novanta giorni consecutivi senza accesso, gli oggetti vengono spostati nel livello Archive Instant Access per risparmiare fino al 68% sui costi di archiviazione. S3 Intelligent-Tiering non influisce sulle prestazioni e non prevede costi di recupero. Se successivamente viene effettuato l'accesso a un oggetto nel livello Infrequent Access o Archive Instant Access, l'oggetto viene ritrasferito automaticamente nel livello Frequent Access.

Per ottenere il costo di archiviazione minimo sui dati a cui è consentito l'accesso asincrono, si può scegliere di attivare ulteriori funzionalità di archiviazione. Una volta abilitato un livello di accesso all'archivio asincrono oppure entrambi, S3 Intelligent-Tiering sposterà gli oggetti a cui non è stato effettuato l'accesso per un minimo di novanta giorni nel livello Archive Access per risparmiare fino al 71% e, dopo centottanta giorni senza accesso, nel livello Deep Archive Access per risparmiare fino al 95% per gli oggetti a cui si accede raramente. Se in seguito viene ripristinato, un oggetto nei livelli opzionali Archive o Deep Access viene spostato nuovamente nel livello Frequent Access e, prima di poterlo recuperare, è necessario ripristinarlo usando RestoreObject. Per informazioni sul ripristino di oggetti archiviati, consulta Ripristino di oggetti archiviati. In S3 Intelligent-Tiering non sono previsti costi di recupero. Lo spostamento di oggetti tra i livelli di accesso all'interno della classe di archiviazione S3 Intelligent-Tiering non comporta l'applicazione di costi di livello o del ciclo di vita aggiuntivi.

S3 Intelligent-Tiering non prevede una dimensione minima degli oggetti, ma gli oggetti più piccoli di 128 KB non sono idonei per l'assegnazione di livelli automatica. È possibile archiviare tali oggetti di dimensioni inferiori in S3 Intelligent-Tiering, ma si applicheranno sempre le tariffe del livello di Frequent Access e non quelle per monitoraggio e automazione.

Se desideri standardizzare S3 Intelligent-Tiering come classe di archiviazione di default per i dati appena creati, puoi modificare le applicazioni specificando INTELLIGENT-TIERING nell'header di richiesta dell'API PUT S3. S3 Intelligent-Tiering è progettata per garantire una disponibilità del 99,9% e una durabilità del 99,999999999%; allo stesso tempo, offre automaticamente le stesse prestazioni con bassa latenza e velocità effettiva elevata della classe S3 Standard. Puoi usare AWS Cost Explorer per misurare i risparmi aggiuntivi rispetto al livello Archive Instant Access.

D: Quali vantaggi offre S3 Intelligent-Tiering?

È possibile usare S3 Intelligent-Tiering come classe di archiviazione di default per qualsiasi carico di lavoro, in particolare per i data lake, l'analisi dei dati, il machine learning, le nuove applicazioni e i contenuti generati dagli utenti. S3 Intelligent-Tiering è la prima soluzione di archiviazione nel cloud che riduce i costi di archiviazione a livello di oggetto granulare spostando automaticamente i dati al livello di accesso più conveniente in base alla frequenza di accesso, senza impatto su prestazioni, tariffe di recupero o investimenti operativi. Se disponi di dati con modelli di accesso sconosciuti o variabili, tra cui data lake, analisi dei dati e nuove applicazioni, consigliamo l'uso di S3 Intelligent-Tiering. Se disponi di dati che non richiedono il recupero immediato, consigliamo di attivare il livello Deep Archive Access, che prevede il modico costo di 1 USD per TB al mese per i dati a cui si prevede di accedere raramente in periodi di tempo lunghi. S3 Intelligent-Tiering è indicato per i dati con modelli di accesso sconosciuti o variabili. L'uso della classe di archiviazione S3 Intelligent-Tiering non prevede l'addebito di tariffe per il recupero.

D: Quali prestazioni offre S3 Intelligent-Tiering?

S3 Intelligent-Tiering ottimizza automaticamente i costi di archiviazione senza incidere sulle prestazioni. I livelli di accesso Frequent, Infrequent e Archive Instant Access di S3 Intelligent-Tiering offrono prestazioni con latenza nell'ordine dei millisecondi e velocità effettiva elevata.

D: Quali prestazioni offrono i livelli opzionali Archive Access e Deep Archive Access?

Per i dati che consentono l'accesso asincrono, il livello opzionale Archive Access ha le stesse prestazioni di S3 Glacier Flexible Retrieval, mentre il livello Deep Archive Access ha le stesse prestazioni della classe di archiviazione S3 Glacier Deep Archive. È consigliabile attivare le funzionalità di archivio asincrono soltanto se l'applicazione può attendere da minuti a ore. Se l'oggetto da recuperare è archiviato nei livelli Archive o Deep Archive Access, prima di recuperarlo, dovrai ripristinare un oggetto usando RestoreObject. Per informazioni sul ripristino di oggetti archiviati, consulta Ripristino di oggetti archiviati. Gli oggetti del livello Archive Access vengono spostati nel livello Frequent Access in un lasso di tempo dalle 3 alle 5 ore, mentre quelli del livello Deep Archive Access entro 12 ore. Se hai bisogno di accedere più rapidamente a un oggetto nel livello di accesso Archive, puoi pagare il recupero più rapido utilizzando la console per selezionare l'opzione velocità di recupero maggiore.

D: Quali livelli di durabilità e disponibilità offre S3 Intelligent-Tiering?

S3 Intelligent-Tiering è progettato per avere la stessa durabilità (99,999999999%) della classe di storage S3 Standard. S3 Intelligent-Tiering è progettato per fornire il 99,9% di disponibilità ed è coperto da un contratto sul livello di servizio che offre al cliente dei crediti se durante un ciclo di fatturazione la disponibilità è inferiore a quella dichiarata.

D: Come si ottengono i dati in S3 Intelligent-Tiering?

Sono disponibili due metodi per ottenere i dati in S3 Intelligent-Tiering. Puoi effettuare il PUT direttamente in S3 Intelligent-Tiering specificando INTELLIGENT_TIERING nell'intestazione x-amz-storage-class o impostando le policy del ciclo di vita per eseguire la transizione degli oggetti da S3 Standard o S3 Standard-IA a S3 INTELLIGENT_TIERING.

D: Quali sono i costi di S3 Intelligent-Tiering?

I costi di S3 Intelligent-Tiering dipendono dall'archiviazione mensile, dalle richieste e dal trasferimento dei dati. È inoltre previsto un costo mensile modico per il monitoraggio e l'automazione dei singoli oggetti. La classe di archiviazione S3 Intelligent-Tiering archivia automaticamente gli oggetti in tre livelli di accesso: un livello Frequent Access al costo delle tariffe di archiviazione di S3 Standard, un livello Infrequent Access al costo delle tariffe di archiviazione di S3 Standard - Infrequent Access e un livello Archive Instant Access al costo delle tariffe di archiviazione di S3 Glacier Instant Retrieval. Inoltre, S3 Intelligent-Tiering offre due livelli di archiviazione opzionali progettati per l'accesso asincrono: un livello Archive Access al costo delle tariffe di archiviazione di S3 Glacier Flexible Retrieval e un livello Deep Archive Access al costo delle tariffe di archiviazione di S3 Glacier Deep Archive.

Pagando una tariffa di monitoraggio e automazione contenuta, S3 Intelligent-Tiering monitora i modelli di accesso e sposta automaticamente gli oggetti fra livelli di accesso a bassa latenza e velocità effettiva elevata, nonché fra due livelli di accesso all'archivio asincrono opzionali in cui i clienti ottengono i costi più bassi di archiviazione nel cloud per i dati che ammettono l'accesso asincrono.

S3 Intelligent-Tiering non prevede una dimensione minima degli oggetti fatturabile, ma gli oggetti più piccoli di 128 KB non sono idonei per l'assegnazione di livelli automatica. Questi oggetti di piccole dimensioni non saranno monitorati e saranno applicate le tariffe del livello Frequent Access, senza costi per monitoraggio e automazione. Per ogni oggetto archiviato nei livelli Archive Access o Deep Archive Access in S3 Intelligent-Tiering, Amazon S3 usa 8 KB di archiviazione per il nome dell'oggetto e altri metadati (fatturati alle tariffe di archiviazione di S3 Standard) e 32 KB di archiviazione per l'indice e i relativi metadati (fatturati alle tariffe di archiviazione di S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive).

D: È prevista una tariffa per il recupero dei dati da S3 Intelligent-Tiering?

No. S3 Intelligent-Tiering non prevede costi di recupero. S3 Intelligent-Tiering monitora i modelli di accesso dei dati e se si accede a un oggetto nei livelli Infrequent Access, Archive Instant Access o di archivio asincrono, S3 Intelligent-Tiering lo sposta automaticamente nel livello Frequent Access.

D: Come si attivano i livelli di accesso Archive di S3 Intelligent-Tiering?

Puoi attivare i livelli di accesso Archive e Deep Archive creando un bucket, un prefisso o una configurazione del livello di tag dell'oggetto utilizzando le API di Amazon S3, la CLI o la console di gestione S3. Se accedi agli oggetti in modo asincrono dalle tue applicazioni, dovresti attivare uno o entrambi i livelli di accesso Archive.

Posso estendere il tempo prima che gli oggetti vengano archiviati nella classe di storage di S3 Intelligent-Tiering?

Sì. Nel bucket, nel prefisso o nella configurazione del livello di tag dell'oggetto, puoi estendere l'ultima data di accesso per l'archiviazione di oggetti in S3 Intelligent-Tiering. Una volta abilitato il servizio, di default gli oggetti a cui non hai effettuato l'accesso per un minimo di novanta giorni consecutivi vengono automaticamente spostati nel livello Archive Access, saltando il livello Archive Instant Access. Gli oggetti a cui non accedi per almeno centottanta giorni consecutivi vengono invece spostati automaticamente nel livello Deep Archive Access. La configurazione predefinita per i giorni consecutivi dall'ultimo accesso prima dell'archiviazione automatica in S3 Intelligent-Tiering può essere estesa fino a 2 anni.

D: Come posso accedere a un oggetto dai livelli di accesso Archive o Deep Archive nella classe di storage S3 Intelligent-Tiering?

Per accedere a un oggetto nei livelli di accesso Archive o Deep Archive, devi emettere una richiesta di ripristino e l'oggetto inizierà a tornare nel livello di accesso frequente, sempre nella classe di storage S3 Intelligent-Tiering. Gli oggetti del livello di accesso Archive vengono spostati nel livello di Accesso frequente in 3-5 ore, mentre gli oggetti del livello Deep Archive entro 12 ore. Quando gli oggetti sono di nuovo nel livello Frequent Access, puoi inviare una richiesta GET per recuperarli.

D: Come faccio a sapere in quale livello di accesso di S3 Intelligent-Tiering sono archiviati i miei oggetti?

Puoi usare Amazon S3 Inventory per segnalare il livello di accesso degli oggetti archiviati nella classe di archiviazione S3 Intelligent-Tiering. Amazon S3 Inventory genera file di output CSV, ORC o Parquet che elencano i tuoi oggetti e i metadati corrispondenti giornalmente o settimanalmente per un bucket S3 o un prefisso condiviso. Inoltre, è possibile effettuare una richiesta HEAD sugli oggetti per riportare i livelli di accesso Archive di S3 Intelligent-Tiering.

D: È possibile modificare il ciclo di vita degli oggetti da S3 Intelligent-Tiering a un'altra classe di archiviazione?

Sì. È possibile modificare il ciclo di vita degli oggetti dai livelli Frequent Access, Infrequent e Archive Instant Access di S3 Intelligent-Tiering a S3 One-Zone Infrequent Access, S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive. Inoltre, puoi modificare il ciclo di vita degli oggetti dai livelli di accesso Archive opzionali di S3 Intelligent-Tiering a S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive, così come dal livello Deep Archive Access di S3 Intelligent-Tiering a S3 Glacier Deep Archive.

D: È prevista una durata minima per S3 Intelligent-Tiering?

No. La classe di archiviazione di S3 Intelligent-Tiering non prevede una durata di archiviazione minima.

D: È prevista una dimensione minima fatturabile degli oggetti per S3 Intelligent-Tiering?

No. La classe di archiviazione di S3 Intelligent-Tiering non prevede una dimensione minima degli oggetti fatturabile, ma gli oggetti più piccoli di 128 KB non sono idonei per il tiering automatico. A questi oggetti di piccole dimensioni saranno applicate le tariffe del livello Frequent Access, senza costi per monitoraggio e automazione. Per ogni oggetto archiviato nei livelli opzionali Archive Access e Deep Archive Access in S3 Intelligent-Tiering, Amazon S3 usa 8 KB di archiviazione per il nome dell'oggetto e altri metadati (fatturati alle tariffe di archiviazione di S3 Standard) e 32 KB di archiviazione per l'indice e i relativi metadati (fatturati alle tariffe di archiviazione di S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive). Per ulteriori dettagli, visita la pagina dei prezzi di Amazon S3

S3 Standard

D: Che cos'è S3 Standard?

Amazon S3 Standard è una soluzione di archiviazione durevole che offre prestazioni con latenza nell'ordine dei millisecondi e velocità effettiva elevata per i dati ad accesso frequente, in genere superiore a una volta al mese. S3 Standard è progettata per i casi d'uso in cui le prestazioni sono fondamentali, ad esempio data lake, applicazioni native per il cloud, website dinamici, distribuzione di contenuti, applicazioni per dispositivi mobili e per il gaming, analisi dei dati e modelli di machine learning. S3 Standard è progettata per offrire una disponibilità dei dati pari al 99,99% e una durabilità del 99,999999999% degli oggetti su più zone di disponibilità in un determinato anno. Si possono usare policy del ciclo di vita di S3 per controllare con precisione quando i dati vengono trasferiti fra S3 Standard e classi di archiviazione a costo inferiore senza modifiche all'applicazione.

D: Quali vantaggi offre S3 Standard?

S3 Standard è l'ideale per i dati a cui si accede o che si modificano più di frequente, per i quali sono necessari l'accesso entro millisecondi e una velocità effettiva elevata. S3 Standard è la soluzione migliore per i dati frequentemente sottoposti a lettura o scrittura, in quanto non prevede costi di recupero. Per questo motivo, S3 Standard è una classe ottimizzata per un'ampia gamma di casi d'uso, ad esempio data lake, applicazioni native per il cloud, website dinamici, distribuzione di contenuti, applicazioni per dispositivi mobili e gaming e analisi dei dati.

S3 Standard-Infrequent Access (S3 Standard-IA)

D: Cos'è S3 Standard-Infrequent Access?

Amazon S3 Standard-Infrequent Access (S3 Standard-IA) è una classe di archiviazione di Amazon S3 per i dati a cui si accede con minore frequenza, ma che necessitano di risposta rapida in caso di necessità. La classe S3 Standard-IA offre durabilità e velocità effettiva elevate, nonché la bassa latenza della classe di archiviazione Amazon S3 Standard, con un costo di archiviazione per GB e una tariffa di recupero dei dati inferiori. Questa combinazione di costi ridotti e prestazioni elevate rendono S3 Standard-IA la soluzione ideale per archiviazione a lungo termine, backup e datastore per il ripristino di emergenza. La classe di archiviazione S3 Standard-IA è configurata a livello di oggetto e può coesistere nello stesso bucket insieme alle classi S3 Standard o S3 One Zone-IA, consentendo l'impiego di policy del ciclo di vita con cui trasferire automaticamente gli oggetti da una classe a un'altra senza dover apportare modifiche alle applicazioni.

D: Qual è il vantaggio della classe S3 Standard-IA?

La classe S3 Standard-IA è la soluzione ideale per i dati a cui si accede con minore frequenza, ma che necessitano di risposta rapida in caso di necessità. È uno strumento ideale per l'archiviazione di file a lungo termine e il salvataggio di dati provenienti da condivisioni e sincronizzazioni e altri dati obsoleti.

D: Quali prestazioni offre S3 Standard-IA?

S3 Standard-IA offre prestazioni di latenza nell'ordine dei millisecondi e velocità effettiva elevata identiche a quelle della classe di archiviazione S3 Standard. 

D: Come si inseriscono i dati in S3 Standard-IA?

Sono disponibili due metodi per caricare dati nella classe S3 Standard-IA. Il primo consiste nel creare richieste PUT direttamente in S3 Standard-IA specificando STANDARD_IA nell'intestazione x-amz-storage-class. Il secondo prevede l'impostazione di policy sul ciclo di vita con cui trasferire gli oggetti dalla classe S3 Standard alla classe S3 Standard-IA.

D: Quali costi vengono addebitati per modificare la classe di storage di un oggetto daS3 Standard-IA a S3 Standard con una richiesta COPY?

Saranno addebitati i costi per una richiesta COPY S3 Standard-IA e per un recupero dati da S3 Standard-IA.

D: È prevista una durata di archiviazione minima nella classe S3 Standard-IA?

La classe S3 Standard-IA è progettata per l'archiviazione a lungo termine di dati a cui si accede con minore frequenza e che è necessario conservare per mesi o anni. Ai dati eliminati da S3 Standard-IA entro trenta giorni sarà applicata la tariffa intera di trenta giorni. Per informazioni sui prezzi di S3 Standard-IA, consulta la pagina dei prezzi di Amazon S3.

D: È prevista una tariffa minima per l'archiviazione di oggetti nella classe S3 Standard-IA?

La classe S3 Standard-IA è stata progettata per il salvataggio di oggetti di grandi dimensioni e prevede una tariffa minima per lo storage di oggetti corrispondente a 128 KB. Agli oggetti di dimensioni inferiori a 128 KB sarà applicata una tariffa di archiviazione pari a quella degli oggetti da 128 KB. Ad esempio, a un oggetto di 6 KB nella classe di archiviazione S3 Standard-IA sarà applicata la normale tariffa per i 6 KB di archiviazione e una tariffa aggiuntiva per gli oggetti di dimensioni inferiore pari a 122KB al costo di archiviazione di S3 Standard-IA. Per informazioni sui prezzi di S3 Standard-IA, consulta la pagina dei prezzi di Amazon S3.

D: È possibile trasferire oggetti da S3 Standard-IA a S3 One Zone-IA oppure alla classe di archiviazione S3 Glacier Flexible Retrieval?

Sì. Oltre che per trasferire gli oggetti da S3 Standard a S3 Standard-IA, è possibile impostare policy del ciclo di vita per spostare di livello gli oggetti da S3 Standard-IA a S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval e alla classe di archiviazione S3 Glacier Deep Archive.

S3 One Zone-Infrequent Access (S3 One Zone-IA)

D: Cos'è la classe di storage S3 One Zone-IA?

S3 One Zone-IA è una classe di storage Amazon S3 che permette ai clienti di memorizzare gli oggetti in una singola zona di disponibilità. In questo modo, pur utilizzando strumenti di ridondanza, il costo dell'archiviazione risulta minore del 20% rispetto ai servizi che offrono ridondanza su più zone separate, ad esempio S3 Standard-IA.

La classe di archiviazione S3 One Zone-IA offre una disponibilità del 99% secondo il contratto sul livello di servizio e una durabilità del 99,999999999% all'interno della zona di disponibilità scelta. Tuttavia, i dati nella classe di archiviazione S3 One Zone-IA non sono resilienti alla perdita fisica di un'intera zona di disponibilità.

S3 One Zone-IA offre le stesse caratteristiche offerte dalle classi S3 Standard e S3 Standard-IA e può essere usata mediante l'API, la CLI e la console Amazon S3. La classe di storage S3 One Zone-IA è configurata a livello di oggetto e può coesistere nello stesso bucket insieme alle classi S3 Standard ed S3 Standard-IA. Per trasferire oggetti in modo automatico da una classe a un'altra senza apportare modifiche alle applicazioni, è possibile utilizzare le policy sul ciclo di vita di S3.

D: Per quali casi d'uso è destinata la classe di archiviazione S3 One Zone-IA?

La classe di storage S3 One Zone-IA è consigliata per lo storage di contenuti a cui non si accede in modo frequente, ad esempio copie di backup o di disaster recovery e altri dati che è possibile ricreare con facilità.

D: Quali prestazioni offre la classe di archiviazione S3 One Zone-IA?

La classe di archiviazione S3 One Zone-IA offre prestazioni di latenza e throughput identiche a quelle delle classi di archiviazione S3 Standard e S3 Standard-IA

D: Quali livelli di durabilità offre la classe di archiviazione S3 One Zone-IA?

La classe di archiviazione S3 One Zone-IA è progettata per garantire una durabilità del 99,999999999% all'interno di una zona di disponibilità. Tuttavia, i dati nella classe di archiviazione S3 One Zone-IA non sono resilienti alla perdita di disponibilità o alla perdita fisica di una zona di disponibilità. Le classi di archiviazione S3 Standard, S3 Intelligent-Tiering, S3 Standard - Infrequent Access e S3 Glacier, invece, sono in grado di superare la perdita di disponibilità o l'eliminazione di una zona di disponibilità. La classe S3 One Zone-IA offre durabilità e disponibilità paragonabili, se non migliori, alla maggior parte dei data center fisici moderni, oltre a una maggiore elasticità di archiviazione e al pacchetto di caratteristiche di Amazon S3.

D: Quando si parla della classe S3 One Zone-IA, per "zona" si intende una zona di disponibilità di AWS?

Sì. Ogni regione AWS si trova in un'area geografica differente. Ciascuna regione dispone di diverse zone di utilizzo isolate, note come zone di disponibilità. La classe di archiviazione Amazon S3 One Zone-IA impiega una sola zona di disponibilità all'interno di una regione AWS.

D: In quale misura l'uso della classe S3 One Zone-IA riduce le capacità di ripristino di emergenza?

Ciascuna zona di disponibilità impiega fonti di alimentazione e connessioni di rete ridondanti. All'interno di una regione AWS, le zone di disponibilità si trovano in aree soggette a diversi gradi di rischio per quanto riguarda inondazioni e terremoti, e sono distanti tra loro per evitare che siano soggette ad esempio a grandi incendi. La classi S3 Standard e S3 Standard-IA offrono protezione da questo genere di eventi perché archiviano i dati in modo ridondante su più zone di disponibilità. S3 One Zone-IA offre protezione dal guasto dell'apparecchiatura all'interno di una zona di disponibilità, ma i dati non sono resilienti alla perdita fisica della zona di disponibilità dovuta a calamità come terremoti o alluvioni. Le opzioni S3 One Zone-IA, S3 Standard e S3 Standard-IA permettono di scegliere il servizio più adatto alle singole esigenze di durabilità e disponibilità.

Classe di archiviazione Amazon S3 Glacier Instant Retrieval

D: Che cos'è la classe di archiviazione Amazon S3 Glacier Instant Retrieval?

La classe di archiviazione S3 Glacier Instant Retrieval offre l'archiviazione al costo minore per i dati di lunga durata a cui si accede raramente e che richiedono il recupero entro millisecondi. S3 Glacier Instant Retrieval offre l'accesso più veloce allo spazio di archiviazione, con la stessa velocità effettiva e lo stesso accesso entro millisecondi delle classi di archiviazione S3 Standard e S3 Standard-IA. S3 Glacier Instant Retrieval è progettata per offrire il 99,999999999% (undici nove) di durata dei dati e il 99,9% di disponibilità archiviando in modo ridondante i dati in un minimo di tre zone di disponibilità AWS fisicamente separate.

D: Quali vantaggi offre S3 Glacier Instant Retrieval?

S3 Glacier Instant Retrieval è l'ideale se si dispone di dati a cui si accede raramente (una volta a trimestre) e che richiedono il recupero entro millisecondi. È la classe di archiviazione ideale se si cercano le stesse prestazioni con bassa latenza e velocità effettiva elevata di S3 Standard-IA, ma si desidera archiviare i dati a cui si accede meno frequentemente rispetto a S3 Standard-IA, con un prezzo di archiviazione inferiore e costi di accesso ai dati leggermente superiori.

D: Quali sono la disponibilità e la durabilità di S3 Glacier Instant Retrieval?

La classe S3 Glacier Instant Retrieval è progettata per offrire una durabilità del 99,999999999% (undici nove) e una disponibilità del 99,9%, in modo analogo a S3 Standard-IA, e dispone di un Accordo sul Livello di Servizio (SLA) che garantisce crediti sul servizio se la disponibilità è inferiore al 99% in qualsiasi ciclo di fatturazione.

D: Quali prestazioni offre S3 Glacier Instant Retrieval?

S3 Glacier Instant Retrieval offre prestazioni di latenza nell'ordine dei millisecondi e velocità effettiva elevata identiche a quelle delle classi di archiviazione S3 Standard e S3 Standard-IA. A differenza delle classi S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive, che sono progettate per l'accesso asincrono, è necessario inviare una richiesta di ripristino per poter accedere ad un oggetto archiviato in S3 Glacier Instant Retrieval.

D: Come si inseriscono i dati in S3 Glacier Instant Retrieval?

Esistono due modi per inserire i dati in S3 Glacier Instant Retrieval. Il primo consiste nel creare richieste PUT direttamente in S3 Glacier Instant Retrieval specificando GLACIER_IR nell'header x-amz-storage-class. Il secondo prevede di impostare le policy del ciclo di vita di S3 affinché gli oggetti siano trasferiti da S3 Standard o S3 Standard-IA a S3 Glacier Instant Retrieval.

D: È previsto un costo per la durata di archiviazione minima in Amazon S3 Glacier Instant Retrieval?

La classe S3 Glacier Instant Retrieval è progettata per l'archiviazione a lungo termine di dati a cui si accede raramente e che è necessario conservare per mesi o anni. Gli oggetti archiviati in S3 Glacier Instant Retrieval hanno un minimo di novanta giorni di archiviazione e gli oggetti eliminati, sovrascritti o trasferiti prima di tale termine comportano un addebito proporzionale pari al costo di archiviazione per i giorni rimanenti. Per informazioni sui prezzi di Amazon S3 Glacier Instant Retrieval, consulta la pagina dei prezzi di Amazon S3.

D: È previsto un costo per dimensione minima di un oggetto in Amazon S3 Glacier Instant Retrieval?

S3 Glacier Instant Retrieval è progettato per oggetti di grandi dimensioni e prevede un costo per l'archiviazione di oggetti con dimensione minima di 128 KB. Agli oggetti di dimensioni inferiori a 128 KB sarà applicata una tariffa di archiviazione pari a quella degli oggetti da 128 KB. Ad esempio, a un oggetto di 6 KB in S3 Glacier Instant Retrieval saranno applicate le tariffe di archiviazione di S3 Glacier Instant Retrieval per 6 KB e un costo per dimensione minima di un oggetto pari a 122 KB al prezzo di archiviazione di S3 Glacier Instant Retrieval. Per informazioni sui prezzi di Amazon S3 Glacier Instant Retrieval, consulta la pagina dei prezzi di Amazon S3.

D: Come viene addebitato l'uso di S3 Glacier Instant Retrieval?

S3 Glacier Instant Retrieval prevede un addebito per l'archiviazione mensile, le richieste in base al tipo di richiesta e i recuperi di dati. Il volume di archiviazione fatturato in un mese si basa sulla media dell'archiviazione usata nel mese di riferimento, misurata in gigabyte al mese (GB-mese). Le richieste vengono addebitate in base al tipo, ad esempio PUT, COPY e GET. È inoltre previsto il pagamento di una tariffa a GB per ogni gigabyte di dati restituiti all'utente. 

Classe di archiviazione Amazon S3 Glacier Flexible Retrieval (precedentemente S3 Glacier)

D: Che cos'è la classe di archiviazione Amazon S3 Glacier Flexible Retrieval?

La classe di archiviazione S3 Glacier Flexible Retrieval offre archiviazione a basso costo, fino al 10% in meno (rispetto a S3 Glacier Instant Retrieval), per dati di archivio a cui si accede una o due volte all'anno e che vengono recuperati in modo asincrono, con recuperi di tipo Bulk gratuiti. Per i dati di archivio che non richiedono l'accesso immediato ma per cui è necessaria la flessibilità per recuperare grandi set di dati senza alcun costo, come backup o casi d'uso di ripristino di emergenza, S3 Glacier Flexible Retrieval (precedentemente S3 Glacier) è la classe di archiviazione ideale. S3 Glacier Flexible Retrieval offre le opzioni di recupero più flessibili in assoluto, che bilanciano i costi con tempi di accesso compresi tra minuti e ore e recuperi di tipo Bulk gratuiti. È una soluzione ideale per il backup, il ripristino di emergenza, le esigenze di archiviazione dati fuori sede e nelle occasioni in cui alcuni dati devono essere recuperati entro pochi minuti senza il pensiero dei costi. S3 Glacier Flexible Retrieval è progettata per offrire il 99,999999999% (undici nove) di durata dei dati e il 99,99% di disponibilità archiviando in modo ridondante i dati in più zone di disponibilità AWS fisicamente separate in un dato anno.

D:  Quali vantaggi offre la classe di archiviazione S3 Glacier Flexible Retrieval?

Per i dati di archivio che non richiedono l'accesso immediato ma per cui è necessaria la flessibilità per recuperare grandi set di dati senza alcun costo, come backup o casi d'uso di ripristino di emergenza, S3 Glacier Flexible Retrieval (precedentemente S3 Glacier) è la classe di archiviazione ideale. S3 Glacier Flexible Retrieval offre le opzioni di recupero più flessibili in assoluto, che bilanciano i costi con tempi di accesso compresi tra minuti e ore e recuperi di tipo Bulk gratuiti. È una soluzione ideale per il backup, il ripristino di emergenza, le esigenze di archiviazione dati fuori sede e nelle occasioni in cui alcuni dati devono essere recuperati entro pochi minuti senza il pensiero dei costi di recupero.

D: Come si inseriscono i dati in S3 Glacier Flexible Retrieval?

Esistono due modi per inserire i dati in S3 Glacier Flexible Retrieval. Il primo consiste nel creare richieste PUT direttamente in Amazon S3 Glacier Flexible Retrieval specificando GLACIER nell'header x-amz-storage-class. Il secondo prevede di usare le regole del ciclo di vita di S3 per trasferire gli oggetti da una qualsiasi delle classi di archiviazione S3 per dati attivi (S3 Standard, S3 Intelligent-Tiering, S3 Standard-IA, S3 One Zone-IA e S3 Glacier Instant Retrieval) ad Amazon S3 Glacier Flexible Retrieval in base all'età degli oggetti. Usa la console di gestione di Amazon S3, i kit SDK AWS o le API di Amazon S3 per creare direttamente richieste PUT in Amazon S3 Glacier o definire regole per l'archiviazione.

Nota: S3 Glacier Flexible Retrieval (precedentemente S3 Glacier) è disponibile anche attraverso le API di Glacier dirette originali e attraverso la console di gestione di Amazon S3 Glacier. Per un'esperienza migliore, completa di accesso all'intero set di funzionalità S3, tra cui la gestione del ciclo di vita, S3 Replication, S3 Storage Lens e altro ancora, si consiglia di usare le API S3 e la console di gestione di S3 per approfittare delle caratteristiche di S3 Glacier.

D: Come si recuperano gli oggetti archiviati in S3 Glacier Flexible Retrieval? Si riceve una notifica quando l'oggetto viene ripristinato?

Gli oggetti archiviati in S3 Glacier Flexible Retrieval consentono l'accesso asincrono. Per recuperare i dati archiviati in S3 Glacier Flexible Retrieval, è necessario avviare una richiesta di recupero mediante le API di Amazon S3 o la console di Amazon S3. La richiesta di recupero crea una copia temporanea dei dati nella classe di archiviazione S3 Standard e lascia intatti i dati archiviati in S3 Glacier Flexible Retrieval. È possibile specificare l'intervallo di tempo, in giorni, durante il quale la copia temporanea sarà archiviata in Amazon S3. Per accedervi da S3 è quindi necessaria una richiesta GET di Amazon S3 sull'oggetto archiviato. 

Con le notifiche di ripristino, si riceve una notifica di evento S3 quando un oggetto viene ripristinato correttamente da S3 Glacier Flexible Retrieval e ne viene resa disponibile una copia temporanea. Il proprietario del bucket (o altri, secondo quanto consentito da una policy IAM) può chiedere che le notifiche vengano emesse ad Amazon Simple Queue Service (SQS) o ad Amazon Simple Notification Service (SNS). Le notifiche possono essere inviate anche ad AWS Lambda affinché vengano elaborate da una funzione Lambda.

D: Quanto tempo richiede il ripristino degli oggetti archiviati in Amazon S3 Glacier Flexible Retrieval?

Durante un'attività di recupero, Amazon S3 prima di tutto recupera i dati richiesti da S3 Glacier Flexible Retrieval, quindi ne crea una copia temporanea in Amazon S3. Ciò richiede generalmente alcuni minuti. La rapidità di accesso della richiesta dipende dall'opzione di recupero selezionata: Expedited, Standard o Bulk. Per gli oggetti con dimensioni inferiori ai 250 MB, i tempi di recupero dell'opzione Expedited sono in genere compresi tra 1 e 5 minuti. Gli oggetti ottenuti mediante recuperi Standard richiedono in genere dalle 3 alle 5 ore. I tempi per i recuperi Bulk sono solitamente compresi tra le 5 e le 12 ore e non prevedono addebiti. Per ulteriori informazioni sulle opzioni di recupero di S3 Glacier Flexible Retrieval, consulta la sezione sul ripristino di un oggetto archiviato nella guida per l'utente di S3.

Con le unità di capacità assegnate della classe di archiviazione S3 Glacier, è possibile pagare una quota fissa anticipata per un determinato mese per garantire la disponibilità di capacità di recupero per i recuperi di tipo Expedited da S3 Glacier Flexible Retrieval. Puoi acquistare due unità di capacità assegnate al mese per aumentare la quantità di dati da recuperare. Ogni unità di capacità consente almeno tre recuperi di tipo Expedited a intervalli di 5 minuti e fornisce fino a 150 MB al secondo di velocità effettiva. Se il tuo carico di lavoro richiede un accesso altamente affidabile e prevedibile a un sottoinsieme di dati in pochi minuti, dovresti acquistare la capacità di recupero assegnata. Senza capacità assegnata, i recuperi di tipo expedited potrebbero non essere accettati durante i periodi di elevato afflusso di domande. Se hai bisogno di accedere a recuperi di tipo expedited in qualsiasi circostanza, ti raccomandiamo di acquistare capacità di recupero assegnata.

È possibile acquistare capacità assegnata utilizzando la Console Amazon S3, l'API REST di acquisto di capacità assegnata, i kit SDK AWS o AWS CLI. Un'unità di capacità assegnata dura un mese a partire dalla data e ora di acquisto, che rappresenta la data di inizio. L'unità scade alla data di scadenza, che è esattamente un mese dopo la data di inizio al secondo più vicino. Per informazioni sui costi della capacità assegnata, consulta prezzi di Amazon S3.

D: Come vengono calcolati i costi di archiviazione per gli oggetti di Amazon S3 archiviati in S3 Glacier Flexible Retrieval?

Il volume di archiviazione fatturato in un mese si basa sulla media dell'archiviazione utilizzata in tale mese, misurata in gigabyte al mese (GB-mese). Amazon S3 calcola le dimensioni dell'oggetto sommando alle dimensioni dei dati archiviati 32 KB di dati per S3 Glacier e 8 KB di dati per la classe di archiviazione Amazon S3 Standard. S3 Glacier Flexible Retrieval richiede 32 KB di dati aggiuntivi per oggetto per l'indice e i metadati di S3 Glacier in modo da poter identificare e recuperare i dati. Amazon S3 richiede 8 KB per archiviare e mantenere il nome e i metadati definiti dall'utente per gli oggetti archiviati in S3 Glacier Flexible Retrieval. In questo modo puoi avere un elenco aggiornato in tempo reale di tutti gli oggetti Amazon S3, inclusi quelli archiviati con S3 Glacier Flexible Retrieval, usando l'API LIST di Amazon S3 o il report S3 Inventory.

Ad esempio, se hai archiviato 100.000 oggetti da 1 GB ciascuno, i costi di archiviazione sono i seguenti:
1,000032 gigabyte per oggetto x 100.000 oggetti = 100.003,2 gigabyte di archiviazione in S3 Glacier.
0,000008 gigabyte per oggetto x 100.000 oggetti = 0,8 gigabyte di archiviazione in S3 Standard.

I costi sono calcolati in base alle tariffe correnti nella regione AWS in uso secondo la pagina dei prezzi di Amazon S3. Per altri esempi sui prezzi di Amazon S3, visita la pagina delle Domande frequenti sulla fatturazione di S3 o usa il calcolatore prezzi di AWS.

D: Amazon S3 Glacier Flexible Retrieval prevede una durata di archiviazione minima e costi minimi per l'archiviazione degli oggetti?

La classe Amazon S3 Glacier Flexible Retrieval è progettata per l'archiviazione a lungo termine di dati a cui si accede raramente e che è necessario conservare per mesi o anni. Gli oggetti archiviati in S3 hanno un minimo di novanta giorni di archiviazione e gli oggetti eliminati, sovrascritti o trasferiti prima di tale termine comportano un addebito proporzionale pari al costo di archiviazione per i giorni rimanenti. Per informazioni sui prezzi di Amazon S3 Glacier Flexible Retrieval, consulta la pagina dei prezzi di Amazon S3.

Amazon S3 Glacier Flexible Retrieval prevede una dimensione minima di archiviazione di oggetti fatturabile di 40 KB. Oggetti di dimensioni inferiori a 40 KB possono essere archiviati, ma verranno addebitati per uno spazio di archiviazione di 40 KB. 

D: Quanto costa recuperare dati da Amazon S3 Glacier Flexible Retrieval?

Ci sono tre modalità per recuperare i dati da S3 Glacier Flexible Retrieval: Expedited, Standard e Bulk Retrieval. Expedited e Standard prevedono una tariffa di recupero per GB ed una tariffa per richiesta (ad esempio, i prezzi sono elaborati in base alle richieste fatte per i propri oggetti di Amazon S3). I recuperi di tipo Bulk da S3 Glacier Flexible Retrieval sono gratuiti. Per ulteriori informazioni sui costi di S3 Glacier per regione AWS, consulta la pagina dei prezzi di Amazon S3.

D: Amazon S3 offre opzioni per l'archiviazione di oggetti in classi di archiviazione a prezzo ridotto?

Le classi di archiviazione di Amazon S3 Glacier sono dedicate all'archiviazione dei dati e forniscono le prestazioni migliori, la massima flessibilità in termini di recupero e il costo di archiviazione più basso nel cloud. Puoi scegliere fra tre classi di archiviazione ottimizzate a seconda dei modelli di accesso e della durata dell'archiviazione. Per i dati di archivio che richiedono l'accesso immediato, come le immagini mediche, le risorse della stampa o i dati sulla genomica, scegli la classe di archiviazione S3 Glacier Instant Retrieval, una classe di archiviazione che offre il recupero in millisecondi a un costo irrisorio. Per i dati di archivio che non richiedono l'accesso immediato ma per cui è necessaria la flessibilità per recuperare grandi set di dati a un costo irrisorio, come backup o casi d'uso di ripristino di emergenza, scegli S3 Glacier Flexible Retrieval (precedentemente S3 Glacier), che eseguirà il recupero in pochi minuti oppure recuperi in massa gratuiti dalle 5 alle 12 ore. Per risparmiare ulteriormente sull'archiviazione a lungo termine come archivi di conformità e conservazione dei media digitali, scegli S3 Glacier Deep Archive, il servizio di archiviazione cloud più conveniente che ti permette di recuperare i dati entro 12 ore.

D: Qual è l'infrastruttura di back-end che supporta le classi di archiviazione S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive?

Preferiamo concentrarci sui risultati in termini di prestazioni, durata, disponibilità e sicurezza per il cliente. Tuttavia, questa domanda viene spesso posta dai nostri clienti. Utilizziamo diverse tecnologie che ci permettono di offrire ai nostri clienti le tariffe che proponiamo. I nostri servizi sono realizzati usando tecnologie per l'archiviazione dei dati comuni, specificatamente assemblate in sistemi ottimizzati per quanto riguarda i costi attraverso un software sviluppato da AWS. Le classi di archiviazione di S3 Glacier traggono vantaggio dalla nostra capacità di ottimizzare la sequenza di input e output per massimizzare l'efficienza nell'accesso all'archiviazione sottostante.

Amazon S3 Glacier Deep Archive

D: Che cos'è la classe di archiviazione Amazon S3 Glacier Deep Archive?

S3 Glacier Deep Archive è una classe di archiviazione di Amazon S3 che fornisce un servizio di archiviazione di oggetti sicuro e duraturo, per la conservazione a lungo termine dei dati a cui si accede una o due volte l'anno. A partire da soli 0,00099 USD per GB al mese (meno di un decimo di un centesimo o circa 1 USD per TB al mese), S3 Glacier Deep Archive offre le tariffe per l'archiviazione sul cloud più basse in assoluto, a costi nettamente inferiori rispetto all'archiviazione e alla gestione di dati su librerie a nastro magnetico on-premise o all'archiviazione di dati in remoto.

D: Quali sono i casi d'uso più adatti per la classe di archiviazione S3 Glacier Deep Archive?

S3 Glacier Deep Archive è una classe di archiviazione ideale per fornire protezione offline delle risorse dati più importanti dell'azienda o quando è richiesta la conservazione dei dati a lungo termine per i requisiti di conformità alle policy aziendali, contrattuali o alle normative. I clienti trovano S3 Glacier Deep Archive come una scelta convincente per proteggere la proprietà intellettuale, i registri finanziari e medici, i risultati di ricerca, documenti legali, studi di esplorazione sismica e backup a lungo termine, specialmente in settori altamente regolamentati, come i servizi finanziari, l'assistenza sanitaria, petrolio e gas e settori pubblici. Inoltre, ci sono organizzazioni come le società di media e intrattenimento, che desiderano conservare una copia di backup della proprietà intellettuale. Spesso i clienti che usano S3 Glacier Deep Archive riescono a ridurre o interrompere l'uso di librerie a nastro magnetico on-premise e di servizi di archiviazione su nastro in remoto.

D: Quali sono le differenze tra la classe di archiviazione S3 Glacier Deep Archive e le classi S3 Glacier Instant Retrieval e S3 Glacier Flexible Retrieval?

S3 Glacier Deep Archive espande la nostra offerta relativa all'archiviazione dei dati e ti permette di scegliere la classe di archiviazione più adatta alle tue necessità in base a costi di archiviazione e recupero e tempi di recupero. È opportuno scegliere S3 Glacier Instant Retrieval quando è necessario l'accesso entro millisecondi ai dati archiviati a basso costo. Per i dati archiviati che non richiedono l'accesso immediato ma per cui è necessaria la flessibilità per recuperare grandi set di dati a costo zero, come backup o casi d'uso di ripristino di emergenza, scegli S3 Glacier Flexible Retrieval (precedentemente S3 Glacier), che eseguirà il recupero in pochi minuti oppure recuperi di tipo Bulk gratuiti in un periodo compreso tra cinque e dodici ore. S3 Glacier Deep Archive, al contrario, è progettato per dati meno attivi a cui è molto improbabile accedere, ma che richiedono comunque un'archiviazione a lungo termine e duratura. S3 Glacier Deep Archive costa fino al 75% in meno rispetto a S3 Glacier Flexible Retrieval e fornisce il recupero entro dodici ore alla velocità di recupero standard. I costi di recupero possono essere ulteriormente ridotti selezionando il recupero di tipo Bulk, che restituisce i dati entro quarantotto ore.

D: Come si inizia a usare Amazon S3 Glacier Deep Archive?

Il modo più semplice per archiviare i dati in S3 Glacier Deep Archive consiste nell'utilizzare l'API S3 per caricarvi i dati direttamente. Basta specificare "S3 Glacier Deep Archive" come classe di archiviazione. Puoi farlo utilizzando la Console di gestione AWS, l'API S3 REST, gli SDK AWS o l'interfaccia a riga di comando AWS.

È inoltre possibile iniziare a utilizzare S3 Glacier Deep Archive creando policy per migrare i dati utilizzando S3 Lifecycle, che offre la possibilità di definire il ciclo di vita del proprio oggetto e riduce il costo dello storage. Queste politiche possono essere impostate per migrare oggetti in S3 Glacier Deep Archive in base all'età dell'oggetto. È possibile specificare la policy per un bucket S3 o per prefissi specifici. Le transizioni del ciclo di vita sono fatturate al prezzo di upload dell'archivio S3 Glacier Deep.

Tape Gateway, una funzionalità di libreria nastro virtuale basata su cloud di AWS Storage Gateway, ora si integra con S3 Glacier Deep Archive, consentendo di archiviare i backup e gli archivi virtuali basati su nastro a lungo termine in S3 Glacier Deep Archive e fornire così il livello più basso dei costi di archiviazione per tali dati nel cloud. Per iniziare, crea un nuovo nastro virtuale usando la console o l'API di AWS Storage Gateway e imposta il target di archiviazione su S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive. Quando l'applicazione di backup espelle il nastro, questo verrà archiviato sulla destinazione di archiviazione selezionata.

D: Che tipo di migrazione mi consigliate per spostare i dati dai miei archivi a nastro esistenti a S3 Glacier Deep Archive?

Esistono diversi modi per migrare i dati dagli archivi nastro esistenti a S3 Glacier Deep Archive. È possibile utilizzare AWS Tape Gateway per l'integrazione con le applicazioni di backup esistenti utilizzando un'interfaccia VTL (Virtual Tape Library). L'interfaccia presenta nastri virtuali per l'applicazione di backup. Questi possono essere usati immediatamente per archiviare i dati in Amazon S3, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive.

Puoi anche usare AWS Snowball o Snowmobile per migrare i dati. Snowball e Snowmobile accelerano lo spostamento di terabyte a petabyte di dati in entrata e in uscita da AWS utilizzando dispositivi di archiviazione fisici progettati per essere sicuri per il trasporto. L'uso di Snowball consente di risolvere alcuni dei problemi più comuni dei trasferimenti di elevati volumi di dati, tra cui gli alti costi di rete, la durata del trasferimento e la sicurezza.

Infine, puoi utilizzare AWS Direct Connect per stabilire connessioni di rete dedicate dai tuoi uffici ad AWS. In molti casi, Direct Connect può ridurre i costi di rete, aumentare la velocità effettiva della larghezza di banda e fornire un'esperienza di rete più coerente rispetto alle connessioni basate su Internet.

D: Come faccio a recuperare gli oggetti archiviati in S3 Glacier Deep Archive?

Per recuperare i dati archiviati in S3 Glacier Deep Archive, avvia una richiesta di "ripristino" utilizzando le API di Simple Storage Service (Amazon S3) o la console di gestione di Simple Storage Service (Amazon S3). La richiesta di recupero crea una copia temporanea dei dati nella classe di storage S3 Standard e lascia intatti i dati archiviati in S3 Glacier Deep Archive. È possibile specificare l'intervallo di tempo, in giorni, durante il quale la copia temporanea sarà conservata in S3. Per accedervi da S3 è quindi necessaria una richiesta GET di Amazon S3 sull'oggetto archiviato.

Quando si ripristina un oggetto archiviato, è possibile specificare una delle seguenti opzioni nell'elemento Tier del corpo della richiesta: Standard è il livello predefinito e consente di accedere a qualsiasi oggetto archiviato entro 12 ore, mentre Bulk consente di recuperare grandi quantità, anche petabyte, di dati a costi contenuti, generalmente entro 48 ore.

D: Come mi viene addebitato l'utilizzo di S3 Glacier Deep Archive?

L'archiviazione di S3 Glacier Deep Archive è valutata in base alla quantità di dati archiviati in GB, al numero di richieste di transizione PUT/ciclo di vita, ai recuperi in GB e al numero di richieste di ripristino. Questo modello di prezzo è simile a quello di S3 Glacier Flexible Retrieval. Per informazioni sui prezzi di S3 Glacier Deep Archive, consulta la pagina dei prezzi di Amazon S3.

D: Come viene rendicontato l'utilizzo di S3 Glacier Deep Archive sulla mia fattura AWS e nello strumento Gestione costi AWS?

L'utilizzo e il costo dell'archivio S3 Glacier Deep vengono visualizzati come voce di un servizio indipendente sulla fattura AWS mensile, separati dall'utilizzo e dai costi di Amazon S3. Tuttavia, se si utilizza lo strumento Gestione costi AWS, l'utilizzo e il costo di S3 Glacier Deep Archive saranno inclusi nell'utilizzo e nel costo di Amazon S3 all'interno dei report dettagliati delle spese mensili, senza essere indicati come una voce di servizio separata.

D: Esistono una durata di archiviazione minima e dei costi minimi di archiviazione degli oggetti per S3 Glacier Deep Archive?

S3 Glacier Deep Archive è progettato per dati di lunga durata ma accessibili raramente e conservati dai 7 ai 10 anni o più. Gli oggetti archiviati in S3 Glacier Deep Archive hanno un minimo di 180 giorni di archiviazione e gli oggetti eliminati prima di 180 giorni comportano un addebito proporzionale pari al costo di archiviazione per i giorni rimanenti. Per informazioni sui prezzi di S3 Glacier Deep Archive, consulta la pagina dei prezzi di Amazon S3.

S3 Glacier Deep Archive ha una dimensione minima di archiviazione dell'oggetto fatturabile di 40 KB. Oggetti di dimensioni inferiori a 40 KB possono essere memorizzati ma verranno caricati per 40 KB di spazio di archiviazione. Per informazioni sui prezzi di S3 Glacier Deep Archive, consulta la pagina dei prezzi di Amazon S3.

 

D: Come si integra S3 Glacier Deep Archive con gli altri servizi AWS?

S3 Glacier Deep Archive è integrata con le caratteristiche di Amazon S3, tra cui S3 Object Tagging, le policy del ciclo di vita di S3, S3 Object Lock e S3 Replication. Con le caratteristiche di gestione dell'archiviazione S3, è possibile usare un singolo bucket Amazon S3 per archiviare una combinazione di dati S3 Glacier Deep Archive, S3 Standard, S3 Standard-IA, S3 One Zone-IA e S3 Glacier Flexible Retrieval. Ciò consente agli amministratori dell'archiviazione di prendere decisioni in base alla natura dei dati e ai modelli di accesso ai dati. I clienti possono utilizzare le politiche del ciclo di vita di Amazon S3 per migrare automaticamente i dati in classi di storage a costo inferiore con l'invecchiamento dei dati o le politiche di replica di S3 tra regioni diverse o all'interno della stessa regione per replicare i dati in un'altra regione.

Il servizio AWS Storage Gateway integra Tape Gateway con la classe di archiviazione S3 Glacier Deep Archive, che consente di archiviare nastri virtuali nella classe di archiviazione Amazon S3 più economica, riducendo il costo mensile per l'archiviazione dei dati a lungo termine nel cloud del 75%. Grazie a questa funzionalità, Tape Gateway supporta l'archiviazione dei nastri virtuali direttamente su S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive, così da aiutarti a rispettare i requisiti di backup, archiviazione e ripristino. Tape Gateway consente di spostare i backup basati su nastro in AWS senza apportare modifiche ai flussi di lavoro di backup esistenti. Tape Gateway supporta la maggior parte delle principali applicazioni di backup come Veritas, Veeam, Commvault, Dell EMC NetWorker, IBM Spectrum Protect (su sistema operativo Windows) e Microsoft Data Protection Manager.

S3 on Outposts

D: Cos'è Amazon S3 on Outposts?

Amazon S3 on Outposts offre l'archiviazione degli oggetti nel tuo ambiente on-premise utilizzando le API S3 e le capacità che utilizzi oggi in AWS. AWS Outposts è un servizio completamente gestito che estende l'infrastruttura, i servizi, le API e gli strumenti AWS praticamente a qualsiasi data center, spazio di co-locazione o struttura on-premise. Utilizzando S3 on Outposts, puoi elaborare e archiviare in modo sicuro i dati dei clienti generati on-premise prima di spostarli in una Regione AWS, accedere ai dati a livello locale per le applicazioni eseguite on-premise o archiviare i dati sul tuo Outpost per le aziende in località con requisiti di posizione dei dati o per quelle nei settori regolamentati. Per ulteriori informazioni su S3 su Outposts, visita la pagina della panoramica.
 

Gestione dell'archiviazione

Tag di oggetti S3

D: Cosa sono i tag di oggetti S3?

I tag di oggetti S3 sono coppie di tipo chiave-valore applicate a oggetti S3 che si possono creare, aggiornare o eliminare in qualsiasi momento durante la vita dell'oggetto. I tag consentono di creare policy di Identity and Access Management (IAM), configurare policy di ciclo di vita S3 e personalizzare parametri di archiviazione. Questi tag a livello di oggetto possono in seguito gestire trasferimenti fra classi di archiviazione e oggetti a scadenza in background. Si possono aggiungere tag a nuovi oggetti quando vengono caricati oppure aggiungerli a oggetti esistenti. A ciascun oggetto S3 possono essere aggiunti fino a dieci tag e per farlo si possono usare la console di gestione AWS, l'API REST, l'interfaccia a riga di comando di AWS o gli SDK AWS. 

Ulteriori informazioni sono disponibili nella guida per l'utente di S3 Object Tagging.

D: Qual è il vantaggio dei tag di oggetti?

I tag di oggetti sono uno strumento che può essere utilizzato per gestire in modo semplice lo storage S3. Grazie alla possibilità di creare, aggiornare ed eliminare tag in qualunque momento durante la durata di vita dell'oggetto, lo storage può adattarsi alle necessità della tua attività. Questi tag permettono di controllare l'accesso a oggetti che contengono tag con coppie chiave-valore specifiche e di aumentare così la protezione dei dati confidenziali per un gruppo o un utente selezionato. I tag possono essere usati anche per etichettare gli oggetti appartenenti a un progetto specifico o a una business unit e in combinazione con le policy del ciclo di vita di S3 per gestire le transizioni verso altre classi di archiviazione (S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval e S3 Glacier Deep Archive) o con S3 Replication per replicare selettivamente i dati tra regioni AWS.

D: Come si aggiornano i tag di oggetti?

I tag di oggetti possono essere modificati in qualunque momento durante il ciclo di vita di un oggetto S3, tramite la Console di gestione AWS, l'API REST, l'interfaccia a riga di comando di AWS o i kit SDK AWS. Le modifiche effettuate sui tag al di fuori della Console di gestione AWS vengono effettuate sull'intero gruppo di tag. Se disponi di cinque tag collegati a un oggetto particolare e ne vuoi aggiungere un sesto, devi includere i cinque tag originali nella richiesta.

D: Quanto costano i tag di oggetti?

Il costo dei tag di oggetti è calcolato in base alla quantità di tag impiegati e ai costi delle richieste necessarie per aggiungerli. Il costo delle richieste necessarie per aggiungere e aggiornare i tag di oggetti dipende dalle tariffe correnti delle richieste. Per ulteriori informazioni, consulta la pagina dei prezzi di Amazon S3.

D: Come si usa Storage Class Analysis?

Puoi usare la Console di gestione AWS o l'API PUT Bucket Analytics di S3 per configurare una policy di analisi della classe di archiviazione e identificare quindi i dati ad accesso infrequente che possono essere trasferiti nella classe S3 Standard-IA o S3 One Zone-IA oppure archiviati nelle classi S3 Glacier. Apri la scheda "Gestione" nella console di S3 per gestire i parametri di Storage Class Analysis, S3 Inventory e S3 CloudWatch.

S3 Inventory

D: cos'è S3 Inventory?

S3 Inventory costituisce un'alternativa pianificata all'API List sincrona di Amazon S3. S3 Inventory può essere configurato per generare giornalmente o settimanalmente un output di file CSV, , ORC o Parquet dei tuoi oggetti e dei metadati corrispondenti per un prefisso o bucket S3. L'utilizzo di S3 Inventory consente di semplificare e accelerare i flussi di lavoro aziendali e le attività di Big Data. S3 Inventory può inoltre essere impiegato per verificare la crittografia e lo stato di replica degli oggetti e soddisfare le esigenze aziendali e di conformità alle normative. Ulteriori informazioni sono disponibili nella guida per l'utente di Amazon S3 Inventory.

D: Come si inizia a usare S3 Inventory?

È possibile usare la console di gestione AWS o l'API PUT Bucket Inventory Configuration per configurare un inventario giornaliero o settimanale di tutti gli oggetti in un bucket S3 o di un sottoinsieme di oggetti sotto un prefisso condiviso. Durante la fase di configurazione, è possibile specificare un bucket S3 di destinazione per il report S3 Inventory, il formato del file di output (CSV, ORC o Parquet) e i metadati specifici di oggetto necessari all'applicazione aziendale, ad esempio nome, dimensioni, data dell'ultima modifica, classe di storage, ID della versione, contrassegno di eliminazione, contrassegno di versione non corrente, contrassegno di caricamento in più parti, stato di replica o stato di crittografia dell'oggetto. S3 Inventory può essere usato come input diretto nei flussi di lavoro delle applicazioni o nei processi relativi ai Big Data. È anche possibile eseguire query in S3 Inventory attraverso il linguaggio SQL standard con Amazon Athena, Amazon Redshift Spectrum e altri strumenti quali Presto, Hive e Spark.

Ulteriori informazioni sono disponibili nella guida per l'utente di Amazon S3 Inventory.

D: Come viene fatturato l'uso di S3 Inventory?

Consulta la pagina dei prezzi di Amazon S3 per informazioni sulle tariffe di S3 Inventory. Per la crittografia con SSE-KMS vengono addebitate le tariffe standard di AWS KMS. Per ulteriori dettagli, consulta la pagina dei prezzi di KMS.

S3 Batch Operations

D: Cos'è S3 Batch Operations?

S3 Batch Operations è una funzionalità che consente di automatizzare l'esecuzione di un'operazione singola (come la copia di un oggetto o l'esecuzione di una funzione AWS Lambda) su più oggetti. Con S3 Batch Operations si possono modificare miliardi di oggetti senza dover scrivere codici di applicazione personalizzati o eseguire cluster di calcolo per le applicazioni di gestione dello storage: sono sufficienti pochi clic nella console di S3 o una singola richiesta API. Oltre a gestire le operazioni di storage tra più oggetti, S3 Batch Operations gestisce nuovi tentativi, monitora i progressi, invia le notifiche, genera report di completamento e invia eventi ad AWS CloudTrail per tutte le operazioni effettuate sugli oggetti di destinazione. È possibile usare S3 Batch Operations dalla console di S3 o mediante l'SDK e la CLI di AWS. 

Ulteriori informazioni sono disponibili nella pagina di S3 Batch Operations e nella guida per l'utente.

D: Come si inizia a usare S3 Batch Operations?

Puoi iniziare a usare S3 Batch Operations dalla console di Amazon S3 o mediante l'SDK o la CLI di AWS per creare il primo processo S3 Batch Operations. Un processo S3 Batch Operations è costituito dall'elenco di oggetti di su cui agire e dal tipo di operazione da eseguire (consulta l'elenco completo delle operazioni disponibili). Inizia selezionando un report S3 Inventory o fornendo un elenco personalizzato di oggetti su cui desideri che S3 Batch Operations agisca. Un report S3 Inventory è un file che elenca tutti gli oggetti archiviati in un prefisso o bucket S3. A questo punto scegli tra una serie di operazioni di S3 supportate da S3 Batch Operations, ad esempio la sostituzione di set di tag, la modifica delle ACL, la copia dell'archiviazione da un bucket a un altro o l'avvio del ripristino da S3 Glacier Flexible Retrieval alla classe di archiviazione S3 Standard. Quindi puoi personalizzare i processi S3 Batch Operations con parametri specifici quali, ad esempio, valori tag, garanzie ACL e durata del ripristino. Per personalizzare ulteriormente le operazioni di storage, puoi scrivere una funzione Lambda e richiamare il codice attraverso S3 Batch Operations.

Una volta creato il processo, S3 Batch Operations elaborerà l'elenco di oggetti e, se richiesto, invierà il processo allo stato "in attesa di conferma". Dopo aver confermato i dettagli del processo, S3 Batch Operations inizierà ad eseguire l'operazione specificata. Puoi visualizzare l'avanzamento del processo in modo programmatico o tramite la console S3, ricevere notifiche al completamento e rivedere il report di completamento che elenca in dettaglio le modifiche apportate allo storage.

Per saperne di più su S3 Batch Operations, guarda i video tutorial e consulta la documentazione.

S3 Object Lock

D: Cos'è Amazon S3 Object Lock?

Amazon S3 Object Lock è una caratteristica di Amazon S3 che impedisce l'eliminazione o la sovrascrittura della versione di un oggetto per un periodo di tempo fisso o indeterminato e che consente di applicare policy di conservazione come livello aggiuntivo di protezione dei dati o per adempiere alla conformità alle normative. È possibile migrare i carichi di lavoro dai sistemi WORM (Write-Once-Read-Many) esistenti in Amazon S3 e configurare S3 Object Lock a livello di oggetto e di bucket per prevenire l'eliminazione della versione di un oggetto prima della data di fine conservazione predefinita o a tempo indeterminato (date di fermo di legge). La protezione S3 Object Lock viene mantenuta indipendentemente dalla classe di storage in cui risiede la versione dell'oggetto e per tutte le transizioni del ciclo di vita di S3 tra le classi di storage. 

Si consiglia di usare S3 Object Lock se i requisiti normativi specificano che i dati devono essere protetti da WORM o se si desidera un ulteriore livello di protezione per i dati in Amazon S3. S3 Object Lock può aiutarti a soddisfare i requisiti normativi che stabiliscono di archiviare i dati in un formato non modificabile e a proteggere i dati da eliminazioni accidentali o dolose in Amazon S3.

Ulteriori informazioni sono disponibili nella guida per l'utente di S3 Object Lock.

D: Come funziona Amazon S3 Object Lock?

Amazon S3 Object Lock impedisce l'eliminazione della versione di un oggetto per la durata di un periodo di conservazione specificato o a tempo indeterminato fino alla revoca del fermo di legge. Con S3 Object Lock è possibile garantire che la versione di un oggetto sia immodificabile finché viene applicata la protezione WORM. È possibile applicare la protezione WORM assegnando la scadenza della conservazione o un fermo di legge alla versione di un oggetto, usando la console di gestione S3, l'API REST, la CLI o l'SDK di AWS. È possibile applicare le impostazioni di conservazione in una richiesta PUT o applicarle a un oggetto esistente dopo averlo creato.

La scadenza della conservazione definisce il periodo di tempo durante il quale la versione di un oggetto non sarà modificabile. Se all'oggetto è stata assegnata una scadenza della conservazione, la versione non potrà essere modificata o eliminata fino alla data indicata. Se un utente cerca di eliminare un oggetto prima che sia trascorsa tale data, l'operazione non sarà consentita.

In alternativa, è possibile rendere un oggetto non modificabile applicando un fermo di legge. Il fermo di legge impedisce la modifica o l'eliminazione della versione di un oggetto a tempo indeterminato finché non viene revocata esplicitamente. Per applicare o rimuovere il fermo di legge, l'account AWS deve avere l'autorizzazione in scrittura per l'operazione PutObjectLegalHold. Il fermo di legge può essere applicato a qualsiasi oggetto in un bucket abilitato per S3 Object Lock, indipendentemente dal fatto che l'oggetto sia protetto da WORM per un periodo di conservazione.

Per configurare S3 Object Lock è possibile scegliere tra due modalità. Se distribuiti in modalità di governance, gli account AWS con autorizzazioni IAM specifiche sono in grado di rimuovere la protezione WORM dalla versione di un oggetto. Qualora siano necessari requisiti di non modificabilità più severi per adempiere alle normative vigenti, è possibile usare a modalità di conformità. Nella modalità di conformità, la protezione WORM non può essere rimossa da alcun utente, neppure dall'account root.

D: Quali servizi di storage elettronico di AWS sono stati valutati sulla base delle normative riguardanti i servizi finanziari?

Per i clienti che operano nel settore dei servizi finanziari, S3 Object Lock offre supporto ulteriore a broker e dealer che hanno bisogno di conservare i record in un formato non cancellabile e non riscrivibile, in conformità ai requisiti della Rule 17a-4(f) della SEC, della Rule 4511 della FINRA o della Regulation 1.31 CFTC. È possibile impostare facilmente il tempo di conservazione dei record per mantenere gli archivi regolamentari nel formato originale per la durata richiesta, nonché applicare i vincoli di legge alla conservazione dei dati per un tempo indeterminato fino a quando tale vincolo non venga rimosso.

D: Quali sono i documenti di AWS a supporto dei requisiti per SEC 17a-4(f)(2)(i) e CFTC 1.31(c) da notificare all'autorità normativa?

È possibile comunicare all'autorità normativa oppure all'autorità di verifica designata (DEA, Designated Examining Authority) l'utilizzo di Amazon S3 per lo storage elettronico insieme a una copia del Cohasset Assessment. Ai fini della valutazione dei requisiti, AWS non è considerato una terza parte designata (D3P). Nella notifica alla DEA è necessario includere una D3P.

Parametri di S3 CloudWatch

D: Come si iniziano a usare i parametri di S3 CloudWatch?

Puoi utilizzare la Console di gestione AWS per abilitare la generazione di parametri di richiesta CloudWatch di un minuto per il tuo bucket S3 o configurare filtri per i parametri utilizzando un prefisso, un tag oggetto o un punto di accesso. In alternativa, è possibile richiamare l'API PUT Bucket Metrics di S3 per abilitare e configurare la pubblicazione dei parametri di archiviazione S3. I parametri delle richieste di CloudWatch saranno disponibili in CloudWatch entro 15 minuti dall'attivazione. Per impostazione predefinita, i parametri di storage di CloudWatch vengono abilitati per tutti i bucket e ogni giorno viene creato un report. Ulteriori informazioni sono disponibili alla pagina sui parametri CloudWatch per Amazon S3.

D: Quali avvisi è possibile configurare per i parametri di archiviazione?

È possibile utilizzare CloudWatch per stabilire soglie per qualsiasi conteggio, timer o velocità dei parametri di archiviazione e avviare un'operazione quando tale soglia viene superata. Ad esempio, è possibile stabilire una soglia relativa alla percentuale di risposte di errori di tipo 4xx; se la soglia è stata superata di almeno 3 punti, si attiva un allarme di CloudWatch per avvisare un ingegnere DevOps.

D: Quali costi vengono addebitati per l'uso dei parametri di S3 CloudWatch? 

I parametri di storage di CloudWatch sono gratuiti. I parametri delle richieste CloudWatch vengono addebitati come parametri personalizzati per Amazon CloudWatch. Per ulteriori informazioni sulle tariffe dei parametri di S3 CloudWatch, consulta la pagina dei prezzi di Amazon CloudWatch.

Gestione del ciclo di vita di S3

D: cos'è la gestione del ciclo di vita di S3?

Con S3 è possibile definire il ciclo di vita degli oggetti con policy predefinite, diminuendo così il costo dello storage. È possibile configurare una policy di trasferimento basata sul ciclo di vita per eseguire automaticamente la migrazione di oggetti dalla classe di storage S3 Standard alle classi S3 Standard-IA, S3 One Zone-IA e/o S3 Glacier in base alla data di creazione dei dati. È anche possibile impostare policy di scadenza del ciclo di vita per rimuovere automaticamente oggetti a seconda della loro età. Ad esempio, è possibile definire una policy che determini la scadenza di un caricamento in più parti incompleto in base alla sua età.

Ulteriori informazioni sono disponibili nella guida per l'utente di S3 Lifecycle.

D: Come si imposta una policy di gestione di S3 Lifecycle?

È possibile impostare e gestire le policy di ciclo di vita tramite la Console di gestione AWS, l'API REST di S3, i kit SDK AWS e l'interfaccia a riga di comando di AWS. La policy può essere specificata a livello di prefisso o a livello di bucket.

D: Come è possibile utilizzare la gestione del ciclo di vita di Amazon S3 per contribuire a ridurre i costi di archiviazione?

Con le policy del ciclo di vita di Amazon S3 è possibile configurare la migrazione degli oggetti dalla classe di archiviazione S3 Standard alle classi S3 Standard-IA o S3 One Zone-IA e/o l'archiviazione nelle classi S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval o S3 Glacier Deep Archive.

È anche possibile specificare una policy di gestione del ciclo di vita di S3 con cui eliminare gli oggetti dopo un determinato periodo di tempo. Queste funzioni di automazione basate su policy rappresentano un modo rapido e veloce per ridurre i costi di archiviazione e per risparmiare tempo. Per ciascuna regola è possibile specificare un prefisso, un periodo di tempo, un trasferimento nelle classi S3 Standard-IA, S3 One Zone-IA, S3 Glacier Instant Retrieval, S3 Glacier Flexible Retrieval, S3 Glacier Deep Archive e/o una scadenza. Ad esempio, puoi creare una regola che determini l'archiviazione in S3 Glacier Flexible Retrieval di tutti gli oggetti con prefisso "logs/" a trenta giorni dalla creazione e la scadenza a trecentosessantacinque giorni dalla creazione.

È anche possibile creare una regola a parte che determini la scadenza di tutti gli oggetti con prefisso "backup/" a novanta giorni dalla creazione. Le policy sul ciclo di vita di S3 si applicano agli oggetti S3 sia nuovi sia esistenti e consentono quindi di ottimizzare lo storage il risparmio per tutti i dati archiviati in S3 senza lunghe e onerose procedure manuali di revisione e migrazione dei dati.

In una regola del ciclo di vita, gli oggetti ai quali essa va applicata sono identificati dal prefisso. Per applicare la regola a un singolo oggetto, occorre specificare il nome chiave. Per applicare la regola a un set di oggetti, occorre specificare il loro prefisso comune (ad esempio "log/"). È possibile impostare un'azione di transizione per archiviare gli oggetti e un'azione di scadenza per rimuoverli. Per il periodo di tempo, specificare la data di creazione (ad esempio 31 gennaio 2015) oppure il numero di giorni dalla data di creazione (ad esempio 30 giorni), trascorso il quale si desidera che gli oggetti vengano archiviati o rimossi. È possibile creare più regole per diversi prefissi.

D: Quanto costa usare la gestione di S3 Lifecycle?

L'impostazione e l'applicazione di policy sul ciclo di vita non prevedono alcun costo. Vengono fatturate le richieste di transizione per ogni oggetto quando un oggetto diviene idoneo al trasferimento in base alla regola del ciclo di vita. Per informazioni sui costi, consulta la pagina dei prezzi di S3.

D: Qual è il vantaggio di usare una policy di S3 Lifecycle per determinare la scadenza dei caricamenti in più parti non completati?

Una policy sul ciclo di vita di S3 che consente di determinare la scadenza dei caricamenti in più parti non completati permette di risparmiare sui costi limitando la durata di conservazione massima dei dati di tali caricamenti. Ad esempio, se l'applicazione in uso carica diverse porzioni di un oggetto diviso in più parti ma non ne esegue il commit, i costi di storage relativi a tali porzioni inutilizzate verranno comunque addebitati. Questa policy consente di ridurre le spese per lo storage S3 rimuovendo automaticamente i caricamenti in più parti non completati e lo storage a essi correlato dopo un numero di giorni predefinito.

Ulteriori informazioni su come usare la gestione del ciclo di vita di S3 per la scadenza di caricamenti in più parti non completati »

D: Si possono impostare notifiche degli eventi di Amazon S3 per inviare avvisi quando il ciclo di vita di S3 dispone transizioni o la scadenza di oggetti?

Sì, puoi impostare notifiche degli eventi di Amazon S3 in modo da ricevere avvisi quando il ciclo di vita di S3 dispone transizioni o la scadenza di oggetti. Ad esempio, puoi inviare notifiche degli eventi di S3 a un argomento Amazon SNS, a una coda Amazon SQS o a una funzione AWS Lambda quando il ciclo di vita di S3 sposta gli oggetti in una classe di archiviazione S3 diversa o ne dispone la scadenza.

Informazioni dettagliate e analisi sull'archiviazione

D: Quali caratteristiche sono disponibili per analizzare l'utilizzo dello storage su Amazon S3?

S3 Storage Lens offre la visibilità a livello di organizzazione dell'utilizzo dello storage di oggetti, delle tendenze delle attività e offre consigli sulle azioni da intraprendere per migliorare la convenienza e applicare best practice di protezione dei dati. S3 Storage Class Analysis ti consente di monitorare modelli di accesso negli oggetti per aiutarti a decidere quando trasferire i dati nella classe di storage corretta per ottimizzare i costi. Puoi quindi utilizzare queste informazioni per configurare una policy del ciclo di vita S3 che effettui il trasferimento di dati. Amazon S3 Inventory fornisce un report degli oggetti e dei metadati corrispondenti su base giornaliera o settimanale per un prefisso o un bucket S3. Si può utilizzare questo report anche per soddisfare esigenze aziendali e di conformità alle normative verificando lo stato della crittografia e di replica degli oggetti.

D: Cos'è Amazon S3 Storage Lens?

Amazon S3 Storage Lens fornisce visibilità a livello di organizzazione dell'utilizzo e delle tendenze delle attività dello storage di oggetti e offre consigli sulle azioni da intraprendere per migliorare l'efficienza in termini di costi e applicare best practice di protezione dei dati. Storage Lens offre un pannello di controllo interattivo che contiene un'unica vista dell'utilizzo e dell'attività dello storage di oggetti in decine o centinaia di account dell'organizzazione, con la possibilità di eseguire il drill-down per generare informazioni a livello di account, bucket o perfino di prefisso. Ciò include parametri come byte, conteggi di oggetti e richieste, nonché parametri con dettagli sull'utilizzo delle caratteristiche di S3, come conteggi di oggetti crittografati e contrassegni di eliminazione. S3 Storage Lens fornisce anche consigli contestuali per ridurre i costi di storage e applicare best practice sulla protezione di dati in decine o centinaia di account e bucket.

Ulteriori informazioni sono disponibili nella guida per l'utente di S3 Storage Lens.

D: Come funziona S3 Storage Lens?

S3 Storage Lens aggrega i parametri di utilizzo e di attività dell'archiviazione su base giornaliera in modo da renderli visibili nel pannello di controllo interattivo di S3 Storage Lens o poterli esportare in formato CSV o Parquet. Viene creato automaticamente un pannello di controllo predefinito a livello di account affinché tu possa creare pannelli di controllo personalizzati aggiuntivi con ambito di organizzazione AWS o account specifici, regioni o bucket. Durante la creazione del pannello di controllo, puoi utilizzare la selezione di parametri predefinita o ricevere parametri avanzati e consigli a un costo aggiuntivo. S3 Storage Lens fornisce consigli contestualmente ai parametri di storage nel pannello di controllo, in modo da poter ottimizzare lo storage in base ai parametri.

D: Quali sono le domande chiave cui è possibile rispondere usando i parametri di S3 Storage Lens?

Il pannello di controllo di S3 Storage Lens è organizzato attorno a tre tipi principali di domande sullo storage cui è possibile rispondere. Nella vista Summary (Riepilogo), puoi scoprire le principali domande correlate all'utilizzo e alle tendenze delle attività dello storage complessivi. Ad esempio, "Quanto rapidamente il mio conteggio complessivo dei byte e delle richieste aumenta nel tempo?" Nella vista Cost Efficiency (Efficienza dei costi), puoi scoprire le domande correlate alla riduzione dei costi dello storage, ad esempio, "Posso risparmiare denaro mantenendo un numero minore di versioni con correnti?" Inoltre, nella vista Data Protection (Protezione dati) puoi rispondere a domande sulla protezione dei dati, ad esempio "Il mio storage è protetto dall'eliminazione accidentale o intenzionale?" Ciascuna di queste domande rappresenta un primo livello di indagine che con elevata probabilità conduce ad analisi dettagliate.

D: Quali parametri sono disponibili in S3 Storage Lens?

S3 Storage Lens contiene oltre 30 parametri, raggruppati per parametri di utilizzo (derivanti da uno snapshot giornaliero di oggetti all'interno dell'account) e parametri delle attività (che tengono traccia delle richieste e dei byte recuperati). I parametri sono organizzati in tre categorie principali: riepilogo, efficienza dei costi e protezione dei dati. Inoltre, vengono forniti parametri derivati mediante la combinazione di qualsiasi parametro di base. Ad esempio, il parametro "Velocità di recupero" viene calcolato dividendo il "conteggio dei byte scaricati" per il "conteggio dei byte totali". Per visualizzare l'elenco completo dei parametri, visita la pagina della documentazione di S3 Storage Lens.

D: Quali sono le opzioni di configurazione disponibili nel pannello di controllo?

Viene configurato automaticamente un pannello di controllo predefinito per l'intero account affinché tu possa creare pannelli di controllo personalizzati aggiuntivi con ambito di organizzazione AWS, regioni specifiche o bucket all'interno di un account. Puoi configurare più pannelli di controllo personalizzati, che possono essere utili in caso fosse necessaria una separazione logica nell'analisi dello storage, come la segmentazione sui bucket per rappresentare vari team interni. Per impostazione predefinita, verranno inviati i parametri gratuiti di S3 Storage Lens nel pannello di controllo, ma puoi effettuare l'upgrade per ricevere i parametri avanzati e i consigli di S3 Storage Lens. Inoltre, per ciascun pannello di controllo puoi abilitare l'esportazione dei parametri, con la possibilità di specificare anche il bucket di destinazione e il tipo di crittografia.

D: Quanti dati cronologici sono disponibili in S3 Storage Lens?

Per i parametri visualizzati nel pannello di controllo interattivo, Storage Lens conserva 14 giorni di dati cronologici per i parametri gratuiti e 15 mesi per i parametri avanzati e i suggerimenti. Per l'esportazione dei parametri facoltativa, è possibile configurare qualsiasi periodo di conservazione desiderato e verranno applicati i costi di archiviazione standard di S3.

D: Quali sono i costi per l'uso di S3 Storage Lens?

S3 Storage Lens è disponibile in due livelli di parametri. I parametri gratuiti sono disponibili senza costi aggiuntivi a tutti i consumatori. I dettagli sui prezzi dei parametri avanzati e dei suggerimenti di S3 Storage Lens sono disponibili alla pagina dei prezzi di S3. Con i parametri gratuiti di S3 Storage Lens si ricevono i parametri di utilizzo a livello di bucket e vengono forniti 14 giorni di dati cronologici nel pannello di controllo. Con i parametri avanzati e i suggerimenti di S3 Storage Lens si ricevono i parametri di utilizzo a livello di prefisso, i parametri delle attività e i suggerimenti, inoltre vengono forniti 15 mesi di dati cronologici nel pannello di controllo.

D: Qual è la differenza tra S3 Storage Lens e S3 Inventory?

S3 Inventory fornisce un elenco di oggetti e i rispettivi metadati corrispondenti per un bucket S3 o un prefisso condiviso, che può essere utilizzato per eseguire l'analisi a livello di oggetti dell'archiviazione. S3 Storage Lens fornisce parametri aggregati per organizzazione, account, regione, classe di archiviazione, bucket e livelli di prefissi, che consentono una visibilità migliore dell'archiviazione a livello di organizzazione.

D: Qual è la differenza tra S3 Storage Lens e S3 Storage Class Analysis (SCA)?

S3 Storage Class Analysis fornisce suggerimenti per una classe di archiviazione ottimale, creando gruppi di età degli oggetti in base ai modelli di accesso a livello di oggetto all'interno di un singolo bucket/prefisso/tag per i 30-90 giorni precedenti. S3 Storage Lens fornisce suggerimenti quotidiani a livello di organizzazione sui modi per migliorare l'efficienza in termini di costi e applicare le best practice di protezione dei dati, con ulteriori suggerimenti dettagliati per account, regione, classe di archiviazione, bucket o prefisso.  

Storage Class Analysis

D: Cos'è Storage Class Analysis?

Con Storage Class Analysis è possibile analizzare i modelli di accesso allo storage per determinare la classe di storage ottimale per le proprie esigenze. Questa funzionalità di S3 rileva automaticamente la frequenza di accesso ai dati per facilitarne il trasferimento nella classe S3 Standard-IA. È possibile configurare una policy per monitorare l'intero bucket, un prefisso o il tag di un oggetto. Quando viene individuato un modello di accesso infrequente, è possibile creare un'apposita policy di S3 Lifecycle. Questa funzione fornisce inoltre visualizzazioni giornaliere sull'uso dello storage nella console di gestione AWS ed è inoltre possibile abilitare un report di esportazione in un bucket S3 per analisi di business intelligence, ad esempio con Amazon QuickSight.

Scopri di più e comincia a usare il servizio consultando la guida per l'utente di S3 Storage Class Analysis.

D: Con quale frequenza viene aggiornato Storage Class Analysis?

Storage Class Analysis viene aggiornato quotidianamente nella console di gestione S3, ma i primi consigli per la transizione delle classi di storage vengono presentati dopo 30 giorni.

Query in loco

D: cos'è la funzione "Query in Place" (applicazione di query)?

Amazon S3 permette ai clienti di eseguire query sofisticate sui dati memorizzati senza doverli trasferire in piattaforme di analisi separate. La possibilità di applicare query su questi set di dati in Amazon S3 permette di migliorare in modo significativo le prestazioni e ridurre di conseguenza i costi per le soluzioni di analisi che sfruttano S3 come data lake. S3 offre diverse opzioni di questo tipo: S3 Select, Amazon Athena e Amazon Redshift Spectrum, ognuno con caratteristiche diverse per casi d'uso differenti. È anche possibile impiegare Amazon S3 Select con AWS Lambda per creare app serverless in grado di sfruttare le funzionalità di elaborazione integrate nel servizio.

D: Cos'è S3 Select?

S3 Select è una funzionalità di Amazon S3 che semplifica il ripristino di un set di dati specifico dai contenuti di un oggetto attraverso espressioni SQL semplici, senza dover ripristinare l'intero oggetto. S3 Select semplifica e migliora anche del 400% le prestazioni di scansione e filtraggio dei contenuti di oggetti in set di dati specifici di dimensioni minori. Con questo servizio, inoltre, è possibile eseguire indagini operative sui file di log in Amazon S3 senza dover avviare e gestire un cluster di elaborazione. 

È possibile usare S3 Select per richiamare un sottoinsieme di dati attraverso le clausole SQL, come SELECT e WHERE, da oggetti archiviati in formato CSV, JSON o Apache Parquet. Questo vale anche per gli oggetti compressi con GZIP o BZIP2 (solo per oggetti CSV e JSON) e gli oggetti crittografati lato server.

Si può usare S3 Select insieme ad AWS Lambda per creare applicazioni serverless che usano S3 Select per recuperare dati in modo semplice ed efficiente da Amazon S3 senza dover ripristinare ed elaborare l'intero oggetto. Infine, è possibile usare il servizio con framework per Big Data quali Presto, Apache Hive e Apache Spark per scansionare e filtrare i dati in Amazon S3.

Ulteriori informazioni sono disponibili nella guida per l'utente di S3 Select.

D: Che cos'è Amazon Athena?

Amazon Athena è un servizio di query interattivo che semplifica l'analisi dei dati in Amazon S3 tramite query SQL standard. Athena è serverless, per cui non c'è un'infrastruttura da installare o gestire ed è quindi possibile iniziare immediatamente ad analizzare i dati. Non è neppure necessario caricare i dati in Athena poiché funziona direttamente con i dati archiviati in qualsiasi classe di S3. Per iniziare è sufficiente accedere alla console di gestione di Athena, definire gli schemi e cominciare a eseguire le query. Amazon Athena usa Presto con il supporto SQL standard completo e funziona con numerosi formati standard di dati, tra cui CSV, JSON, ORC, Apache Parquet e Avro. Athena è ideale per creare velocemente query ad hoc e, grazie all'integrazione con Amazon QuickSight, consente di ottenere visualizzazioni semplificate, ma è anche in grado di gestire analisi complesse, inclusi join di grandi dimensioni, funzioni finestra e array.

D: Cos'è Amazon Redshift Spectrum?

Amazon Redshift Spectrum è una caratteristica di Amazon Redshift che permette di eseguire query su exabyte di dati non strutturati in Amazon S3 senza caricamento o ETL richiesto. Quando viene inoltrata, la query raggiunge l'endpoint SQL di Amazon Redshift, il quale genera e ottimizza un piano di query. Amazon Redshift determinerà quindi quali dati si trovano in locale e quali in Amazon S3, genererà un piano per ridurre al minimo i dati che è necessario leggere in Amazon S3 e richiederà a specifiche risorse condivise di un pool di Amazon Redshift Spectrum la lettura e l'elaborazione dei dati da Amazon S3.

Redshift Spectrum, se necessario, aumenterà orizzontalmente migliaia di istanze, perciò le query saranno rapide indipendentemente dalle dimensioni. Inoltre, è possibile utilizzare lo stesso SQL per i dati Amazon S3 che utilizzi oggi per le query Amazon Redshift e connetterti allo stesso endpoint Amazon Redshift utilizzando gli stessi strumenti di business intelligence Redshift Spectrum permette di separare le funzioni di archiviazione e di calcolo, perciò è possibile dimensionarne le risorse separatamente. È possibile impostare tutti i cluster Amazon Redshift necessari per interrogare i data lake Amazon S3 fornendo disponibilità elevata ed esecuzioni simultanee illimitate. Redshift Spectrum offre la libertà di archiviare i dati dove è più conveniente e nel formato desiderato e al contempo di averli sempre a disposizione per poterli elaborare.

Replica

D: Cos'è la Replica Amazon S3?

La Replica di Amazon S3 permette di copiare in modo automatico e asincrono gli oggetti nei bucket di Amazon S3. I bucket configurati per la replica di oggetti possono appartenere allo stesso account AWS o ad account differenti. È possibile replicare i nuovi oggetti scritti nel bucket a uno o più bucket di destinazione tra diverse regioni AWS (S3 Replica tra regioni), o all'interno della stessa regione AWS (S3 Replica stessa regione). Puoi anche replicare il contenuto del bucket esistente (S3 Batch Replication), compresi gli oggetti esistenti, gli oggetti che precedentemente non sono riusciti a replicarsi e gli oggetti replicati da un'altra fonte. Ulteriori informazioni sono disponibili nella guida per l'utente di S3 Replication.

D: Cos'è Amazon S3 Cross-Region Replication (CRR)

CRR è una funzionalità di Amazon S3 che consente di replicare automaticamente i dati tra bucket in più regioni AWS. Con CRR, è possibile configurare una replica a livello di bucket, un livello di prefisso condiviso o un livello di oggetto utilizzando i tag dell'oggetto S3. CRR può essere impiegato per fornire accesso a latenza ridotta in aree geografiche differenti. Inoltre, CRR può risultare utile per soddisfare requisiti di conformità che richiedono di salvare copie dei propri dati a migliaia di chilometri di distanza. È possibile usare CRR per modificare la proprietà degli account per gli oggetti replicati così da proteggere i dati da eliminazioni accidentali. Per ulteriori informazioni, consulta la guida per l'utente di S3 CRR.

D: Cos'è Amazon S3 Same-Region Replication (SRR)?

SRR è una funzionalità di Amazon S3 che consente di replicare automaticamente i dati tra bucket nella stessa regione AWS. Con SRR, puoi configurare una replica a livello di bucket, di prefisso condiviso o di oggetto utilizzando i tag di oggetti S3. Puoi utilizzare SRR per creare una o più copie dei dati all'interno della stessa regione AWS. SRR ti aiuta a soddisfare i requisiti di sovranità e conformità dei dati mantenendo una copia dei dati in un account AWS separato all'interno della stessa regione dell'originale. È possibile utilizzare SRR per modificare la proprietà degli account per gli oggetti replicati così da proteggere i dati da eliminazioni accidentali. Puoi anche usare SRR per aggregare in modo semplice i log di diversi bucket S3 per l'elaborazione in-regione o di configurare la replicazione in tempo reale tra ambienti di test e di sviluppo. Per ulteriori informazioni, consulta la guida per l'utente di S3 SRR.

D: Cos'è Amazon S3 Batch Replication?

Amazon S3 Batch Replication replica oggetti esistenti tra bucket. Puoi utilizzare S3 Batch Replication per riempire i bucket appena creati con oggetti esistenti, riprovare gli oggetti che non era stato possibile replicare, migrare i dati tra account o aggiungere nuovi bucket a un data lake. Puoi iniziare con S3 Batch Replication con pochi clic nella console S3 o con una semplice richiesta API. Per scoprire di più visita la guida per l’utente S3 Batch Replication.

D: Come si abilita Amazon S3 Replication (Cross-Region Replication e Same-Region Replication)?

La funzionalità di Replica di Amazon S3 (replica in più regioni e replica nella stessa regione) può essere configurata a livello di bucket, un livello di prefisso condiviso o un livello di oggetto utilizzando i tag dell'oggetto S3. Per configurare una replica in un bucket sorgente, è necessario specificare un bucket di destinazione per la replica nella stessa regione o in una regione AWS differente.

Puoi utilizzare la console di gestione di S3, l'API, l'interfaccia a riga di comando di AWS, gli SDK AWS o AWS CloudFormation per abilitare una replica. Per abilitare la replica, la funzione Versioning (Versioni multiple) deve essere attivata sia per i bucket di origine sia per quelli di destinazione. Per ulteriori informazioni, consulta la panoramica della configurazione di replica nella Guida per sviluppatori di Amazon S3.

D: Come utilizzo S3 Batch Replication?

Dovresti prima abilitare la replica S3 a livello del bucket. Consulta la domanda precedente per capire come fare. Quindi puoi avviare un lavoro S3 Batch Replication nella console S3 dopo aver creato una nuova configurazione di replica, cambiando una destinazione di replica in una regola di replica dalla pagina di configurazione della replica, o dalla pagina S3 operazioni in batch crea lavoro. In alternativa, puoi avviare un lavoro di replica batch S3 tramite la CLI O SKD AWS. Per ulteriori informazioni, consulta la sezione relativa allaReplica S3 nella Guida per sviluppatori di Amazon S3.

D: Posso utilizzare la Replica di S3 con le regole sul ciclo di vita di S3?

Con la Replica di S3, è possibile stabilire regole di replica per creare delle copie dei tuoi oggetti all'interno di un'altra classe di archiviazione, nella stessa regione o in una regione differente. Le azioni relative al ciclo di vita non vengono replicate; se desideri applicare le stesse configurazioni sul ciclo di vita al bucket sorgente così come al bucket di destinazione, basterà attivare la stessa configurazione su entrambi. 

Ad esempio, una regola del ciclo di vita può stabilire la migrazione dei dati dalla classe di archiviazione S3 Standard alle classi S3 Standard-IA o S3 One Zone-IA oppure l'archiviazione in una classe S3 Glacier nel bucket di destinazione.

Se hai configurato S3 Lifecycle per il tuo bucket di destinazione, ti consigliamo di disabilitare le regole Lifecycle mentre il lavoro di Batch Replication è attivo per mantenere la parità tra le versioni non correnti e correnti degli oggetti nei bucket sorgente e destinazione.

Per ulteriori informazioni sulla configurazione del ciclo di vita e la replica, consulta la
Guida per sviluppatori di S3 Replication.

D: Posso utilizzare la Replica di S3 per replicare più di un bucket di destinazione?

Sì. La Replica di S3 consente ai clienti di replicare i dati in più bucket di destinazione nelle stesse regioni o in regioni AWS diverse. In fase di impostazione, specifica semplicemente il nuovo bucket di destinazione nella configurazione della replica o creane una nuova con più bucket di destinazione. Per ogni nuova destinazione specificata, puoi scegliere la classe di archiviazione del bucket di destinazione, il tipo di crittografia, i parametri di replica e notifiche, il Controllo del tempo di replica e altre proprietà.

D: Posso utilizzare la Replica di S3 per impostare la replica bidirezionale tra bucket S3?

Sì. Per impostare la replicazione bidirezionale, crea una regola di replicazione dal bucket A al bucket B e configurane un'altra dal bucket B al bucket A. Assicurati di abilitare la sincronizzazione delle modifiche della replicazione su entrambi i bucket A e B per replicare le modifiche ai metadati di replica, come liste di controllo accessi (ACL), tag di oggetti o blocchi degli oggetti sugli oggetti replicati.

D: È possibile usare la replicazione su diversi account AWS per una maggiore protezione da eliminazioni accidentali o dolose?

Sì, è possibile impostare la replica in più regioni e nella stessa regione su diversi account AWS per archiviare i dati replicati in un account differente nella regione di destinazione. È possibile sovrascrivere le impostazioni di proprietà nella configurazione della replicazione per mantenere stack di proprietà distinti tra origine e destinazione e assegnare la proprietà dello storage replicato all'account di destinazione.

D: È prevista la replicazione dei tag di oggetti quando si usa Cross-Region Replication?

I tag di oggetti possono essere replicati in diverse regioni AWS utilizzando la funzionalità di replica in più regioni. Per i clienti già abilitati alla replica in più regioni, sono necessari nuovi permessi per la replica dei tag. Per ulteriori informazioni sulla configurazione della replicazione in più regioni, consulta la sezione sull'impostazione della replica in più regioni nella Guida per sviluppatori di Amazon S3.

D: Posso replicare i contrassegni di eliminazione da un bucket a un altro?

Sì, puoi replicare i contrassegni di eliminazione dall'origine alla destinazione se hai attivato la replica dei contrassegni di eliminazione nella configurazione di replica. Quando replichi i contrassegni di eliminazione, Amazon S3 si comporta come se l'oggetto fosse stato eliminato in entrambi i bucket. Puoi attivare la replica dei contrassegni di eliminazione per una regola di replica nuova o esistente. Puoi applicare la replica dei contrassegni di eliminazione all'interno bucket o agli oggetti Amazon S3 che hanno un prefisso specifico utilizzando regole di replica basate sui prefissi. La Replica di Amazon S3 non supporta la replica del contrassegno di eliminazione per le regole di replica basate su tag degli oggetti. Per ulteriori informazioni sull'attivazione della replica dei contrassegni di eliminazione, consulta Replica dei contrassegni di eliminazione da un bucket a un altro.

D: È possibile replicare i dati da altre regioni AWS alla Cina? È possibile replicare da un bucket in una regione Cina verso altre regioni?

No, la Replica di Amazon S3 non è disponibile tra le regioni AWS Cina e le regioni AWS diverse dalla Cina. È possibile replicare soltanto all'interno delle regioni Cina.

D: Posso replicare oggetti esistenti?

Sì. Puoi utilizzare S3 Batch Replication per replicare oggetti esistenti tra bucket. Per ulteriori informazioni, consulta la guida per l'utente di S3.

D: Posso ri-provare una replica se un oggetto non riesce a replicare inizialmente?

Sì. Puoi utilizzare S3 Batch Replication per ri-replicare oggetti che non riescono a replicare inizialmente. Per ulteriori informazioni, consulta la guida per l'utente di S3.

D: Quanto costa utilizzare la replica dei dati di account incrociati?

In S3 Replication puoi configurare la replica di account incrociati dove i bucket sorgente e i bucket di destinazione sono detenuti da account AWS differenti. Escludendo l'archiviazione S3 e le tariffe di recupero applicabili, i clienti pagano per le richieste PUT di replica e il trasferimento dati tra Regioni IN USCITA da S3 alla Regione di destinazione quando utilizzano la Replica S3. Se disponi di S3 Replication Time Control (S3 RTC) abilitato sulle regole di replica, vedrai un trasferimento dati IN USCITA diverso e l'addebito della richiesta PUT di replica specifico per S3 RTC. Per la replica di account incrociati l'account fonte paga per tutti i trasferimenti di dati (S3 RTC e S3 CRR) e l'account di destinazione paga per la replica delle richieste PUT. Gli addebiti per il trasferimento dei dati si applicano solo a S3 Cross Region Replication (S3 CRR) e S3 Replication Time Control (S3 RTC), non ci sono addebiti per il trasferimento dei dati per S3 Same Region Replication (S3 SRR). 

Se stai usando S3 Batch Replication per replicare gli oggetti tra gli account, dovrai sostenere i costi di S3 Batch Operations, oltre alle richieste PUT di replica e ai costi di Data Transfer OUT (nota che S3 RTC non è applicabile a Batch Replication). Gli addebiti per le operazioni batch includono gli addebiti per i lavori e per gli oggetti, che si basano rispettivamente sul numero di lavori e sul numero di oggetti elaborati. Inoltre, se si opta per il manifesto generato da Amazon S3, si incorrerà in un costo del manifesto basato sul numero di oggetti nel bucket di origine.

Visita la
pagina dei prezzi per S3 per ulteriori dettagli sui prezzi di S3 Replication.

S3 Replication Time Control

D: Cos'è Amazon S3 Replication Time Control?

La funzionalità di Controllo del tempo di replica di Amazon S3 offre prestazioni di replica prevedibili e ti consente di rispettare la conformità o i requisiti aziendali. Il Controllo del tempo di replica di S3 è pensato per replicare la maggior parte degli oggetti in pochi secondi, il 99% degli oggetti in 5 minuti, e il 99,99% degli oggetti in 15 minuti. La funzionalità di Controllo del tempo di replica di S3 è coperta da un Contratto sul livello di servizio (SLA), secondo il quale il 99,9% degli oggetti verrà replicato in 15 minuti per ciascuna coppia di regioni di replica durante qualsiasi mese di fatturazione. La funzionalità per il tempo di replica funziona con tutte le altre funzionalità della Replica di S3. Per ulteriori informazioni, consulta la Guida per sviluppatori sulla replica.

D: Come posso attivare il Controllo del tempo di replica di Amazon S3?

È possibile attivare la funzionalità di Controllo del tempo di replica di Amazon S3 per ogni regola di replica. È possibile creare una nuova policy di Replica di S3 con la funzionalità di Controllo del tempo di replica di S3; oppure, puoi attivare la funzionalità su una policy esistente.

Puoi utilizzare la console di gestione di S3, l'API, l'interfaccia a riga di comando di AWS, gli SDK AWS o AWS CloudFormation per configurare una replica. Per ulteriori informazioni, consulta la panoramica della configurazione di replica nella Guida per sviluppatori di Amazon S3.

D: Che cosa sono i parametri e gli eventi della Replica di Amazon S3?

I parametri e gli eventi della Replica di Amazon S3 forniscono visibilità sull'attività della Replica di Amazon S3. Tramite i parametri della Replica di S3, è possibile monitorare il numero totale e le dimensioni degli oggetti in attesa di replica, così come la latenza di replica tra i bucket di origine e destinazione per ciascuna regola di replica di S3. I parametri della replica sono disponibili sulla Console di gestione di Amazon S3 e Amazon CloudWatch. Gli eventi di Replica di S3 ti permettono di ricevere delle notifiche in caso di errori di replica per consentirti di diagnosticare e correggere rapidamente i problemi. Se hai attivato il Controllo del tempo di replica di S3 (RTC S3), riceverai notifiche anche nel caso in cui un oggetto richiede più di 15 minuti per essere replicato, così come nel caso in cui l'oggetto viene replicato con successo nella destinazione. Così come per gli altri eventi di Amazon S3, gli eventi di S3 Replication sono disponibili su Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS) o AWS Lambda.

D: Come posso attivare i parametri e gli eventi della Replica di Amazon S3?

I parametri e gli eventi della Replica di Amazon S3 possono essere attivati per regole di replica nuove o esistenti e sono abilitati per impostazione predefinita per le regole del Controllo del tempo di replica di Amazon S3 attivate. Puoi accedere ai parametri della Replica di S3 dalla Console di gestione di Amazon S3 e da Amazon CloudWatch. Così come per gli altri eventi di Amazon S3, gli eventi di S3 Replication sono disponibili su Amazon Simple Queue Service (Amazon SQS), Amazon Simple Notification Service (Amazon SNS) o AWS Lambda. Per ulteriori informazioni, visita la pagina Monitoraggio dell'avanzamento con i parametri di replica e le notifiche di eventi Amazon S3 nella Guida per sviluppatori di Amazon S3.

D: Che cos'è l'Accordo sul Livello di Servizio (SLA) di Amazon S3 Replication Time Control?

La funzionalità di Controllo del tempo di replica di Amazon S3 è pensata per replicare il 99,99% degli oggetti in 15 minuti ed è supportata da un accordo sul livello di servizio (SLA). Nel caso in cui venga replicata una quantità minore del 99,9% degli oggetti in 15 minuti per ciascuna coppia di Regioni di replica durante un ciclo mensile di fatturazione, lo SLA per il Controllo del tempo di replica di S3 garantisce un credito di servizio su qualsiasi oggetto per cui vengano impiegati più di 15 minuti per completarne la replica. Il credito di servizio copre una percentuale per tutte le commissioni collegate alla replica associate agli oggetti che non hanno rispettato lo SLA, incluse la commissione per il Controllo del tempo di replica, la larghezza di banda della replica e gli addebiti relativi alle richieste, così come i costi associati all'archiviazione della replica nella Regione di destinazione all'interno del ciclo mensile di fatturazione in cui si è verificato l'evento. Per ulteriori informazioni, consulta lo SLA di S3 Replication Time Control.

D: Qual è il costo di S3 Replication e S3 Replication Time Control?

Per i casi di replica di S3 (Cross-Region Replication e Same Region Replication), è previsto il pagamento per l'archiviazione di S3 relativa alle classi di archiviazione di S3 di destinazione selezionate, oltre al pagamento per la copia principale, le richieste della replica PUT e le commissioni applicabili per il recupero di archiviazione per accessi non frequenti. Per CRR, puoi anche pagare per il trasferimento dati tra regioni IN USCITA da S3 alla tua Regione di destinazione. I parametri di replica S3 vengono fatturati alla stessa tariffa dei parametri personalizzati di Amazon CloudWatch. Inoltre, per l'utilizzo di S3 Replication Time Control, è previsto anche il pagamento di un costo di trasferimento dei dati. Per ulteriori informazioni, consulta la pagina dei prezzi di S3.

Se l'oggetto sorgente viene caricato tramite la funzione di caricamento in più parti, la replica avviene con lo stesso numero di parti e ogni parte avrà le stesse dimensioni. Ad esempio, su un oggetto da 100 GB caricato tramite la caratteristica di caricamento in più parti (800 parti da 128 MB ciascuna) vengono applicati, in caso di replica, i costi di richiesta associati alle 802 richieste (800 richieste per il caricamento delle parti + 1 richiesta Initiate Multipart Upload + 1 richiesta Complete Multipart Upload). Saranno perciò addebitati 0,00401 USD (802 richieste * 0,005 USD ogni 1.000 richieste) e (se la replica avviene tra regioni AWS differenti) saranno addebitati 2 USD (0,020 USD per GB trasferito * 100 GB) per il trasferimento tra regioni. Dopo la replica, ai 100 GB di dati saranno applicate le tariffe di archiviazione previste dalla Regione di destinazione.

Punti di accesso multi-Regione S3

D: Cosa sono i punti di accesso multi-Regione S3?

I punti di accesso multi-Regione Amazon S3 accelerano le prestazioni fino al 60% quando si accede a set di dati replicati in più Regioni AWS. Basati su AWS Global Accelerator, i punti di accesso multi-Regione S3 considerano fattori come la congestione della rete e la posizione dell'applicazione richiedente per instradare dinamicamente le richieste sulla rete AWS alla copia dei tuoi dati con la latenza più bassa. Questo routing automatico ti permette di sfruttare l'infrastruttura globale di AWS mantenendo un'architettura dell'applicazione semplice.

D: Perché dovrei usare i punti di accesso multi-Regione S3?

I punti di accesso multi-Regione S3 accelerano e semplificano l’archiviazione per le tue applicazione multi-Regione. Instradando dinamicamente le richieste S3 nei confronti di un set di dati replicato, i punti di accesso multi-Regione S3 riducono la latenza delle richieste, aumentando la velocità delle applicazioni fino al 60%. Inoltre, potrai sfruttare al massimo l’infrastruttura globale di AWS mantenendo un’architettura semplice e indipendente dalle Regioni per le tue applicazioni.

D: Come funzionano i punti di accesso multi-Regione S3?

I punti di accesso multi-Regione instradano dinamicamente le richieste del client ad uno o più bucket S3 sottostanti. È possibile configurare i tuoi punti di accesso multi-Regione per il routing tra un bucket per Regione AWS, in oltre 20 Regioni AWS. S3 genera automaticamente un nome compatibile con il DNS al momento della creazione di un punto di accesso multi-regione. Questo nome viene utilizzato come endpoint globale che può essere utilizzato dai tuoi client. Quando i tuoi client effettuano una richiesta a questo endpoint, S3 instraderà dinamicamente le richieste ad uno dei bucket sottostanti indicati nella configurazione del tuo punto di accesso multi-regione.

Per impostazione predefinita, i punti di accesso multi-regione S3 instradano le richieste al bucket sottostante più vicino al client, sulla base della latenza di rete. Ad esempio, è possibile configurare un punto di accesso multi-regione con i bucket sottostanti su US-EAST-1 e su AP-SOUTH-1. Tramite questa configurazione, i tuoi clienti in America settentrionale potranno effettuare il routing verso US-EAST-1, e i tuoi clienti in Asia potranno effettuare il routing verso AP-SOUTH-1. La latenza ridotta per le richieste effettuate ad S3 permette di migliorare le prestazioni dell'applicazione.

Se l'applicazione accede ad S3 tramite Internet, la prestazione migliorerà ulteriormente con i punti di accesso multi-regione S3, perché S3 instraderà le richieste attraverso l'ubicazione AWS più vicina al client e tramite la rete AWS privata globale ad S3. Le richieste eviteranno di congestionare i segmenti di rete su Internet, il che permetterà di ridurre la latenza di rete e il jitter, migliorando al tempo stesso le prestazioni.

D: Come si inizia a usare i punti di accesso multi-regione S3?

La console di gestione S3 fornisce un semplice flusso di lavoro guidato che ti consente di impostare velocemente tutto ciò di cui hai bisogno per l'archiviazione multi-regione su S3, in tre semplici mosse. Per prima cosa, un nome host unico e globale per il tuo punto di accesso multi-regione sarà generato automaticamente per te. Potrai mettere in contatto i tuoi clienti con le tue applicazioni, senza dover specificare una Regione AWS. Poi, potrai selezionare uno o più bucket su S3 da utilizzare per il routing attraverso questo nome host. Potrai scegliere tra bucket esistenti o decidere di creare nuovi bucket. Infine, potrai specificare le regole per S3 Cross-Region Replication.

In alternativa, potrai utilizzare CloudFormation per automatizzare la configurazione dell’archiviazione multi-regione. Tutti i blocchi di costruzione richiesti per la configurazione dell'archiviazione multi-regione su S3, compresi i punti di accesso multi-regione, sono supportati da CloudFormation, permettendoti di automatizzare in modo semplice un processo di configurazione replicabile al di fuori della console di gestione S3.

D: Qual è la differenza tra S3 Cross-Region Replication (S3 CRR) e i punti di accesso multi-regione di S3?

S3 CRR e i punti di accesso multi-regione di S3 sono caratteristiche complementari che funzionano insieme per replicare dati tra le Regioni AWS e per effettuare, successivamente, il routing delle richieste verso la copia replicata a bassa latenza. I punti di accesso multi-regione S3 ti aiutano nella gestione delle richiesta nelle Regioni AWS, mentre S3 CRR ti permette di spostare i dati tra le regioni per creare repliche isolate. Utilizzerai i punti di accesso S3 e S3 CRR insieme per creare un set di dati replicato multi-regione indirizzabile tramite un unico endpoint globale.

D: Qual è il costo dei punti di accesso multi-regione S3?

Quando utilizzi un punto di accesso multi-regione S3 per instradare richieste all'interno di AWS, paghi i costi per il routing di dati per ogni gigabyte (GB) elaborato, nonché i costi standard per richieste, archiviazione, trasferimento dati e replica di S3. Se un'applicazione viene eseguita al di fuori di AWS e accede a S3 via Internet, i punti di accesso multi-regione S3 aumentano le prestazioni instradando automaticamente le richieste attraverso una posizione edge AWS, tramite la rete AWS privata globale, alla copia dei dati più prossima in base alla latenza di accesso. Quando acceleri le richieste effettuate via Internet, paghi il costo per il routing dei dati e un costo per l'accelerazione di Internet. I prezzi per l'accelerazione di Internet per i punti di accesso multi-regione S3 variano a seconda che il client di origine si trovi nella stessa posizione o in una posizione diversa dalla Regione AWS di destinazione, e sono aggiuntivi rispetto ai prezzi standard per il trasferimento di dati S3. Per maggiori informazioni riguardo i costi, consulta la pagina dei prezzi di S3 e la tabella relativa al trasferimento dei dati.

D: In cosa differiscono l'accelerazione del trasferimento S3 e i punti di accesso multi-regione S3?

Puoi utilizzare l’accelerazione del trasferimento S3 per velocizzare il trasferimento di contenuto da e verso un unico bucket S3 centralizzato, attraverso la rete AWS globale. Ciò è utile soprattutto per i trasferimenti di lunga distanza di oggetti di dimensioni maggiori o per rimuovere applicazioni web o mobili. Con i punti di accesso multi-regione S3, potrai effettuare simili trasferimenti accelerati tramite la rete globale AWS, ma su più bucket S3 in diverse Regioni AWS per richieste basate su Internet, VPC e on-premise da e verso S3. Utilizzando insieme i punti di accesso multi-regione S3 e S3 Cross Replication, permetti ai punti di accesso multi-regione S3 di instradare dinamicamente le richieste verso la copia di dati con la latenza minore per le applicazioni di clienti in diverse località.

Elaborazione di dati

Object Lambda

D: Cos'è Amazon S3 Object Lambda?

S3 Object Lambda permette di aggiungere il codice alle richieste GET S3 per modificare ed elaborare i dati come se fossero restituiti dall'applicazione. Per la prima volta puoi utilizzare il codice personalizzato per modificare i dati restituiti dalle richieste GET S3 standard per filtrare le righe, ridimensionare le immagini in modo dinamico, revisionare i dati confidenziali e molto altro. S3 Object Lambda ti aiuta a soddisfare facilmente i requisiti del formato dei dati univoci di qualsiasi applicazione senza costruire e mettere in funzione infrastrutture aggiuntive, ad esempio un livello proxy, o creare e mantenere copie derivate dei dati. S3 Object Lambda utilizza le funzioni di AWS Lambda per elaborare automaticamente l'output di una richiesta GET S3 standard. AWS Lambda è un servizio di calcolo serverless che esegue un codice definito dal cliente senza la necessità di gestire risorse di calcolo sottostanti. 

Sono sufficienti pochi clic nella console di gestione AWS per configurare una funzione Lambda e allegarla ad un endpoint del servizio S3 Object Lambda. In questo modo, S3 chiamerà la funzione Lambda automaticamente per elaborare qualsiasi dato recuperato attraverso l'endpoint di S3 Object Lambda, restituendo un risultato trasformato all'applicazione. Puoi creare ed eseguire le tue funzioni Lambda personalizzate, adattando la trasformazione dei dati di S3 Object Lambda al tuo specifico caso d'uso.

È possibile cominciare a usare S3 Object Lambda attraverso la console di gestione, l'SDK o l'API di S3. Ulteriori informazioni sono disponibili nella pagina di S3 Object Lambda, o nella guida per l'utente di S3 Object Lambda.

D: Qual è il vantaggio di utilizzare S3 Object Lambda?

È consigliabile utilizzare S3 Object Lambda per condividere una copia singola dei dati tra più applicazioni, evitando la necessità di creare e rendere operativa un'infrastruttura di elaborazione personalizzata o archiviare le copie derivate dei dati. Per esempio, utilizzando S3 Object Lambda per elaborare le normali richieste GET S3 è possibile nascondere i dati sensibili secondo eventuali requisiti di conformità, ristrutturare i dati grezzi con l'obiettivo di renderli compatibili con le applicazioni di machine learning, filtrare i dati per restringere l'accesso a determinati contenuti all'interno di un oggetto S3 o soddisfare una vasta gamma di casi d'uso aggiuntivi. È possibile configurare S3 Object Lambda in pochi clic nella Console di gestione di Amazon S3. Consulta la guida per l’utente per ulteriori informazioni.

D: Come funziona S3 Object Lambda?

S3 Object Lambda utilizza le funzioni Lambda da te specificate per elaborare l'output di una richiesta GET S3 standard. Dopo aver definito una funzione Lambda per l'elaborazione dei dati richiesti è possibile collegare tale funzione a un punto di accesso S3 Object Lambda. Le richieste GET eseguite tramite un punto di accesso S3 Object Lambda richiameranno ora la funzione Lambda specifica. Lambda effettuerà troverà quindi l'oggetto S3 richiesto dal client e lo elaborerà. Al termine dell'elaborazione, Lambda invierà l'oggetto elaborato al client che lo aveva chiamato. Per ulteriori informazioni su S3 Object Lambda consulta la guida per l'utente.

D: Come posso iniziare a usare S3 Object Lambda?

Ci sono diversi modi per configurare S3 Object Lambda. Una possibilità è configurarlo nella console S3 dalla scheda del punto di accesso di Object Lambda. Quindi crea un punto di accesso S3 Object Lambda, la funzione Lambda che vuoi che venga eseguita da S3 per le tue richieste GET e un punto di accesso S3 di supporto. Concedi a tutte le risorse l'autorizzazione per interagire con Object Lambda. Infine, aggiorna l'SDK e l'applicazione per utilizzare il nuovo punto di accesso S3 Object Lambda per recuperare dati da S3 utilizzando l'SDK del linguaggio scelto. S3 Object Lambda inizierà a elaborare le richieste GET. Nella documentazione AWS sono riportati esempi di implementazioni di funzioni Lambda che agevolano la sperimentazione del servizio.

Puoi anche utilizzare AWS CloudFormation per automatizzare la tua configurazione di S3 Object Lambda. Quando utilizzi il modello di AWS CloudFormation, la funzione Lambda che è implementata nel tuo account passerà gli oggetti S3 di nuovo al tuo client o applicazione per le richieste senza alcun cambiamento. Puoi aggiungere codice personalizzato per modificare ed elaborare i dati quando vengono restituiti dall'applicazione. Per ulteriori informazioni, consulta la Guida per l'utente di S3 Object Lambda. 

D: Quali operazioni è possibile eseguire con S3 Object Lambda?

Qualsiasi operazione supportata da una funzione Lambda lo è anche da S3 Object Lambda. Ciò offre una vasta gamma di opzioni disponibili per l'elaborazione delle richieste. È possibile fornire la propria funzione Lambda per eseguire calcoli personalizzati sulle richieste GET, offrendo la possibilità per elaborare i dati secondo le esigenze dell'applicazione. Il tempo di elaborazione di Lambda è limitato a un massimo di 60 secondi. Per ulteriori dettagli consulta la documentazione S3 Object Lambda qui.

D: Quali tipi di richiesta S3 supporta S3 Object Lambda?

S3 Object Lambda supporta le richieste GET. Qualsiasi altra chiamata API S3 eseguita verso un punto di accesso S3 Object Lambda restituirà una risposta API S3 standard. Ulteriori informazioni S3 Object Lambda sono disponibili nella guida per l'utente di S3 Object Lambda.

D: Cosa succede quando una funzione S3 Object Lambda fallisce?

Quando una funzione S3 Object Lambda fallisce, riceverai una risposta alla richiesta dettagliata dell'errore. Allo stesso modo delle altre invocazioni delle funzioni Lambda, AWS monitora automaticamente le funzioni per tuo conto, generando report sui parametri attraverso Amazon CloudWatch. Per aiutarti a rilevare gli errori, Lambda registra tutte le richieste elaborate dalla funzione e archivia automaticamente i log generati dal codice con Amazon CloudWatch Logs. Per ulteriori informazioni sull'accesso a CloudWatch Logs per AWS Lambda, consulta la documentazione di CloudWatch.

D: S3 Object Lambda influisce sullo SLA relativo alla disponibilità di S3 o sulla sua durabilità?

S3 Object Lambda connette Amazon S3, AWS Lambda e, volendo, altri servizi AWS da te selezionati per distribuire gli oggetti rilevanti alle applicazioni che li richiedono. Tutti i servizi AWS utilizzati in connessione con S3 Object Lambda continueranno a essere gestiti dai loro rispettivi SLA. Per esempio, nel caso in cui qualsiasi servizio AWS non rispetti l'impegno relativo alla percentuale di tempo di attività mensile, i clienti interessati dal disservizio avranno diritto a un credito sui servizi secondo quanto descritto nel contratto sul livello di servizio. La creazione di un punto di accesso di S3 Object Lambda non influisce sulla durabilità degli oggetti. Tuttavia, S3 Object Lambda invoca la funzione AWS Lambda da te specificata, quindi assicurati che sia quella corretta. Consulta l'SLA di Amazon S3 più recente qui.

D: Quando costa S3 Object Lambda?

L'utilizzo di S3 Object Lambda prevede una tariffa a GB per ogni gigabyte di dati restituiti attraverso S3 Object Lambda. Si pagano inoltre la richiesta S3 GET e le tariffe di calcolo di AWS Lambda per il tempo di esecuzione della funzione specificata per elaborare i dati richiesti. Per ulteriori dettagli sui prezzi e per un esempio, consulta la pagina dei prezzi di S3.

Sei pronto per iniziare?

Standard Product Icons (Features) Squid Ink
Scopri le caratteristiche del prodotto

Ulteriori informazioni sulle funzionalità per la gestione dei dati, la sicurezza, la gestione degli accessi, l'analisi e altro.

Ulteriori informazioni 
Sign up for a free account
Registrati per creare un account gratuito

Ottieni l'accesso al piano gratuito di AWS e inizia a sperimentare Amazon S3. 

Registrati 
Standard Product Icons (Start Building) Squid Ink
Inizia a lavorare nella console

Inizia a lavorare con Amazon S3 nella Console AWS.

Nozioni di base