D: Cos'è Amazon S3?

Amazon S3 è un servizio di storage su Internet. Offre agli sviluppatori di software un'infrastruttura di storage dei dati altamente scalabile, affidabile e a bassa latenza a costi molto contenuti.

D: Cosa è possibile fare con Amazon S3?

Amazon S3 offre una semplice interfaccia web service che consente di archiviare e recuperare qualsiasi volume di dati, in qualunque momento e da qualunque luogo tramite Web. Con questo servizio Web, gli sviluppatori possono facilmente realizzare applicazioni che fanno uso di storage su Internet. Poiché Amazon S3 è altamente scalabile e si paga soltanto per le risorse effettivamente utilizzate, è possibile iniziare con una soluzione di base per poi espanderla secondo le esigenze, senza dover scendere a compromessi su prestazioni o affidabilità.

Amazon S3 è stato inoltre progettato per essere altamente flessibile. È possibile archiviare qualsiasi tipo e volume di dati, accedere agli stessi dati milioni di volte o soltanto in caso di disaster recovery, realizzare una semplice applicazione FTP oppure una sofisticata soluzione Web come il sito di vendita al dettaglio di Amazon.com. Amazon S3 consente agli sviluppatori di concentrarsi sull'innovazione anziché preoccuparsi di dove archiviare i dati.

D: Che cosa occorre per cominciare a usare Amazon S3?

Per registrarti ad Amazon S3, fai clic sul pulsante "Sign up for This Web Service" nella pagina dei dettagli di Amazon S3. Per accedere al servizio è necessario un account Amazon Web Services; se non ne possiedi uno, avrai la possibilità di crearlo all'inizio della procedura di registrazione ad Amazon S3. Dopo la registrazione, consulta la documentazione di Amazon S3 e il codice di esempio reperibile presso il Resource Center.

D: Quali sono i vantaggi tecnici di Amazon S3?

Amazon S3 è stato progettato per soddisfare i requisiti di scalabilità, affidabilità, velocità, economicità e semplicità ai quali devono attenersi gli sviluppatori interni di Amazon. Amazon S3 mette questi stessi vantaggi a disposizione di tutti gli sviluppatori esterni. Ulteriori informazioni sui requisiti di progettazione di Amazon S3 sono disponibili nella pagina dei dettagli di Amazon S3.

D: Quali possibilità non disponibili in precedenza offre Amazon S3 agli sviluppatori?

Fino ad ora, un'infrastruttura di storage sofisticata e scalabile come quella di Amazon era fuori dalla portata dei piccoli sviluppatori. Amazon S3 consente a qualsiasi sviluppatore di usufruire delle risorse su larga scala di Amazon senza investimenti anticipati o compromessi sulle prestazioni. Gli sviluppatori sono ora liberi di innovare sapendo che, per quanto si espanda la loro attività, far sì che i loro dati siano rapidamente accessibili, sempre disponibili e protetti sarà poco costoso e semplice.

D: Quali tipi di dati si possono archiviare?

Si può archiviare praticamente qualsiasi tipo di dati in qualunque formato. Per i dettagli, consulta il contratto di licenza di Amazon Web Services.

D: Quali volumi di dati è possibile archiviare?

Il volume totale di dati e il numero di oggetti che si possono archiviare sono illimitati. I singoli oggetti di Amazon S3 possono variare da un minimo di 0 byte a un massimo di 5 terabyte. La dimensione massima che può essere caricata in un unico PUT è 5 gigabyte per oggetto. Tuttavia, per gli oggetti di dimensioni superiori ai 100 megabyte, è consigliabile utilizzare la funzionalità di caricamento in più parti.

D: Quali classi di storage offre Amazon S3?

Amazon S3 offre più classi di storage in base ai diversi casi d'uso. Sono previste tre classi di storage altamente durevole: Amazon S3 Standard per lo storage generale dei dati ad accesso frequente, Amazon S3 Standard – Infrequent Access per i dati di lunga durata ma con accesso meno frequente e Amazon Glacier per l'archiviazione a lungo termine. Per ulteriori informazioni su queste tre classi, consulta la pagina delle classi di storage di Amazon S3.

Il Reduced Redundancy Storage (RRS) è un'opzione di storage di Amazon S3 che consente ai clienti di ridurre i costi salvando dati non critici e riproducibili con un livello di ridondanza più ridotto rispetto allo storage standard di Amazon S3. Per ulteriori informazioni, consulta la pagina dei dettagli di Reduced Redundancy Storage.

D: Come è possibile eliminare una grande quantità di oggetti?

Esiste una funzione apposita (Multi-Object Delete) per eliminare un grande numero di oggetti da Amazon S3. Questa funzione consente di includere diverse chiavi oggetto in un'unica richiesta per velocizzare le procedure di eliminazione. L'uso della funzione Multi-Object Delete è gratuito.

D: Che impiego fa Amazon dei dati archiviati in Amazon S3?

Amazon conserva i dati e tiene traccia del loro uso a scopi di fatturazione. Amazon non accede ai dati per alcuno scopo estraneo al servizio Amazon S3, salvo nel caso in cui ciò le sia imposto dalla legge. Per i dettagli, consulta il contratto di licenza di Amazon Web Services.

D: Amazon archivia anche i propri dati in Amazon S3?

Sì. Gli sviluppatori di Amazon utilizzano Amazon S3 per svariati progetti. Per molti di questi progetti Amazon S3 è il datastore principale di riferimento al quale si affidano le operazioni business critical.

D: Come sono organizzati i dati in Amazon S3?

Amazon S3 è un semplice object store basato su chiavi. Quando si archiviano dei dati, si assegna loro una chiave oggetto unica che serve per recuperarli in seguito. Le chiavi possono essere costituite da qualsiasi stringa e possono essere formulate in modo da riprodurre attributi gerarchici.

D: Come si interagisce con Amazon S3?

Amazon S3 utilizza semplici interfacce di servizi Web REST basate su standard, progettate per operare con qualsiasi kit di strumenti per lo sviluppo Web. Il funzionamento è stato semplificato per facilitare l'aggiunta di nuovi protocolli di trasmissione e layer funzionali.

D: Qual è il livello di affidabilità di S3?

Con Amazon S3, gli sviluppatori hanno accesso alla stessa infrastruttura di storage altamente scalabile, affidabile, veloce ed economica che Amazon stessa impiega per gestire la propria rete globale di siti Web. La classe S3 Standard è concepita per garantire una disponibilità del 99,99% mentre la classe Standard con accessi sporadici garantisce una disponibilità del 99,9%. Entrambi sono coperti dal contratto sul livello di servizio di Amazon S3.

D: Quale modello di consistenza dei dati è adottato in Amazon S3?

I bucket di Amazon S3 forniscono in tutte le regioni consistenza read-after-write per le richieste PUT di nuovi oggetti e consistenza finale per le richieste DELETE e PUT in sovrascrittura.

Ulteriori informazioni

D: Che cosa succede in caso di un improvviso picco di traffico di un'applicazione?

Amazon S3 è stato progettato sin dall'inizio per gestire il traffico di qualsiasi applicazione Internet. La tariffazione a consumo e le capacità illimitate assicurano la regolarità dei costi incrementali e la disponibilità del servizio. Le ingenti risorse di Amazon S3 consentono di distribuire il carico uniformemente, in modo che nessuna applicazione subisca conseguenze negative dai picchi di traffico.

D: Che cos'è il protocollo BitTorrent™ e come si utilizza con Amazon S3?

BitTorrent è un protocollo open source di trasmissione su Internet. Le tariffe di banda di Amazon S3 sono convenienti, ma con BitTorrent, per certi dati particolarmente diffusi, si può risparmiare ulteriormente sui costi di consumo della banda scaricando contemporaneamente da Amazon e da altri utenti. Tutti i dati pubblicamente disponibili presenti in Amazon S3 possono essere scaricati con il protocollo BitTorrent, oltre al normale metodo client/server. È sufficiente aggiungere il parametro ?torrent al termine della richiesta GET nell'API REST.

D: Amazon S3 offre un contratto sul livello di servizio (SLA)?

Sì. Il contratto sul livello di servizio di Amazon S3 offre un credito sui servizi qualora la percentuale di disponibilità del sistema durante un ciclo di fatturazione sia inferiore a quella promessa da Amazon.

D: Come si aumenta il numero di bucket Amazon S3 di cui è possibile effettuare il provisioning?

Di default, i clienti possono effettuare il provisioning di fino a 100 bucket per account AWS. Puoi tuttavia aumentare il limite di bucket di Amazon S3 visitando la pagina AWS Service Limits.


D: Dove sono archiviati i dati?

Puoi specificare una regione al momento della creazione di un bucket in Amazon S3. All'interno della regione selezionata, gli oggetti sono archiviati in modo ridondante su diversi dispositivi dislocati in varie strutture. Per ulteriori informazioni sulla disponibilità dei servizi di Amazon S3, consulta la sezione relativa a prodotti e servizi per regione.

D: Come si sceglie la regione in cui memorizzare i propri dati?

Vi sono diversi i fattori da considerare a seconda dell'applicazione specifica. È opportuno archiviare i dati in una area geografica:

  • Vicina ai tuoi clienti, ai tuoi data center o alle altre tue risorse AWS al fine di ridurre i tempi di latenza nell'accesso ai dati.
  • Distante dalle tue altre zone operative per motivi di ridondanza geografica e di disaster recovery.
  • Che consenta di soddisfare requisiti legali o normativi specifici.
  • Che consenta di ridurre i costi di storage. Per risparmiare, puoi scegliere una regione con tariffe più economiche. Per ulteriori informazioni sulle tariffe di S3, consulta la pagina dei prezzi di S3.

D: Non mi trovo negli Stati Uniti né in Europa; posso utilizzare Amazon S3?

Puoi usare Amazon S3 indipendentemente da dove ti trovi. Devi solamente decidere in quale regione o in quali regioni AWS desideri memorizzare i tuoi dati di Amazon S3.

D: Non era presente una regione Stati Uniti standard?

La regione Stati Uniti standard è stata rinominata in Stati Uniti orientali (Virginia settentrionale) per mantenere la coerenza con la convenzione di denominazione delle altre regioni AWS. Gli endpoint non subiranno alcuna modifica e non sarà necessario apportare alcuna modifica alle applicazioni.


D: Quanto costa Amazon S3?

I prezzi di Amazon S3 sono calcolati solo in base all'uso effettivo. Non vi è alcuna tariffa minima. Calcola la tua fattura mensile con il Calcolatore di costo mensile AWS.

Il servizio è meno caro nelle zone in cui i nostri costi sono inferiori. Alcuni prezzi differiscono da regione a regione e dipendono da dove è situato il bucket. Il trasferimento di dati all'interno di una regione Amazon S3 mediante una richiesta COPY è gratuito. Le tariffe per il trasferimento di dati da una regione a un'altra mediante una richiesta COPY sono riportate nella sezione dei prezzi della pagina dei dettagli di Amazon S3. Il trasferimento di dati tra Amazon EC2 e Amazon S3 all'interno della stessa regione o tra Amazon EC2 in Virginia settentrionale e Amazon S3 nella regione Stati Uniti orientali (Virginia settentrionale) è gratuito. Le tariffe per il trasferimento di dati tra Amazon EC2 e Amazon S3 tra le altre regioni, ossia tra Amazon EC2 in California settentrionale e Amazon S3 nella regione Stati Uniti orientali (Virginia settentrionale) sono riportate nella sezione dei prezzi della pagina dei dettagli di Amazon S3.

Per ulteriori informazioni sulle tariffe di Amazon S3, consulta la pagina dei prezzi.

D: Perché i prezzi di Amazon S3 variano a seconda della regione scelta?

Il servizio è meno caro nelle zone in cui i nostri costi sono inferiori. Ad esempio, i nostri costi sono inferiori nella regione Stati Uniti orientali (Virginia settentrionale) che nella regione Stati Uniti occidentali (California settentrionale).

D: Quali costi vengono addebitati per l'uso della funzione Versioni multiple?

Per ogni versione di un oggetto salvata o richiesta vengono addebitati i normali costi di Amazon S3. Per illustrare i costi di storage quando viene utilizzata la funzione Versioni multiple, prendiamo come esempio il seguente scenario ambientato in un mese di 31 giorni:

1) Giorno 1 del mese: viene eseguita una richiesta PUT di 4 GB (4.294.967.296 byte) sul bucket.
2) Giorno 16 del mese: viene eseguita una richiesta PUT di 5 GB (5.368.709.120 byte) sullo stesso bucket tramite la stessa chiave usata il primo giorno del mese.

Durante l'analisi dei costi di storage per le operazioni descritte, è necessario tenere conto che l'oggetto da 4 GB caricato il primo giorno del mese non viene eliminato dal bucket quando l'oggetto da 5 GB viene aggiunto a metà mese. L'oggetto da 4 GB viene anzi conservato come versione precedente, mentre l'oggetto da 5 GB diventa la versione scritta più recente dello stesso oggetto nel bucket. Alla fine del mese:

Consumo ore-byte totale
= [4.294.967.296 byte x 31 giorni x (24 ore al giorno)] + [5.368.709.120 byte x 16 giorni x (24 ore al giorno)] = 5.257.039.970.304 ore-byte.


GB al mese totali
5.257.039.970.304 ore-byte x (1 GB/1.073.741.824 byte) x (1 mese/744 ore) = 6,581 GB/mese

La tariffa è calcolata in base alle tariffe correnti per la tua regione sulla pagina dei prezzi di Amazon S3.

D: Come viene addebitato e fatturato l'utilizzo di Amazon S3?

L'utilizzo del servizio non richiede alcun impegno di lungo termine né costi di configurazione. Alla fine del mese, verrà addebitato sulla carta di credito il costo delle risorse utilizzate in quel mese. Puoi controllare i consumi per il periodo di fatturazione corrente in qualunque momento sul sito Web di Amazon Web Services, accedendo al tuo account e facendo clic su "Account Activity" sotto "Your Web Services Account".

Con il Piano di utilizzo gratuito di AWS* puoi iniziare a utilizzare Amazon S3 gratuitamente in tutte le regioni ad eccezione della regione AWS GovCloud. Al momento della registrazione, i nuovi clienti AWS ricevono 5 GB di storage Amazon S3 standard, 20.000 richieste GET, 2.000 richieste PUT, 15 GB di trasferimento dati in entrata e 15 GB di trasferimento dati in uscita ogni mese per un anno.

Sono a pagamento i tipi di utilizzo di Amazon S3 elencati di seguito. Nota: i calcoli riportati sotto valgono nel caso il piano di utilizzo gratuito AWS non sia attivo.

Utilizzo di storage

I costi dello storage sono riassunti nella scheda dei prezzi di Amazon S3.

Il volume di storage fatturato in un mese si basa sulla media dello storage utilizzato in tale mese. Includerà quindi tutti i metadati e i dati oggetto archiviati in bucket creati all'interno dell'account AWS. L'utilizzo dello storage è misurato in "Tempo di storage/ore-byte", che sono sommate alla fine del mese per determinare il costo mensile.

Esempio di storage:

Supponiamo di archiviare in un bucket 100 GB (107.374.182.400 byte) di dati di storage standard Amazon S3 per i primi 15 giorni di marzo e 100 TB (109.951.162.777.600 byte) di dati di storage standard Amazon S3 per gli ultimi 16 giorni di marzo.

Alla fine di marzo il consumo in ore-byte è il seguente: consumo ore-byte totale = [107.374.182.400 byte x 15 giorni x (24 ore al giorno)] + [109.951.162.777.600 byte x 16 giorni x (24 ore al giorno)] = 42.259.901.212.262.400 ore-byte.

Convertiamo questa cifra in GB/mese: 42.259.901.212.262.400 ore-byte / 1.073.741.824 byte per GB / 744 ore al mese = 52.900 GB al mese

A questo volume di utilizzo si applicano due scaglioni di prezzo. Supponendo che la regione sia Stati Uniti orientali (Virginia settentrionale), il costo di storage mensile è il seguente: Scaglione da 50 TB: 51.200 GB x 0,023 USD = 1.177,60 Scaglione da 50 TB a 450 TB: 1.700 GB x 0,022 USD = 37,40 USD

Costo di storage totale = 1.177,60 USD + 37,40 USD = 1.215,00 USD

Trasferimento dei dati di rete in entrata

I costi per i trasferimenti di dati in entrata sono riassunti nella scheda dei prezzi di Amazon S3.

Si tratta del volume di dati inviati ai bucket di Amazon S3. Il costo di trasferimento dei dati è di 0,000 USD per GB per i bucket situati nelle seguenti regioni: Stati Uniti orientali (Virginia settentrionale), Stati Uniti occidentali (Oregon), Stati Uniti occidentali (California settentrionale), UE (Irlanda), UE (Francoforte), Asia Pacifico (Singapore), Asia Pacifico (Tokyo), Asia Pacifico (Sydney), Sud America (San Paolo) e AWS GovCloud (Stati Uniti).

Trasferimento dei dati di rete in uscita

I costi per i trasferimenti di dati in uscita sono riassunti nella scheda dei prezzi di Amazon S3. Per Amazon S3, queste tariffe sono applicate ogni volta che vengono letti dati di uno qualsiasi dei bucket da un percorso esterno alla regione Amazon S3 in cui si trovano.

Gli scaglioni di prezzo per i trasferimenti in uscita si basano sul totale dei dati trasferiti in uscita da una data regione a Internet attraverso Amazon EC2, Amazon S3, Amazon RDS, Amazon SimpleDB, Amazon SQS, Amazon SNS e Amazon VPC. Questi scaglioni non si applicano ai trasferimenti in uscita da Amazon S3 in una regione AWS verso un'altra regione AWS.

Esempio di trasferimento dei dati in uscita:
Supponiamo di trasferire 1 TB di dati da Amazon S3 nella regione Stati Uniti orientali (Virginia settentrionale) a Internet ogni giorno per un mese di 31 giorni. Supponiamo anche di trasferire, nello stesso periodo, 1 TB di dati da un'istanza Amazon EC2 della stessa regione a Internet.

Il volume complessivo di dati trasferiti è di 62 TB (31 TB da Amazon S3 e 31 TB da Amazon EC2). Ciò equivale a 63.488 GB (62 TB * 1024 GB/TB).

A questo volume di utilizzo si applicano tre scaglioni di prezzo. Supponendo che la regione sia Stati Uniti orientali (Virginia settentrionale), il costo mensile per il trasferimento di dati in uscita è il seguente:
Scaglione fino a 10 TB: 10.239 GB (10×1024 GB/TB) x 0,09 USD = 921,51 USD
Scaglione da 10 TB a 50 TB: 40,960 GB (40×1024) x 0,085 USD = 3,481.60 USD
Scaglione da 50 TB a 150 TB: 12.288 GB (rimanenti) x 0,070 USD = 860,16 USD

Costo totale trasferimenti in uscita = 921,51 USD + 3.481,60 USD + 860,16 USD = 5.263,27 USD

Richieste

I costi delle richieste sono riassunti nella scheda dei prezzi di Amazon S3.

Esempio di richiesta:
Supponiamo di trasferire 10.000 file in Amazon S3 e 20.000 fuori da Amazon S3 ogni giorno durante il mese di marzo. Il 31 marzo eliminiamo quindi 5.000 file.
Totale richieste PUT = 10.000 richieste x 31 giorni = 310.000 richieste
Totale richieste GET = 20.000 richieste x 31 giorni = 620.000 richieste
Totale richieste DELETE = 5.000 × 1 giorno = 5.000 richieste

Supponendo che il bucket si trovi nella regione Stati Uniti orientali (Virginia settentrionale), il costo delle richieste è il seguente:
310.000 richieste PUT: 310.000 richieste x 0,005 USD/1.000 = 1,55 USD
620.000 richieste GET: 620.000 richieste x 0,004 USD/10.000 = 0,25 USD
5.000 richieste DELETE = 5.000 richieste x 0,00 USD (operazione gratuita) = 0,00 USD

Recupero dei dati

Per la classe di storage Standard – Infrequent Access (Standard – IA) si applicano le tariffe per il recupero dei dati di Amazon S3 riepilogate nella scheda dei prezzi di Amazon S3.

Esempio di recupero di dati:
Supponiamo un determinato mese di recuperare 300 GB di dati da Standard – IA, di cui 100 GB verso la rete Internet, 100 GB verso EC2 nella stessa regione AWS e 100 GB verso CloudFront nella stessa regione AWS.

Il costo sostenuto quel mese viene calcolato come 300 GB x 0,01 USD/GB = 3,00 USD. Nota: a questo calcolo va aggiunto il costo del trasferimento dei dati per la porzione trasferita tramite Internet.

Per informazioni sul costo dell'archiviazione di oggetti in Amazon Glacier consulta questa pagina.

* * L'utilizzo nell'ambito del piano gratuito è calcolato mensilmente in tutte le regioni ad eccezione della regione AWS GovCloud ed è applicato automaticamente alla fattura; i volumi di storage e traffico non utilizzati non vengono trasferiti al mese successivo. Sono previste restrizioni; vedere itermini dell'offerta per ulteriori dettagli.

D: Come viene fatturato l'accesso ad Amazon S3 attraverso la Console di gestione AWS?

Quando si accede al servizio attraverso la Console di gestione AWS si applicano le normali tariffe di Amazon S3. Per migliorare la fruibilità, la Console di gestione AWS potrebbe eseguire richieste in modo proattivo. Inoltre, alcune operazioni interattive richiedono l'invio di più richieste al servizio.

D: Come viene fatturato l'accesso ad Amazon S3 da un altro account AWS?

L'accesso allo storage da un altro account AWS viene fatturato secondo le tariffe standard di Amazon S3. È possibile scegliere di configurare un bucket con pagamento a carico del richiedente, nel qual caso sarà l'account che esegue l'accesso a farsi carico dei costi delle richieste e dei download dei tuoi dati in Amazon S3.

Per ulteriori informazioni sulla configurazione dei bucket con pagamento a carico del richiedente, consulta la documentazione di Amazon S3.

D: I prezzi includono le tasse?

Salvo diversa indicazione, i prezzi sono al netto di eventuali tasse e imposte doganali, inclusa l'IVA ed eventuali imposte sulle vendite. Per i clienti con indirizzo di fatturazione in Giappone, l'utilizzo dei servizi AWS è soggetto all'imposta sul consumo giapponese. Ulteriori informazioni.


D: Qual è il livello di sicurezza dei dati?

La sicurezza è una delle caratteristiche primarie di Amazon S3. Solo i proprietari del bucket e degli oggetti hanno accesso in origine alle risorse Amazon S3 che creano. Amazon S3 è provvisto di funzionalità di autenticazione per controllare l'accesso ai dati. È possibile utilizzare meccanismi di controllo degli accessi come le policy dei bucket e le liste di controllo degli accessi (ACL) per autorizzare l'accesso in modo selettivo a utenti e gruppi di utenti. La console di Amazon S3 mostra i bucket accessibili pubblicamente, indica l'origine di tale accessibilità e avvisa nel caso in cui modifiche a policy o liste di controllo degli accessi dei bucket ne permetterebbero l'accesso pubblico.

È possibile caricare o scaricare in modo sicuro i propri dati su Amazon S3 tramite endpoint crittografati con SSL impiegando protocolli HTTPS. Se occorresse un livello aggiuntivo di sicurezza, è possibile utilizzare l'opzione SSE (Server Side Encryption) per crittografare i dati inattivi. I bucket Amazon S3 possono essere configurati per consentire la crittografia automatica degli oggetti prima che vengano memorizzati, nel caso in cui le richieste di storage in ingresso non dispongano di informazioni di crittografia. In alternativa, è possibile utilizzare le proprie librerie di crittografia per codificare i dati prima che vengano memorizzati in Amazon S3.

D: Come si tiene sotto controllo l'accesso ai dati archiviati su Amazon S3?

Sono disponibili quattro meccanismi per controllare l'accesso alle risorse di Amazon S3: policy di Identity and Access Management (IAM), policy dei bucket, liste di controllo degli accessi (ACL) e autenticazione delle stringhe di query. IAM consente alle aziende che hanno molti dipendenti di creare e gestire più utenti su uno stesso account AWS. Con le policy di IAM, le aziende possono definire in modo granulare l'accesso ai bucket o agli oggetti di Amazon S3 da parte dei loro utenti mantenendo il controllo completo di tutte le operazioni da questi effettuate. Con le policy dei bucket, le aziende possono definire regole applicabili globalmente a tutte le richieste delle risorse Amazon S3, ad esempio la concessione di privilegi di scrittura a un sottogruppo di risorse Amazon S3. È anche possibile limitare l'accesso in base a particolari elementi della richiesta, come referrer HTTP e indirizzo IP. Con le ACL, i clienti possono concedere autorizzazioni specifiche (ovvero READ, WRITE, FULL_CONTROL) a utenti specifici per un singolo oggetto o bucket. Con l'autenticazione delle stringhe di query, è possibile creare un URL per un oggetto Amazon S3 valido solo per un periodo di tempo limitato. Per ulteriori informazioni sui vari sistemi di controllo degli accessi disponibili in Amazon S3, consulta l'argomento Access Control nella Amazon S3 Developer Guide.

D: Amazon S3 supporta l'audit degli accessi ai dati?

Sì. È possibile configurare i bucket di Amazon S3 in modo che vengano creati nel log degli accessi record di tutte le richieste che li riguardano. I record del log degli accessi contengono dettagli della richiesta, quali tipo di richiesta, risorse specificate e ora e data in cui la richiesta è stata elaborata; questi dettagli possono essere utilizzati a fini di audit.

D: Quali opzioni di crittografia sono disponibili per i dati archiviati su Amazon S3?

I dati possono essere crittografati mediante le tecnologie SSE-S3, SSE-C, SSE-KMS oppure mediante una libreria come Amazon S3 Encryption Client. Tutte e quattro le tecnologie consentono di crittografare i dati su disco sensibili archiviati in Amazon S3.

SSE-S3 rappresenta una soluzione integrata: Amazon gestisce le chiavi e la loro protezione utilizzando molteplici livelli di sicurezza. È l'opzione da scegliere se si preferisce affidare ad Amazon la gestione delle chiavi.

SSE-C consente di sfruttare le funzioni di crittografia e decrittografia di Amazon S3 mantenendo però il controllo delle chiavi utilizzate per crittografare gli oggetti. Con SSE-C non occorre implementare e utilizzare una libreria lato client per eseguire la crittografia e la decrittografia degli oggetti archiviati in Amazon S3, ma è necessario gestire le chiavi che si inviano ad Amazon S3 per crittografare e decrittografare gli oggetti. Se desideri mantenere il controllo delle chiavi di crittografia, ma non hai intenzione di implementare o utilizzare una libreria lato client, consigliamo l'uso di SSE-C.

SSE-KMS consente di utilizzare il servizio AWS Key Management Service (KMS) per gestire le chiavi di crittografia. L'impiego di AWS KMS fornisce ulteriori vantaggi. AWS KMS, infatti, prevede autorizzazioni apposite per utilizzare la chiave master, il che fornisce un ulteriore livello di controllo e previene l'accesso non autorizzato agli oggetti archiviati in Amazon S3. In AWS KMS è disponibile un audit trail che garantisce la piena tracciabilità delle operazioni: infatti non solo consente di sapere chi ha utilizzato la chiave per accedere a quale oggetto e quando, ma anche se vi sono stati tentativi falliti di accedere ai dati da parte di utenti non autorizzati a decrittografarli. Infine, AWS KMS offre ulteriori controlli di sicurezza per agevolare l'adeguamento ai requisiti di settore PCI-DSS, HIPAA/HITECH e FedRAMP.

Con una libreria di crittografia client, come Amazon S3 Encryption Client, potrai mantenere il controllo delle chiavi ed effettuare la crittografia e la decrittografia degli oggetti lato client utilizzando una libreria di tua scelta. Alcuni clienti preferiscono avere il controllo completo della crittografia e decrittografia dei dati; in tal modo, vengono inviati tramite Internet ad Amazon S3 soltanto oggetti crittografati. Se desideri mantenere il controllo delle chiavi di crittografia, hai la possibilità di implementare o utilizzare una libreria di crittografia lato client e hai intenzione di crittografare gli oggetti prima che siano inviati ad Amazon S3 per l'archiviazione, consigliamo l'uso di una libreria di crittografia lato client.

Per ulteriori informazioni sull'uso delle opzioni di crittografia SSE-S3, SSE-C e SSE-KMS di Amazon S3, consulta l'argomento Using Encryption nella Amazon S3 Developer Guide.

D: Come protegge Amazon le chiavi di crittografia SSE?

Con la crittografia lato server (SSE), ogni oggetto protetto è crittografato con una chiave univoca. La chiave stessa è crittografata mediante una chiave master separata. Le chiavi master vengono cambiate almeno una volta al mese. I dati crittografati, le chiavi di crittografia e le chiavi master sono archiviati e protetti su host separati, in modo da garantire molteplici livelli di protezione.

D: È possibile ottemperare alle normative dell'Unione europea sulla privacy dei dati utilizzando Amazon S3?

I clienti possono scegliere di archiviare tutti i dati nell'Unione europea utilizzando le regioni UE (Irlanda) o UE (Francoforte). Garantire il rispetto delle leggi sulla privacy dell'Unione europea è responsabilità del cliente.

D: Dove posso trovare ulteriori informazioni sulla sicurezza in AWS?

Per ulteriori informazioni sulla sicurezza in AWS, consulta il documento Amazon Web Services: Overview of Security Processes.

D: Cos'è un endpoint Amazon VPC per Amazon S3?

Un endpoint Amazon VPC per Amazon S3 è un'entità logica all'interno di un cloud privato virtuale che consente di connettersi esclusivamente con S3. L'endpoint VPC dirotta le richieste verso S3 e le risposte verso il cloud privato virtuale. Per ulteriori informazioni sugli endpoint VPC, consultare la relativa pagina nella guida.

D: È possibile consentire l'accesso a un bucket Amazon S3 da parte di un endpoint Amazon VPC specifico?

Utilizzando le policy dei bucket Amazon S3 è possibile limitare l'accesso al bucket da un endpoint Amazon VPC specifico o da un set di endpoint. Le policy dei bucket supportano la condizione aws:sourceVpce, che consente di restringere gli accessi. Per ulteriori informazioni e policy di esempio, consultare la pagina relativa agli endpoint VPC nella guida.


D: Cos'è Amazon Macie?

Amazon Macie è un servizio di sicurezza basato su IA che aiuta a prevenire la perdita di dati perché rileva, classifica e protegge i dati sensibili memorizzati in Amazon S3. Amazon Macie utilizza l'apprendimento automatico per riconoscere dati sensibili quali le informazioni che consentono l'identificazione personale o i dati soggetti a proprietà intellettuale, vi assegna un valore e fornisce visibilità su relativi percorsi di memorizzazione e modalità di utilizzo in azienda. Amazon Macie monitora in modo continuo le attività di accesso ai dati per rilevare eventuali anomalie, inviando avvisi quando individua rischi di accesso non autorizzato o di divulgazione accidentale di informazioni.

D: Cosa è possibile fare con Amazon Macie?

Amazon Macie costituisce una protezione contro minacce alla sicurezza perché monitora in modo continuo i dati e le credenziali di un account. Si tratta di un servizio automatizzato con cui è possibile individuare e classificare i dati aziendali. I controlli sono disponibili tramite modelli di funzioni Lambda, che permettono di revocare l'accesso o attivare le policy di reimpostazione della password quando vengono individuati comportamenti sospetti o accessi non autorizzati ai dati con entità o applicazioni di terze parti. Quando viene generato un avviso, Amazon Macie può essere utilizzato come prima risposta, sfruttando Amazon CloudWatch Events per eseguire azioni immediate a protezione dei dati.

 

D: In che modo Amazon Macie protegge i dati?

Durante la procedura di classificazione, Amazon Macie identifica gli oggetti contenuti nei bucket S3 dei clienti e ne carica i contenuti in memoria per analizzarli. Quando è necessaria un'analisi più approfondita, in particolare in caso di formati di file complessi, Amazon Macie scarica una copia dell'oggetto per la sola durata dell'analisi. Una volta completata questa operazione, i contenuti memorizzati vengono cancellati; ne vengono conservati esclusivamente i metadati necessari per ulteriori analisi. I clienti possono revocare l'accesso di Amazon Macie ai dati in un bucket Amazon S3 in qualsiasi momento. Per ulteriori informazioni, consulta il documento Amazon Macie Developer Guide



D: Quali livelli di durabilità offre Amazon S3?

Amazon S3 Standard e Standard – IA sono progettati per garantire una durabilità del 99,999999999% degli oggetti per un determinato anno. Tale livello di durabilità corrisponde ad una perdita di oggetti annuale media stimata dello 0,000000001%. Ad esempio, se si archiviano 10.000 oggetti in Amazon S3, in media ci si può aspettare la perdita di un singolo oggetto una volta ogni 10 milioni di anni. Inoltre, Amazon S3 è progettato per far fronte alla perdita di dati simultanea in due strutture.

Come per qualsiasi altro ambiente, le best practice prevedono di creare un backup da archiviare in un percorso protetto da malintenzionati ed errori degli utenti. Per i dati di S3, le best practice includono autorizzazioni di accesso sicure, replica in più regioni, creazione di versioni multiple e backup testati regolarmente.

D: In che modo Amazon S3 assicura una durabilità dei dati del 99,999999999%?

Gli oggetti vengono archiviati in Amazon S3 Standard e Standard – IA in modo ridondante su diversi dispositivi dislocati in varie strutture all'interno di una regione Amazon S3. Il servizio è stato concepito per far fronte al guasto concomitante di più dispositivi, rilevando e riparando rapidamente l'eventuale ridondanza persa. Quando elabora una richiesta di archiviazione di dati, il servizio archivia in modo ridondante l'oggetto in molteplici strutture prima di restituire l'esito SUCCESS. Amazon S3, inoltre, verifica regolarmente l'integrità dei dati utilizzando il checksum.

D: Quale tipo di checksum è impiegato in Amazon S3 per rilevare il danneggiamento dei dati?

Amazon S3 utilizza una combinazione di checksum Content-MD5 e controlli di ridondanza ciclici (CRC) per rilevare l'eventuale danneggiamento dei dati. Amazon S3 esegue il checksum sui dati a riposo e corregge gli eventuali errori utilizzando i dati ridondanti. Inoltre, il servizio calcola i checksum su tutto il traffico di rete per rilevare pacchetti di dati corrotti durante il salvataggio o il recupero dei dati.

D: Che cos'è la funzione Versioni multiple?

La funzione Versioni multiple consente di conservare, recuperare e ripristinare qualsiasi versione di ogni oggetto archiviato in un bucket Amazon S3. Quando si abilita la funzione Versioni multiple per un bucket, Amazon S3 conserva gli oggetti esistenti tutte le volte che si esegue un'operazione PUT, POST, COPY o DELETE su di essi. Di default, le richieste GET recuperano la versione più recente. Le versioni precedenti di un oggetto sovrascritto o eliminato possono essere recuperate specificando la versione nella richiesta.

D: Qual è il vantaggio di utilizzare la funzione Versioni multiple?

Amazon S3 mette a disposizione dei clienti un'infrastruttura di storage estremamente durevole. La funzione Versioni multiple offre un ulteriore livello di protezione in quanto consente di recuperare un oggetto sovrascritto o eliminato accidentalmente. In questo modo è possibile eseguirne il ripristino sia in seguito ad errori da parte dell'utente, sia in seguito a guasti dell'applicazione. È inoltre possibile utilizzare la funzione Versioni multiple a fini di conservazione e archiviazione dei dati.

D: Come si inizia a usare la funzione Versioni multiple?

La funzione Versioni multiple si abilita mediante un'impostazione del bucket di Amazon S3. Per ulteriori informazioni in proposito, consulta la documentazione tecnica di Amazon S3.

D: In che modo la funzione Versioni multiple protegge gli oggetti dall'eliminazione accidentale?

Quando un utente effettua un'operazione DELETE su un oggetto, le successive richieste semplici (cioè che non specificano la versione) non recupereranno più quell'oggetto. Tuttavia, tutte le versioni di quell'oggetto continueranno ad essere mantenute nel bucket di Amazon S3 e potranno essere recuperate o ripristinate. Soltanto il proprietario del bucket può eliminare definitivamente una versione. È possibile impostare delle regole del ciclo di vita per gestire la durata e il costo dell'archiviazione di molteplici versioni degli oggetti.

D: È possibile configurare un cestino o un intervallo di rollback per gli oggetti Amazon S3 in modo da proteggerli dall'eliminazione o dalla sovrascrittura accidentale?

È possibile utilizzare regole del ciclo di vita insieme alla funzione di controllo delle versioni per definire un intervallo di rollback per gli oggetti Amazon S3. Ad esempio, per un bucket con versioni multiple abilitate, è possibile impostare una regola che determini l'archiviazione di tutte le versioni precedenti nello storage Glacier, più economico, e la loro eliminazione dopo 100 giorni; in tal modo si avrà un intervallo di rollback di 100 giorni per annullare le modifiche, riducendo allo stesso tempo i costi di storage.

D: Come si garantisce la massima sicurezza per le versioni precedenti salvate di un oggetto?

Per ottenere un ulteriore livello di protezione, è possibile impiegare la funzionalità di eliminazione MFA della funzione Versioni multiple, che utilizza l'autenticazione a più fattori. Di default, tutte le richieste verso il bucket Amazon S3 necessitano l'inserimento delle credenziali dell'account AWS. Abilitando la funzione Versioni multiple con l'eliminazione MFA sul bucket Amazon S3, per eliminare definitivamente una versione di un oggetto sono necessarie due forme di autenticazione: le tue credenziali AWS e un codice a sei cifre comprensivo di numero seriale proveniente da un dispositivo di autenticazione che solo tu possiedi fisicamente. Per ulteriori informazioni su come abilitare la funzione Versioni multiple con l'eliminazione MFA e su come acquistare e attivare il dispositivo di autenticazione, consulta la documentazione tecnica di Amazon S3.

D: Quali costi vengono addebitati per l'uso della funzione Versioni multiple?

Per ogni versione di un oggetto salvata o richiesta vengono addebitati i normali costi di Amazon S3. Per illustrare i costi di storage quando viene utilizzata la funzione Versioni multiple, prendiamo come esempio il seguente scenario ambientato in un mese di 31 giorni:

1) Giorno 1 del mese: viene eseguita una richiesta PUT di 4 GB (4.294.967.296 byte) sul bucket.
2) Giorno 16 del mese: viene eseguita una richiesta PUT di 5 GB (5.368.709.120 byte) sullo stesso bucket tramite la stessa chiave usata il primo giorno del mese.

Durante l'analisi dei costi di storage per le operazioni descritte, è necessario tenere conto che l'oggetto da 4 GB caricato il primo giorno del mese non viene eliminato dal bucket quando l'oggetto da 5 GB viene aggiunto a metà mese. L'oggetto da 4 GB viene anzi conservato come versione precedente, mentre l'oggetto da 5 GB diventa la versione scritta più recente dello stesso oggetto nel bucket. Alla fine del mese:

Consumo ore-byte totale
= [4.294.967.296 byte x 31 giorni x (24 ore al giorno)] + [5.368.709.120 byte x 16 giorni x (24 ore al giorno)] = 5.257.039.970.304 ore-byte.


GB al mese totali
5.257.039.970.304 ore-byte x (1 GB/1.073.741.824 byte) x (1 mese/744 ore) = 6,581 GB/mese

La tariffa è calcolata in base alle tariffe correnti per la tua regione sulla pagina dei prezzi di Amazon S3.



D: Cos'è S3 Standard – Infrequent Access?

Amazon S3 Standard – Infrequent Access (Standard – IA) è una classe di storage di Amazon S3 per i dati a cui si accede con minore frequenza, ma che necessitano di risposta rapida in caso di necessità. Standard – IA offre durabilità, throughput e latenza comparabili a quelli di Amazon S3 Standard, con tariffe più favorevoli per lo storage e per il recupero di dati (per GB). Questa combinazione di costi ridotti e prestazioni elevate rendono Standard – IA la soluzione ideale per storage a lungo termine, backup e datastore per il disaster recovery. La classe di storage Standard – IA è configurata a livello di oggetto e può coesistere nello stesso bucket della classe Standard; in questo modo potrai usare policy sul ciclo di vita che consentano il trasferimento automatico di oggetti tra diverse classi di storage senza dover modificare l'applicazione.

D: Qual è il vantaggio della classe Standard – IA?

La classe Standard – IA è la soluzione ideale per i dati a cui si accede con minore frequenza, ma che necessitano di risposta rapida in caso di necessità. Le applicazioni ottimali per la classe Standard – IA sono lo storage a lungo termine, il salvataggio di dati obsoleti provenienti da condivisioni e sincronizzazioni, il backup e la conservazione di file per il disaster recovery.

D: Quali sono le prestazioni della classe S3 Standard – Infrequent Access?

La classe S3 Standard – Infrequent Access offre le stesse prestazioni della classe di storage S3 Standard.

D: Quali livelli di durabilità offre Standard – IA?

La classe S3 Standard – IA è progettata per garantire la stessa durabilità del 99,999999999% della classe Standard e di Amazon Glacier. La classe S3 Standard – IA è inoltre progettata per garantire una disponibilità del 99,9% ed è coperta da un contratto sul livello di servizio che offre al cliente dei crediti se durante un ciclo di fatturazione la disponibilità è inferiore a quella dichiarata.

D: Quali livelli di disponibilità offre Standard – IA?

La classe Standard – IA è stata progettata per garantire una disponibilità del 99,9% e dispone di un front-end snello che garantisce una disponibilità inferiore di solo 0,09% inferiore alla classe S3 Standard. La classe S3 Standard – IA è inoltre coperta da un contratto sul livello di servizio che offre al cliente dei crediti se durante un ciclo di fatturazione la disponibilità è inferiore a quella dichiarata.

D: Come si caricano i dati nella classe Standard – IA?

Sono disponibili due metodi per caricare dati nella classe Standard – IA da S3. Il primo consiste nel creare richieste PUT direttamente in Standard – IA specificando STANDARD_IA nell'intestazione x-amz-storage-class. In alternativa, puoi impiegare le policy sul ciclo di vita per trasferire oggetti dalla classe Standard a quella Standard – IA.

D: Gli oggetti nella classe di storage Standard – IA sono coperti dal contratto sul livello di servizio di Amazon S3?

Sì, la classe di storage Standard – IA è coperta dal contratto sul livello di servizio di Amazon S3, che offre al cliente dei crediti se durante un ciclo di fatturazione la disponibilità è inferiore a quella dichiarata.

D: In che modo l'uso della classe Standard – IA influenza latenza e throughput?

Non c'è alcuna differenza tra latenza e throughput rilevabili utilizzando le classi di storage Amazon S3 Standard o Standard – IA.

D: Quali costi vengono addebitati per l'uso della classe Standard – IA?

Consulta la pagina dei prezzi di Amazon S3 per informazioni generali sulle tariffe relative alla classe Standard – IA.

D: Quali sono i costi di utilizzo derivanti dalla modifica della classe di storage di un oggetto da Standard – IA a Standard con una richiesta COPY?

Saranno addebitati i costi per una richiesta COPY Standard – IA e per un recupero dati da Standard – IA.

D: La storage con la classe Standard – IA prevede una durata minima?

La classe Standard – IA è progettata per lo storage a lungo termine di dati a cui si accede con minore frequenza e che è necessario conservare per mesi o anni. Ai dati eliminati dalla classe Standard – IA entro 30 giorni, sarà applicata la tariffa intera di 30 giorni. Consulta la pagina dei prezzi di Amazon S3 per informazioni sulle tariffe relative alla classe Standard – IA.

D: La storage con la classe Standard – IA prevede una dimensione minima degli oggetti?

La classe Standard – IA è progettata per lo storage di oggetti con dimensioni superiori a 128 KB. Agli oggetti di dimensioni inferiori a 128 KB sarà applicata una tariffa di storage pari a quella degli oggetti da 128 KB. Ad esempio, a un oggetto di 6 KB in S3 Standard – IA sarà applicata la normale tariffa per i 6 KB di storage, quindi una tariffa aggiuntiva per raggiungere i 128 KB, equivalente al costo di 122 KB di storage. Consulta la pagina dei prezzi di Amazon S3 per informazioni sulle tariffe relative alla classe Standard – IA.

D: È possibile trasferire oggetti dalla classe Standard – IA ad Amazon Glacier?

Sì. Puoi usare le policy sul ciclo di vita per migrare oggetti tra classi, quindi da Standard a Standard – IA, e anche per trasferire oggetti dalla classe Standard – IA ad Amazon Glacier.


D: Cos'è la funzione "Query in Place"?

Amazon S3 permette ai clienti di eseguire query sofisticate sui dati memorizzati senza dover estrarre, trasformare e caricare tali dati in piattaforme di analisi separate. La possibilità di applicare query su questi set di dati in Amazon S3 permette di migliorare in modo significativo le prestazioni e ridurre di conseguenza i costi per le soluzioni di analisi che sfruttano S3 come data lake. S3 offre diverse opzioni di questo tipo: S3 Select, Amazon Athena e Amazon Redshift Spectrum, ognuno con caratteristiche diverse per casi d'uso differenti. È anche possibile impiegare Amazon S3 Select con AWS Lambda per creare app serverless in grado di sfruttare le funzionalità di elaborazione integrate nel servizio. 

D: Cos'è S3 Select?

S3 Select è una caratteristica di Amazon S3 (attualmente in fase di anteprima) che semplifica il ripristino di un set di dati specifico dai contenuti di un oggetto tramite espressioni SQL semplici, senza dover ripristinare l'intero oggetto. S3 Select può essere utilizzato per recuperare un sottoinsieme dei dati con clausole SQL, ad esempio SELECT e WHERE, a partire da file di testo delimitati e oggetti JSON in Amazon S3.

D: Cosa è possibile fare con S3 Select?

S3 Select può essere utilizzato per recuperare un set di dati specifico di piccole dimensioni da un oggetto tramite istruzioni SQL. Può essere utilizzato con AWS Lambda per creare applicazioni serverless che usano S3 per recuperare dati in modo semplice ed efficiente da Amazon S3 senza dover ripristinare ed elaborare l'intero oggetto. Infine, può essere utilizzato con framework per Big Data quali Presto, Apache Hive e Apache Spark per scansionare e filtrare i dati in Amazon S3.

D: Qual è il vantaggio di utilizzare S3 Select?

S3 Select offre un nuovo modo per recuperare dati specifici dai contenuti di un oggetto memorizzato in Amazon S3 senza dover recuperare l'intero oggetto utilizzando istruzioni SQL. S3 Select semplifica e migliora anche del 400% le prestazioni di scansione e filtraggio dei contenuti di oggetti in set di dati specifici di dimensioni minori. Con questo servizio, inoltre, è possibile eseguire indagini operative sui file di log in Amazon S3 senza dover avviare e gestire un cluster di elaborazione.

D: Come si inizia a usare S3 Select?

Amazon S3 Select è disponibile in anteprima limitata. Per richiedere l'accesso all'anteprima, compila il modulo di richiesta. Durante l'anteprima, è possibile utilizzare Amazon S3 Select tramite il connettore per Presto, con AWS Lambda o da qualsiasi altra applicazione che utilizzi il kit SDK S3 Select per Java o Python. 

D: Che cos'è Amazon Athena?

Amazon Athena è un servizio di query interattivo che semplifica l'analisi di dati in Amazon S3 tramite SQL standard. Athena è senza server, per cui non c'è un'infrastruttura da installare o gestire ed è quindi possibile iniziare immediatamente ad analizzare i dati. Non è neanche necessario caricare i dati su Athena poiché funziona direttamente con i dati archiviati in S3. Per iniziare è sufficiente accedere alla console di gestione di Athena, definire gli schemi e cominciare a eseguire le query. Amazon Athena usa Presto con il supporto SQL standard completo e funziona con numerosi formati standard di dati, tra cui CSV, JSON, ORC, Apache Parquet e Avro. Sebbene Amazon Athena sia ideale per query veloci ad-hoc e si integri con Amazon QuickSight per una visualizzazione più semplice, può anche gestire analisi complesse, inclusi join di grandi dimensioni, funzioni finestra e array.

D: Cos'è Amazon Redshift Spectrum?

Amazon Redshift Spectrum è una caratteristica di Amazon Redshift che permette di eseguire query su exabyte di dati non strutturati in Amazon S3 senza dover caricare o trasformare i dati. Quando viene inoltrata, la query raggiunge l'endpoint SQL di Amazon Redshift, il quale genera e ottimizza un piano di query. Amazon Redshift determinerà quindi quali dati si trovano in locale e quali in Amazon S3, genererà un piano per ridurre al minimo i dati che è necessario leggere in Amazon S3 e richiederà a specifiche risorse condivise di un pool di Amazon Redshift Spectrum la lettura e l'elaborazione dei dati da Amazon S3.

Redshift Spectrum, se necessario, effettuerà il provisioning di migliaia di istanze, perciò le query saranno rapide indipendentemente dalle dimensioni. Inoltre, è possibile utilizzare con Amazon S3 la stessa sintassi SQL utilizzata per le query in Amazon Redshift, collegando lo stesso endpoint di Amazon Redshift agli strumenti di business intelligence esistenti. Redshift Spectrum permette di separare le funzioni di storage e di elaborazione, perciò è possibile ricalibrarne le risorse separatamente. È possibile impostare tutti i cluster Amazon Redshift necessari per interrogare i data lake S3 fornendo disponibilità elevata ed esecuzioni simultanee illimitate. Redshift Spectrum offre la libertà di memorizzare i dati dove è più conveniente e nel formato desiderato senza sacrificare le possibilità di elaborazione.



D: Amazon S3 offre anche opzioni per l'archiviazione di oggetti a prezzi ridotti?

Sì. Amazon S3 consente di utilizzare Amazon Glacier, un servizio di storage a costi contenuti per l'archiviazione dei dati.  Amazon Glacier memorizzai dati per solo 0,004 USD per GB al mese. Per mantenere i costi bassi senza diminuire la qualità del servizio, Amazon Glacier offre tre opzioni per accedere agli archivi, con tempi che vanno da pochi minuti a diverse ore. Alcuni esempi di casi d'uso sono archivi di contenuti multimediali digitali, record finanziari e sanitari, dati non elaborati di sequenze genomiche, backup di lungo termine di database e dati che devono essere conservati a fini di conformità normativa.

D: Come si archiviano i dati su Amazon Glacier?

È possibile definire regole del ciclo di vista che determinino l'archiviazione automatica di set di oggetti Amazon S3 su Amazon Glacier. Per stabilire tali regole, è possibile usare la console di gestione di Amazon S3, i kit SDK AWS oppure le API di Amazon S3. Le regole prevedono un prefisso e un intervallo di tempo. Il prefisso (ad esempio "logs/") identifica l'oggetto o gli oggetti a cui si applica la regola. L'intervallo di tempo identifica il numero di giorni successivi alla data di creazione (ad esempio 180 giorni) oppure la data specifica dopo la quale l'oggetto o gli oggetti devono essere archiviati. Gli oggetti di Amazon S3 memorizzati nelle classi di storage Standard o Standard – IA con il nome che inizia con il prefisso selezionato o a cui si applica l'intervallo di tempo scelto vengono archiviati su Amazon Glacier. Per recuperare i dati di Amazon S3 archiviati in Amazon Glacier, avvia un'attività di recupero tramite le API di Amazon S3 o la console di gestione. Al termine dell'operazione, è possibile accedere ai propri dati attraverso una richiesta GET di Amazon S3.

Per ulteriori informazioni sull'uso delle regole del ciclo di vita per l'archiviazione, consulta l'argomento Object Archival nella Amazon S3 Developer Guide.

D: È possibile usare le API di Amazon S3 o la console di gestione per elencare gli oggetti archiviati in Amazon Glacier?

Sì. Come nel caso di altre opzioni di storage di Amazon S3 (Standard o Standard – IA), agli oggetti di Amazon Glacier archiviati tramite le API o la console di Amazon S3 viene associato un nome definito dall'utente. È disponibile un elenco aggiornato in tempo reale di tutti i nomi dei propri oggetti di Amazon S3, inclusi quelli archiviati impiegando l'opzione Amazon Glacier con l'API LIST di Amazon S3.

D: È possibile usare le API di Amazon Glacier per accedere agli oggetti archiviati in Amazon Glacier?

Poiché Amazon S3 conserva la mappatura tra il nome oggetto definito dall'utente e l'identificatore Amazon Glacier generato dal sistema, gli oggetti di Amazon S3 archiviati tramite l'opzione Amazon Glacier sono accessibili solo attraverso le API o la console di gestione di Amazon S3.

D: Come si recuperano gli oggetti archiviati in Amazon Glacier?

Per recuperare i dati di Amazon S3 archiviati in Amazon Glacier è necessario avviare una richiesta di recupero tramite le API o la console di gestione di Amazon S3. La richiesta di recupero crea una copia temporanea dei dati in RSS e lascia intatti i dati in Amazon Glacier. È possibile specificare l'intervallo di tempo in giorni durante il quale la copia temporanea sarà conservata in RRS. Per accedere alla copia temporanea da RRS è quindi necessaria una richiesta GET di Amazon S3 sull'oggetto archiviato.

D: Quanto tempo richiede il recupero degli oggetti archiviati in Amazon Glacier?

Durante un'attività di recupero, Amazon S3 prima di tutto recupera i dati richiesti da Amazon Glacier, quindi crea una copia temporanea dei dati in RRS (operazione che di solito richiede alcuni minuti). La rapidità di accesso della richiesta dipende dall'opzione di recupero selezionata: Expedited, Standard o Bulk. Per gli oggetti con dimensioni inferiori ai 250 MB, i tempi di recupero dell'opzione Expedited sono in genere compresi tra 1 e 5 minuti. Gli oggetti ottenuti tramite il recupero di tipo Standard richiedono in genere dalle 3 alle 5 ore. Infine, i tempi di recupero per l'opzione Bulk sono inclusi in genere tra le 5 e le 12 ore. Per ulteriori informazioni sulle opzioni di recupero, consulta le domande frequenti su Glacier.

D: Qual è il costo di archiviazione degli oggetti in Amazon Glacier?

I prezzi dello storage di Amazon Glacier partono da 0,004 USD per GB al mese. Le richieste di transizione del ciclo di vita in Amazon Glacier costano 0,05 USD ogni 1.000 richieste. Gli oggetti archiviati in Glacier devono rimanere memorizzati almeno 90 giorni; per gli oggetti cancellati prima dello scadere dei 90 giorni sarà addebitato un costo ripartito proporzionalmente pari alla tariffa di storage per i giorni rimanenti.

D: Come viene calcolato il costo di storage per gli oggetti di Amazon S3 archiviati in Amazon Glacier?

Il volume di storage fatturato in un mese si basa sulla media dello storage utilizzato in tale mese, misurato in GB al mese. Amazon S3 calcola le dimensioni dell'oggetto sommando alle dimensioni dei dati archiviati 32 KB di dati di Glacier e 8 KB di dati di storage standard di S3. Amazon Glacier richiede 32 KB di dati aggiuntivi per ogni oggetto per immagazzinare indice e metadati che facilitano l'identificazione e il recupero dei dati. Amazon S3 richiede 8 KB di dati aggiuntivi per memorizzare e conservare i metadati e il nome definiti dall'utente per gli oggetti archiviati in Amazon Glacier. In questo modo è possibile tenere un elenco aggiornato in tempo reale di tutti gli oggetti di Amazon S3, inclusi quelli archiviati impiegando l'opzione Amazon Glacier con l'API LIST di Amazon S3. Ad esempio, se hai archiviato 100.000 oggetti da 1 GB ciascuno, i costi di storage sono i seguenti:

1,000032 gigabyte per oggetto x 100.000 oggetti = 100.003,2 gigabyte di storage in Amazon Glacier.
0,000008 gigabyte per oggetto x 100.000 oggetti = 0,8 gigabyte di storage standard in Amazon S3.

La tariffa è calcolata in base alle tariffe correnti per la tua regione sulla pagina dei prezzi di Amazon S3.

D: Quali volumi di dati è possibile recuperare gratuitamente?

Perciò è possibile recuperare gratuitamente 10 GB di dati da Glacier ogni mese. La quota gratuita può essere sfruttata in qualsiasi momento durante il mese e si applica ai recuperi di tipo Standard.

D: Quali costi vengono addebitati per l'eliminazione di oggetti da Amazon Glacier archiviati da meno di 3 mesi?

Amazon Glacier è stato progettato per casi d'uso in cui i dati archiviati rimangono inattivi per mesi, anni o anche decenni. L'eliminazione di dati archiviati in Amazon Glacier è gratuita se gli oggetti destinati ad essere eliminati sono stati archiviati in Amazon Glacier da almeno tre mesi. Se un oggetto archiviato in Amazon Glacier viene eliminato o sovrascritto entro i primi tre mesi dall'archiviazione, sarà addebitata una tariffa per l'eliminazione anticipata. Questa tariffa viene ripartita proporzionalmente. Se si cancella 1 GB di dati 1 mese dopo averli caricati, sarà applicata una tariffa di eliminazione anticipata per i due mesi di storage di Amazon Glacier. Se si cancella 1 GB dopo 2 mesi, sarà applicata una tariffa di eliminazione anticipata per un solo mese di storage di Amazon Glacier.

D: Quanto costa recuperare dati da Glacier?

Esistono tre modi per recuperare dati da Glacier; ognuno ha un costo di recupero per GB e un costo di richiesta per archivio differenti (ad esempio, la richiesta di un archivio conta come una richiesta). I recuperi di tipo Expedited costano a partire da 0,03 USD per GB e 0,01 per richiesta. I recuperi di tipo Standard costano a partire da 0,01 USD per GB e 0,05 USD per 1.000 richieste. I recuperi di tipo Bulk costano a partire da 0,0025 USD per GB e 0,025 USD per 1.000 richieste.

 

Ad esempio, con i recuperi di tipo Expedited nella regione Stati Uniti orientali (Virginia settentrionale), se richiedi 10 archivi da 1 GB l'uno, il costo sarà di 10 x 0,03 USD +10 x 0,01 USD = 0,40 USD.

Con i recuperi di tipo Standard nella regione Stati Uniti orientali (Virginia settentrionale), se richiedi 500 archivi da 1 GB l'uno, il costo sarà di 500 GB x 0,01 USD +500 x 0,05 USD / 1.000 = 5,25 USD

Infine, con i recuperi di tipo Bulk nella regione Stati Uniti orientali (Virginia settentrionale), se richiedi 500 archivi da 1 GB l'uno, il costo sarà di 500 GB x 0,0025 USD +500 x 0,025 USD / 1.000 = 1,2625 USD.

Quando un oggetto archiviato viene recuperato, si trova sia nello storage RRS sia in Glacier.  

Per ulteriori informazioni sui prezzi di Glacier, consulta la pagina dei prezzi di Glacier.


D: Cosa sono le notifiche di eventi di Amazon S3?

Le notifiche di eventi di Amazon S3 vengono inviate in risposta ad azioni predefinite in Amazon S3, quali richieste PUT, POST, COPY o DELETE. I messaggi possono essere inviati tramite Amazon SNS, Amazon SQS, oppure direttamente su AWS Lambda.

D: Cosa è possibile fare con le notifiche di eventi di Amazon S3?

Le notifiche di eventi di Amazon S3 consentono di eseguire flussi di lavoro, inviare allarmi o eseguire altre azioni in risposta a modifiche negli oggetti salvati in Amazon S3. È possibile utilizzare le notifiche eventi di Amazon S3 per configurare trigger per eseguire azioni quali la transcodifica di file multimediali durante il caricamento, l'elaborazione di file di dati non appena risultano disponibili e la sincronizzazione di oggetti Amazon S3 con altri datastore. È anche possibile configurare le notifiche eventi in base ai prefissi e ai suffissi del nome dell'oggetto. Ad esempio, è possibile scegliere di ricevere notifiche sui nomi di oggetto che iniziano con "images/".

D: Quali informazioni sono incluse nelle notifiche di eventi di Amazon S3?

Per una descrizione dettagliata delle informazioni incluse nei messaggi di notifica di eventi di Amazon S3, consulta l'argomento Configuring Amazon S3 event notifications nella Amazon S3 Developer Guide.

D: Come si impostano le notifiche di eventi di Amazon S3?

Per istruzioni dettagliate su come configurare le notifiche di eventi in Amazon S3, consulta l'argomento Configuring Amazon S3 event notifications nella Amazon S3 Developer Guide. Per ulteriori informazioni sui servizi di messaggistica di AWS, consulta la documentazione di Amazon SNS e la documentazione di Amazon SQS.

D: Quanto costa usare le notifiche di eventi di Amazon S3?

Non sono previsti costi aggiuntivi per l'uso delle notifiche di eventi di Amazon S3. Vengono addebitati solo i costi di invio dei messaggi di Amazon SNS o di Amazon SQS o i costi di esecuzione delle funzioni AWS Lambda. Consulta le pagine relative ai prezzi di Amazon SNS, Amazon SQS e AWS Lambda per ulteriori informazioni sulle relative tariffe.



D: È possibile utilizzare Amazon S3 per l'hosting di siti Web statici?

Sì. Amazon S3 consente l'hosting di un intero sito Web statico mediante una soluzione conveniente, altamente disponibile e scalabile automaticamente in base alle esigenze del traffico. Con Amazon S3, potrai accedere alla stessa infrastruttura altamente scalabile, affidabile, veloce ed economica che Amazon stessa impiega per gestire la propria rete globale di siti Web. La disponibilità del servizio è basata sulla classe di storage, mentre il contratto sul livello di servizio fornisce crediti di assistenza nel caso in cui durante un qualsiasi ciclo di fatturazione la disponibilità fosse inferiore a quella dichiarata da Amazon. Per ulteriori informazioni sull'hosting di siti Web su Amazon S3, consulta la relativa procedura guidata.

D: Quale genere di sito Web è possibile caricare in hosting su Amazon S3?

Amazon S3 è ideale per l'hosting di siti Web che contengono esclusivamente contenuti statici, inclusi file html, immagini, video e script lato cliente come JavaScript. Amazon EC2 è consigliato per i siti Web con scripting lato server e interazione con database.

D: È possibile usare il proprio nome host con il proprio sito Web in hosting su Amazon S3?

Sì. È possibile archiviare in modo semplice e durevole i propri contenuti in un bucket Amazon S3 e mappare il nome di dominio (ad es. "esempio.com") verso questo bucket. I visitatori del sito Web potranno quindi accedere a questi contenuti digitando l'URL del tuo sito, ad esempio "http://esempio.com", all'interno del browser.

D: Amazon S3 supporta il reindirizzamento di siti Web?

Sì. Amazon S3 offre diversi modi per abilitare il reindirizzamento dei contenuti Web per siti statici. Il reindirizzamento consente di modificare l'URL di una pagina Web nel proprio sito Web in Amazon S3 (ad es. da www.esempio.com/paginavecchia a www.esempio.com/paginanuova) senza interrompere i collegamenti o i segnalibri relativi all'URL vecchio. Per abilitare il reindirizzamento automatico è possibile impostare regole all'interno del bucket. Inoltre, è possibile configurare un reindirizzamento verso un oggetto S3 singolo.

D: L'hosting di siti Web statici su Amazon S3 prevede tariffe aggiuntive?

Non sono previsti costi aggiuntivi per l'hosting di siti Web statici su Amazon S3. Si applicano per gli oggetti sito Web le stesse tariffe di storage, richieste e trasferimento dei dati.

Consulta la pagina dei prezzi di S3 per ulteriori informazioni.


D: Che cosa sono i tag di oggetti S3?

I tag di oggetti S3 sono coppie di tipo chiave-valore applicate a oggetti S3 che possono essere create, aggiornate o eliminate in qualunque momento durante la vita dell'oggetto. Essi consentono di creare policy di Identity and Access Management (IAM), configurare policy di ciclo di vita S3 e personalizzare parametri di storage. Questi tag a livello di oggetto possono in seguito gestire trasferimenti fra classi di storage e oggetti a scadenza in background.

D: Come si applicano i tag agli oggetti?

Si possono aggiungere tag a nuovi oggetti quando vengono caricati oppure aggiungerli a oggetti esistenti. A ciascun oggetto S3 possono essere aggiunti fino a dieci tag e per farlo si possono usare la Console di gestione AWS, l'API REST, l'interfaccia a riga di comando di AWS o gli SDK AWS.

D: Qual è il vantaggio di utilizzare i tag di oggetti?

I tag di oggetti sono un nuovo strumento che può essere utilizzato per gestire in modo semplice lo storage S3. Grazie alla possibilità di creare, aggiornare ed eliminare tag in qualunque momento durante la durata di vita dell'oggetto, lo storage può adattarsi alle necessità della tua attività. Questi tag permettono di controllare l'accesso a oggetti che contengono tag con coppie chiave-valore specifiche, consentendo una maggiore protezione dei dati confidenziali per un gruppo o utente selezionato. I tag di oggetti possono anche essere utilizzati per etichettare oggetti che appartengono a un progetto o a un'unità aziendale specifici e possono essere utilizzati in abbinamento con policy di ciclo di vita per gestire i trasferimenti ai livelli di storage S3 Standard – Infrequent Access e Glacier.

D: Come si aggiornano i tag sugli oggetti?

I tag di oggetti possono essere modificati in qualunque momento durante la durata di vita di un oggetto S3 e per farlo si possono usare la Console di gestione AWS, l'API REST, l'interfaccia a riga di comando di AWS o gli SDK AWS. Ti ricordiamo che le modifiche effettuate sui tag al di fuori della Console di gestione AWS vengono effettuate sull'intero gruppo di tag. Se hai cinque tag collegati a un oggetto particolare e ne vuoi aggiungere un sesto, devi includere i cinque tag originali nella richiesta.

D: I tag di oggetti vengono replicati se utilizzo la replica in più regioni?

I tag di oggetti possono essere replicati in più regioni utilizzando la funzionalità di replica in più regioni. Per ulteriori informazioni sulla configurazione della replica in più regioni, consulta How to Set Up Cross-Region Replication nella Amazon S3 Developer Guide.

Per i clienti già abilitati alla replica in più regioni, sono necessari nuovi permessi per la replica dei tag. Per ulteriori informazioni sulle policy necessarie, consulta How to Set Up Cross-Region Replication nella Amazon S3 Developer Guide

D: Quanto costano i tag di oggetti?

Il costo dei tag di oggetti è di 0,01 USD per 10.000 tag al mese. Il costo delle richieste relative all'aggiunta e all'aggiornamento di tag di oggetti è uguale al costo delle richieste esistenti. Consulta la pagina dei prezzi di Amazon S3 per ulteriori informazioni.

D: Cos'è S3 Analytics – Storage Class Analysis?

Con l'analisi di classe di storage, si possono analizzare i modelli di accesso allo storage e trasferire i dati giusti alla classe di storage giusta. Questa nuova funzionalità analitica di S3 identifica automaticamente i modelli di accesso sporadico per trasferire dati a Standard – IA. Si può configurare una policy di analisi di classe di storage per monitorare tutto il bucket, un prefisso o il tag di un oggetto. Quando si osserva un modello di accesso sporadico, si può creare facilmente una nuova policy di ciclo di vita in base ai risultati. L'analisi di classe di storage fornisce inoltre visualizzazioni giornaliere dell'utilizzo dello storage sulla Console di gestione AWS che possono essere esportate in un bucket S3 per essere analizzate con strumenti di business intelligence come Amazon QuickSight.

D: Come si inizia a usare S3 Analytics – Storage Class Analysis?

Puoi utilizzare la console di gestione AWS o l'API S3 PUT Bucket Analytics per configurare una policy di Storage Class Analysis per identificare dati con accesso sporadico che possono essere trasferiti su Standard – IA o archiviati su Glacier. Puoi andare alla scheda "Management" nella Console S3 per gestire i parametri di S3 Analytics, S3 Inventory e S3 CloudWatch.

D: Quali costi vengono addebitati per l'uso di S3 Analytics – Storage Class Analysis?

Consulta la pagina dei prezzi di Amazon S3 per informazioni generali sulle tariffe relative a S3 Analytics – Storage Class Analysis.

D: Con quale frequenza avvengono gli aggiornamenti di Storage Class Analysis?

Storage Class Analysis viene aggiornato quotidianamente sulla Console di gestione S3. Inoltre S3 Analytics può essere configurato per esportare ogni giorno l'analisi delle classi di storage verso il bucket S3 desiderato.

D: Cos'è S3 Inventory?

S3 Inventory costituisce un'alternativa pianificata all'API sincrona List di Amazon S3. Puoi configurare S3 Inventory affinché generi giornalmente o settimanalmente un file flat CSV o ORC dei tuoi dati e dei metadata corrispondenti per un bucket S3 o un prefisso. L'utilizzo di S3 Inventory consente di semplificare e accelerare i flussi di lavoro aziendali e le attività di Big Data. Puoi usare S3 Inventory per verificare la crittografia e lo stato di replica dei tuoi oggetti per soddisfare le tue necessità aziendali, di conformità e di normativa. 

D: Come si inizia a usare S3 Inventory?

Per configurare un inventario giornaliero o settimanale di tutti gli oggetti nel tuo bucket S3 o un sottoinsieme degli oggetti sotto un prefisso condiviso, si possono utilizzare la Console di gestione AWS o l'API PUT Bucket Inventory. Nella configurazione puoi specificare un bucket S3 di destinazione per il tuo inventario, il formato del file di output (CSV o ORC) e i metadata di oggetti specifici necessari alla tua applicazione aziendale, come il nome dell'oggetto, le dimensioni, la data dell'ultima modifica, la classe di storage, l'ID della versione, il contrassegno di eliminazione, il contrassegno di versione non corrente, il contrassegno di caricamento in più parti o lo stato di replica.

D: I file modificati da S3 Inventory sono crittografati?

Sì, puoi impostare la configurazione in modo che tutti i file modificati dal S3 Inventory vengano crittografati da SSE S3 o SSE KMS. Per ulteriori informazioni, fai riferimento alla guida per l'utente.

D: Come si usa S3 Inventory?

Puoi usare S3 Inventory come input diretto nei flussi di lavoro della tua applicazione o nelle attività di Big Data. Puoi anche eseguire query in S3 Inventory usando il linguaggio SQL standard con Amazon Athena, Amazon Redshift Spectrum e altri strumenti quali Presto, Hive e Spark. Ulteriori informazioni su come eseguire query in Inventory con Athena.

D: Come viene fatturato l'utilizzo di S3 Inventory?

Consulta la pagina dei prezzi di Amazon S3 per informazioni sulle tariffe relative ai prezzi di S3 Inventory. Quando configuri la crittografia utilizzando SSE-KMS, ti vengono addebitati i costi standard di AWS KMS. Per ulteriori dettagli, consulta la pagina dei prezzi di KMS.

D: Come si inizia a usare i parametri di S3 CloudWatch?

Per abilitare la generazione di parametri di CloudWatch di 1 minuto per il tuo bucket S3 o configurare filtri per i parametri con un prefisso o un tag di oggetto, puoi utilizzare la Console di gestione AWS. Oppure puoi chiamare l'API PUT Bucket Metrics di S3 per abilitare e configurare la pubblicazione dei parametri di storage S3. I parametri di storage saranno disponibili in CloudWatch entro 15 minuti dall'abilitazione.

D: Posso allineare i parametri di storage alle mie applicazioni o organizzazioni aziendali?

Sì, puoi configurare i parametri di S3 CloudWatch per generare parametri per il tuo bucket S3 o configurare filtri per i parametri con un prefisso o un tag di oggetto. Per esempio, puoi monitorare un'applicazione Spark che accede ai dati con il prefisso “/Bucket01/BigData/SparkCluster” come filtro dei parametri 1 and definire un secondo filtro con il tag “Dept, 1234” come filtro dei parametri 2. Un oggetto può appartenere a più filtri, per es., un oggetto contenuto nel prefisso “/Bucket01/BigData/SparkCluster” e con il tag “Dept,1234” sarà nei filtri dei parametri 1 e 2. In questo modo, i filtri dei parametri possono essere allineati ad applicazioni aziendali, strutture di team o budget di organizzazioni, consentendo di monitorare ed effettuare avvisi separatamente su più carichi di lavoro nello stesso bucket S3.

D: Quali avvisi posso configurare sui miei parametri di storage?

Puoi utilizzare CloudWatch per stabilire soglie per qualsiasi conteggio, timer o velocità dei parametri di storage e lanciare un'azione quando la soglia viene superata. Per esempio, puoi stabilire una soglia sulla percentuale di risposte di errore 4xx e, quando almeno 3 punti di dati sono al di sopra della soglia, lanciare un allarme CloudWatch per avvisare un DevOps.

D: Quali costi vengono addebitati per l'uso dei parametri S3 CloudWatch?

I parametri S3 CloudWatch vengono addebitati come parametri personalizzati per Amazon CloudWatch. Consulta la pagina dei prezzi di Amazon CloudWatch per informazioni generali sulle tariffe relative ai parametri di S3 CloudWatch.

D: Cos'è la gestione del ciclo di vita?

Con S3 è possibile definire il ciclo di vita degli oggetti con policy predefinite, diminuendo così il costo dello storage. È possibile definire policy di transizione del ciclo di vita che determinino la migrazione automatica degli oggetti di Amazon S3 in Standard – Infrequent Access (Standard – IA) e/o Amazon Glacier a seconda della fase del ciclo di vita dei dati. È anche possibile impostare policy di scadenza del ciclo di vita per rimuovere automaticamente oggetti a seconda della loro età. Puoi impostare una policy che determini la scadenza di un caricamento in più parti a seconda del momento del ciclo di vita del caricamento.

D: Come si imposta una policy di gestione del ciclo di vita?

È possibile impostare e gestire le policy di ciclo di vita tramite la Console di gestione AWS, l'API REST di S3, i kit SDK AWS e l'interfaccia a riga di comando di AWS. La policy può essere specificata a livello di prefisso o a livello di bucket.

D: Quanto costa usare la gestione del ciclo di vita?

L'impostazione e l'applicazione di policy sul ciclo di vita non prevedono alcun costo. Vengono fatturate le richieste di transizione per ogni oggetto quando un oggetto diviene idoneo al trasferimento in base alla regola del ciclo di vita. Consulta la pagina dei prezzi di S3 per informazioni sui costi.

D: Cosa è possibile fare con le policy di gestione del ciclo di vita?

Con il passare del tempo, i dati perdono di importanza e/o devono rispettare determinati requisiti di conformità. Amazon S3 include un'ampia libreria di policy per semplificare l'automazione dei processi di migrazione dei dati. Ad esempio, è possibile configurare il trasferimento di oggetti a cui si accede con minore frequenza in livelli di storage con costi inferiori (ad esempio Standard – Infrequent access) dopo un tempo predefinito. Dopo un altro intervallo di tempo prestabilito, gli stessi dati possono essere spostati in Amazon Glacier per facilitare archiviazione e conformità, e successivamente eliminati. Queste regole riducono in modo significativo i costi di storage e le attività di gestione, e possono essere impiegati in tutta la famiglia di servizi di storage di Amazon. Queste policy, inoltre, includono pratiche di amministrazione per rimuovere oggetti e attributi che non sono più necessari, in modo da tenere sotto controllo i costi e ottimizzare le prestazioni.

D: Come è possibile utilizzare le policy sul ciclo di vita di Amazon S3 per contribuire a ridurre i costi di storage?

Con le policy sul ciclo di vita di Amazon S3, è possibile predisporre la migrazione degli oggetti in storage Standard – Infrequent Access (Standard – IA), l'archiviazione in Amazon Glacier o la loro eliminazione dopo un determinato periodo di tempo. Queste funzioni di automazione basate su policy rappresentano un modo rapido e veloce per ridurre i costi di storage e per risparmiare tempo. In ciascuna regola si può specificare un prefisso, un periodo di tempo, il trasferimento in Standard – IA o Amazon Glacier e/o una scadenza. Ad esempio, si può creare una regola che determini l'archiviazione in Amazon Glacier di tutti gli oggetti con prefisso "log/" 30 giorni dopo la loro creazione e la scadenza 365 giorni dopo la creazione. È anche possibile creare una regola a parte che determini la scadenza di tutti gli oggetti con prefisso "backup/" 90 giorni dopo la creazione. Le policy sul ciclo di vita si applicano agli oggetti S3 sia nuovi sia esistenti e assicurano quindi l’ottimizzazione dello storage e la massimizzazione dei risparmi per tutti i dati archiviati in S3 senza lunghe e onerose procedure manuali di revisione e migrazione dei dati. In una regola del ciclo di vita, gli oggetti ai quali essa va applicata sono identificati dal prefisso. Per applicare la regola a un singolo oggetto, occorre specificare il nome chiave. Per applicare la regola a un set di oggetti, occorre specificare il loro prefisso comune (ad esempio "log/"). È possibile impostare un'azione di transizione per archiviare gli oggetti e un'azione di scadenza per rimuoverli. Per specificare il momento in cui si desidera che gli oggetti siano archiviati o rimossi, si può indicare la data di creazione (ad esempio 31 gennaio 2015) oppure il numero di giorni dalla data di creazione (ad esempio 30 giorni). È possibile creare più regole per diversi prefissi.

Ulteriori informazioni.

D: Come si configurano gli oggetti in modo che vengano eliminati dopo un determinato periodo di tempo?

Per rimuovere gli oggetti dai bucket dopo un dato numero di giorni, è possibile creare una policy di scadenza del ciclo di vita. Le regole di scadenza di un set di oggetti del bucket si definiscono mediante la policy di configurazione del ciclo di vita applicata al bucket stesso. In ciascuna regola di scadenza si può specificare un prefisso e un periodo di scadenza. Il prefisso identifica gli oggetti ai quali va applicata la regola. Per applicare la regola a un singolo oggetto, occorre specificare il nome chiave. Per applicare la regola a un set di oggetti, occorre specificare il loro prefisso comune (ad esempio "log/"). Come periodo di scadenza, occorre indicare il numero di giorni dalla data di creazione (ovvero l'età) allo scadere dei quali l'oggetto deve essere rimosso. È possibile creare più regole per diversi prefissi. Ad esempio, si può creare una regola che determini la rimozione di tutti gli oggetti con prefisso "log/" 30 giorni dopo la creazione e un'altra regola che rimuova gli oggetti con prefisso "backup/" 90 giorni dopo la loro creazione.

Una volta aggiunta una regola di scadenza, questa viene applicata agli oggetti già presenti nel bucket e anche a quelli aggiunti in seguito. Gli oggetti che raggiungono la loro data di scadenza sono identificati e messi in coda per la rimozione. Non viene addebitato alcun costo per lo storage degli oggetti che hanno raggiunto o superato la loro data di scadenza, anche se è ancora possibile accedervi mentre si trovano in coda in attesa della rimozione. Così come per le richieste di eliminazione standard, la rimozione di oggetti tramite la funzione Object Expiration è gratuita. È anche possibile definire regole di scadenza per i bucket che supportano versioni multiple e per quelli in cui le versioni multiple sono sospese.

Ulteriori informazioni.

D: Qual è il vantaggio di usare una policy sul ciclo di vita per far scadere caricamenti in più parti non completati?

Una policy sul ciclo di vita che consente di far scadere i caricamenti in più parti non completati permette di risparmiare sui costi determinando la durata di conservazione massima dei dati di tali caricamenti. Ad esempio, se l'applicazione in uso carica diverse porzioni di un oggetto diviso in più parti ma non ne esegue il commit, verranno addebitati i costi di storage relativi a tali porzioni inutilizzate. Questa policy consente di ridurre le spese per S3 rimuovendo automaticamente i caricamenti in più parti non completati e lo storage ad essi correlato dopo un numero di giorni predefinito.

Ulteriori informazioni.

D: Cos'è la replica in più regioni o CRR (Cross-Region Replication) di Amazon S3?

CRR è una caratteristica funzionalità di Amazon S3 che consente di replicare automaticamente i dati su più regioni AWS. Con CRR, ogni oggetto caricato in un bucket S3 viene automaticamente replicato in un bucket di destinazione in un'altra regione AWS a tua scelta. CRR può essere impiegato per fornire accesso a latenza ridotta in aree geografiche differenti. Inoltre, CRR può risultare utile per soddisfare requisiti di conformità che richiedono di salvare copie dei propri dati a migliaia di chilometri di distanza.

D: Come si abilita CRR?

CRR è una configurazione a livello di bucket. Per abilitare la configurazione CRR per il bucket sorgente, è necessario specificare un bucket di destinazione per la replica in una regione differente. La funzione CRR può essere attivata tramite la Console di gestione AWS, l'API REST, l'interfaccia a riga di comando di AWS oppure il kit SDK AWS. Per abilitare la CRR, il controllo delle versioni deve essere attivato sia per i bucket di origine che per quelli di destinazione. Per ulteriori informazioni, consulta How to Set Up Cross-Region Replication nella Amazon S3 Developer Guide.

D: Quali dati consente di replicare nel bucket di destinazione la funzione CRR?

La configurazione CRR consente la replica di qualsiasi caricamento a livello di oggetto effettuato direttamente nel bucket sorgente. Anche i metadati e le ACL associate all'oggetto sono parte della replica. Qualsiasi modifica a dati, metadati o ACL sull'oggetto attiva un trigger per la creazione di una nuova replica nel bucket di destinazione. È inoltre possibile scegliere di replicare tutti gli oggetti caricati nel bucket sorgente, oppure solo un sottoinsieme degli oggetti caricati, specificandone un prefisso comune. I dati esistenti nel bucket prima dell'attivazione della funzione CRR non vengono replicati. Per copiare tali dati nel bucket di destinazione è possibile usare l'API COPY di Amazon S3. Per ulteriori informazioni sulla funzione CRR, consulta How to Set Up Cross-Region Replication nella Amazon S3 Developer Guide.

D: È possibile usare la funzione CRR con le regole del ciclo di vita?

Sì, è possibile configurare regole del ciclo di vita separate per il bucket sorgente e il bucket di destinazione. Ad esempio, potrai configurare una regola del ciclo di vita che determini la migrazione dei dati dalla classe Standard alla classe Standard – IA sul bucket di destinazione oppure l'archiviazione dei dati in Amazon Glacier.

D: È possibile utilizzare la funzione CRR con gli oggetti crittografati da AWS KMS?

Sì, è possibile replicare gli oggetti crittografati con KMS fornendo la chiave KMS di destinazione nella configurazione. Ulteriori informazioni.

D: Il supporto di AWS KMS per la replica in più regioni influisce sull'utilizzo dell'API KMS?

Sì, abilitando il supporto di AWS KMS per la funzione CRR la frequenza di utilizzo dell'API KMS nell'account aumenterà. Nello specifico, la funzione CRR raddoppierà l'utilizzo dell'API KMS in relazione ad S3 sia nella regione di origine sia in quella di destinazione. Consigliamo pertanto di richiedere un aumento del limite di richieste dell'API KMS aprendo un ticket nel centro di supporto AWS. L'aumento di tale limite non comporterà costi aggiuntivi.

D: Gli oggetti trasferiti sono mantenuti al sicuro e crittografati durante tutto il processo di replica?

Sì, gli oggetti rimangono crittografati durante l'intero processo di replica in più regioni. Gli oggetti crittografati vengono trasmessi dalla regione di origine a quella di destinazione utilizzando il protocollo SSL.

D: È possibile utilizzare la funzione CRR su diversi account?

Sì, è possibile importare la funzione CRR su diversi account per memorizzare i dati replicati in un account differente nella regione di destinazione. È possibile sovrascrivere le impostazioni di proprietà nella configurazione della replica per mantenere stack di proprietà distinti tra origine e destinazione e assegnare la proprietà dello storage replicato all'account di destinazione.

D: Quanto costa usare la funzione CRR?

Per la replica dei dati, si applicano le tariffe di Amazon S3 per archiviazione, richieste copy e trasferimento di dati tra regioni diverse. I costi di richieste copy e trasferimento di dati tra regioni diverse sono addebitati in base alla regione di origine. I costi dello storage per i dati replicati viene addebitato in base alla regione di destinazione. Per ulteriori informazioni, consulta la pagina dei prezzi di S3.

Se l'oggetto sorgente viene caricato tramite la funzione di caricamento in più parti, la replica avviene con lo stesso numero di parti e ogni parte avrà le stesse dimensioni. Ad esempio, su un oggetto da 100 GB caricato tramite la funzione di caricamento in più parti (800 parti da 128 MB ciascuna) vengono applicati, in caso di replica, i costi di richiesta associati alle 802 richieste (800 richieste per il caricamento delle parti + 1 richiesta Initiate Multipart Upload + 1 richiesta Complete Multipart Upload). Saranno perciò addebitati 0,00401 USD (802 richieste * 0,005 USD ogni 1.000 richieste) e 2 USD (0,020 USD per GB trasferito * 100 GB) per il trasferimento tra regioni. Dopo la replica, sui 100 GB di dati saranno applicate le tariffe di storage previste dalla regione di destinazione.

D: Cos'è Transfer Acceleration?

Amazon S3 Transfer Acceleration consente il trasferimento rapido, semplice e sicuro di file su lunga distanza tra il tuo client e il tuo bucket Amazon S3. Transfer Acceleration sfrutta la rete di edge location di Amazon CloudFront distribuite in tutto il mondo. Quando i dati raggiungono una edge location di AWS, vengono instradati verso il bucket Amazon S3 selezionato seguendo un percorso di rete ottimizzato.

D: Come si inizia a usare Transfer Acceleration?

Transfer Acceleration è molto semplice da utilizzare. Prima di tutto, è necessario abilitare Transfer Acceleration in un bucket S3 tramite la console di Amazon S3, l'API di Amazon S3 o l'interfaccia a riga di comando di AWS. Una volta abilitata la funzione Transfer Acceleration, è possibile selezionare come destinazione delle richieste PUT e GET di Amazon S3 il nome di dominio dell'endpoint s3-accelerate. Il tipo di endpoint che l'applicazione di trasferimento dei dati deve utilizzare per accedere al bucket con una velocità di trasferimento superiore è uno dei seguenti: .s3-accelerate.amazonaws.com oppure .s3-accelerate.dualstack.amazonaws.com per l'endpoint " dual stack". Se desideri utilizzare il trasferimento di dati standard, puoi continuare a utilizzare gli stessi endpoint.

Sono previste alcune restrizioni in relazione ai bucket compatibili con Transfer Acceleration. Per ulteriori informazioni, consulta la Amazon S3 Developer Guide.

D: Quali velocità consente Transfer Acceleration?

La funzione Transfer Acceleration consente di sfruttare l'intera larghezza di banda, riducendo al minimo gli effetti della distanza sul throughput, ed è progettata per garantire trasferimenti di dati veloci e costanti verso Amazon S3 indipendentemente dalla posizione del client. L'accelerazione dipende dalla larghezza di banda disponibile, dalla distanza tra sorgente e destinazione e dal tasso di perdita dei pacchetti sul percorso di rete. In generale, l'accelerazione sarà più evidente quando la sorgente è più lontana dalla destinazione, quando la larghezza di banda disponibile è maggiore e/o quando le dimensioni degli oggetti trasferire sono superiori.

Uno dei nostri clienti ha registrato una riduzione del 50% al tempo medio di inoltro di 300 MB di file dalla propria base utenti globale distribuita tra Stati Uniti, Europa e Asia in un bucket nella regione Asia Pacifico (Sydney). Un altro cliente ha visto il trasferimento di dati migliorare di oltre il 500% per alcuni utenti nel Sud-est asiatico e in Australia che caricano 250 MB di file (in parti da 50 MB) in un bucket S3 nella regione Stati Uniti orientali (Virginia settentrionale).

Prova il nuovo strumento di confronto delle velocità per ottenere un'anteprima delle prestazioni di cui potrai beneficiare!

D: A chi è rivolta la funzione Transfer Acceleration?

Transfer Acceleration è una funzione progettata per ottimizzare le velocità di trasferimento dei dati in tutto il mondo verso bucket S3. Se devi caricare dati in un bucket centralizzato a partire da diverse posizioni distanti tra loro, oppure se devi spostare regolarmente GB o TB di dati tra continenti diversi, con questa funzione puoi ridurre i tempi di trasferimento di ore o di giorni.

D: Qual è il livello di sicurezza di Transfer Acceleration?

Transfer Acceleration fornisce lo stesso livello di sicurezza dei normali trasferimenti verso Amazon S3. Sono infatti supportate tutte le funzionalità di sicurezza di Amazon S3, ad esempio le restrizioni di accesso basate sull'indirizzo IP del client. Transfer Acceleration con i clienti tramite protocollo TCP standard e non richiede modifiche del firewall. I dati trasferiti non vengono salvati nelle edge location di AWS.

D: E se Transfer Acceleration non migliora la velocità di trasferimento?

Ogni volta che usi Transfer Acceleration per caricare un oggetto, verificheremo che il trasferimento sia effettivamente più rapido rispetto all'utilizzo di un trasferimento Amazon S3 normale. Se risulta che il caricamento con Transfer Acceleration non è più veloce rispetto al caricamento normale dello stesso oggetto verso la stessa destinazione con Amazon S3, non sarà addebitato alcun costo per il servizio, e il sistema di Transfer Acceleration sarà ignorato.

D: È possibile utilizzare la funzione Transfer Acceleration con i caricamenti in più parti?

Sì, Transfer Acceleration supporta tutte le caratteristiche a livello di bucket, incluso il caricamento in più parti.

D: Come si sceglie tra Transfer Acceleration e richieste PUT/POST di Amazon CloudFront?

Transfer Acceleration consente di ottimizzare il protocollo TCP e fornisce ulteriore intelligence tra il cliente e il bucket S3, perciò è una scelta migliore quando è necessario un maggiore throughput. Se gli oggetti o i set di dati da trasferire hanno dimensioni inferiori a 1 GB, ti consigliamo di impiegare i comandi PUT/POST di Amazon CloudFront per ottenere prestazioni ottimali.

D: Come si sceglie tra Transfer Acceleration e AWS Snowball?

AWS Import/Export Snowball è una soluzione ideale per i clienti che devono trasferire grandi quantità di dati in una volta. AWS Snowball in genere richiede 5-7 giorni. Nello stesso periodo di tempo Transfer Acceleration è in grado di trasferire approssimativamente 75 TB di dati, se impiega completamente una linea da 1 Gb/s. In genere, se il trasferimento tramite Internet richiede più di una settimana, oppure se i processi di trasferimento sono ricorrenti e la larghezza di banda disponibile è superiore a 25 Mb/s, Transfer Acceleration è l'opzione ideale. È anche possibile utilizzare entrambi i servizi: il trasferimento iniziale con la maggior parte dei dati può essere effettuato con AWS Snowball (una o più appliance), i trasferimenti incrementali contenenti le modifiche possono essere eseguiti con Transfer Acceleration.

D: È possibile utilizzare Transfer Acceleration in sinergia con AWS Direct Connect?

AWS Direct Connect è una soluzione ideale per i clienti che necessitano di una rete privata o che hanno accesso al traffico di AWS Direct Connect. Transfer Acceleration è invece più utile per inoltrare dati da client sparsi in diverse posizioni su connessioni Internet pubbliche, oppure quando il throughput è inficiato da condizioni di rete variabili. Alcuni clienti AWS Direct Connect impiegano Transfer Acceleration per velocizzare i trasferimenti di dati da filiali remote, dove la connessione Internet potrebbe essere rallentata.

D: È possibile utilizzare Transfer Acceleration in sinergia con AWS Storage Gateway o gateway di terze parti?

Se puoi configurare la destinazione di bucket nel gateway di terze parti in modo che utilizzi un nome di dominio di endpoint S3 Transfer Acceleration, potrai notarne i vantaggi.

Consulta la sezione File delle Domande frequenti su Storage Gateway per ulteriori informazioni sull'implementazione di AWS.

D: È possibile utilizzare Transfert Acceleration in sinergia con software integrati di terze parti?

Sì. I pacchetti software che si connettono direttamente in Amazon S3 (consulta questa pagina per ulteriori informazioni sulle soluzioni dei partner di storage) possono utilizzare Transfer Acceleration quando inoltrano processi in Amazon S3.

D: Transfer Acceleration è soggetto alla normativa HIPAA?

Sì, AWS ha esteso il proprio programma di conformità agli standard HIPAA in modo da includere Amazon S3 Transfer Acceleration. Se disponi di un contratto di società in affari o BAA (Business Associate Agreement) con AWS, puoi utilizzare Amazon S3 Transfer Acceleration per trasferire i dati in modo rapido, facile e sicuro, incluse le informazioni sanitarie protette su grandi distanze tra il client e il bucket Amazon S3. Per ulteriori informazioni, consulta la pagina sullo Standard HIPAA.

D: Cosa si intende per IPv6?

Tutti i server e i dispositivi connessi a Internet devono avere un indirizzo univoco. Lo schema di indirizzamento originale a 32 bit era l'Intel Protocol Version 4 (IPv4). La crescita esponenziale di Internet, tuttavia, in futuro saturerà tutti gli indirizzi IPv4 disponibili. Per questo è stato introdotto il protocollo IPv6, che supererà le limitazioni di assegnazione di indirizzi del protocollo IPv4.

D: Cosa è possibile fare con IPv6?

Con il supporto di Amazon S3 per IPv6, le applicazioni possono connettersi ad Amazon S3 senza software o sistemi di conversione degli indirizzi IPv4 o IPv6. In questo modo è più semplice soddisfare i requisiti di conformità, eseguire l'integrazione con applicazioni basate su IPv6 esistenti in locale ed evitare l'acquisto di costose apparecchiature di rete per gestire la conversione degli indirizzi. Ora è anche possibile utilizzare le caratteristiche di filtro dell'indirizzo sorgente esistente in policy di IAM e di bucket con indirizzi IPv6, ampliando le opzioni per proteggere le applicazioni che interagiscono con Amazon S3.

D: In che modo è possibile iniziare a usare il protocollo IPv6 in Amazon S3?

È possibile iniziare indirizzando l'applicazione verso il nuovo endpoint "dual stack" di Amazon S3, che supporta l'accesso tramite sia IPv4 sia IPv6. Nella maggior parte di casi non è necessario procedere ad alcuna configurazione aggiuntiva per accedere su IPv6, perché in molti client di rete il protocollo IPv6 è quello predefinito. Le applicazioni potranno continuare ad accedere ai dati tramite API esistenti e URL in forma di hosting virtuale (ad es. http://bucket.s3.dualstack.aws-region.amazonaws.com) o di indirizzo (ad es. http://s3.dualstack.aws-region.amazonaws.com/bucket) senza alcuna modifica al codice. Quando è in uso Amazon S3 Transfer Acceleration, l'endpoint "dual stack" deve essere nel seguente formato: http(s)://bucket.s3-accelerate.dualstack.amazonaws.com. Tuttavia, è necessario verificare le policy del bucket e di Identity and Access Management (IAM), per accertarsi che per i nuovi indirizzi IPv6 sia stato configurato l'accesso in modo corretto. Per ulteriori informazioni su come accedere ad Amazon S3 su IPv6, consulta la sezione Making Requests to Amazon S3 over IPv6.

D: Configurando l'indirizzamento all'endpoint "dual stack" di Amazon S3, sarà ancora possibile accedere alle API di Amazon S3 tramite IPv4?

Sì, anche completando la connessione a endpoint "dual stack" di Amazon S3 sarà possibile continuare ad accedere alle API di Amazon S3 usando sia indirizzi IPv4 sia IPv6. Il client dovrà essere configurato per l'utilizzo di default di indirizzi IPv4; per molti linguaggi di runtime, questa opzione può trovarsi a livello di applicazione o a livello di host. Consulta la documentazione relativa alla lingua in uso sulla piattaforma di runtime per individuare l'opzione di configurazione specifica per indicare le connessioni IPv4 come predefinite.

D: Le prestazioni di Amazon S3 sono differenti utilizzando il protocollo IPv6?

No, le prestazioni di Amazon S3 sono identiche qualunque protocollo sia in uso, IPv4 o IPv6.

D: Gli endpoint VPC esistenti continuano a funzionare se si esegue l'indirizzamento verso l'endpoint "dual stack" di Amazon S3?

Sì, puoi continuare a usare il VPC endpoint per accedere ad Amazon S3 tramite IPv4. Se usi l'endpoint dual stack in un VPC con solo IPv4, le istanze VPC abbandoneranno il record AAAA e accetteranno sempre gli accessi da Amazon S3 tramite IPv4.

D: Abilitando il protocollo IPv6, l'indirizzo IPv6 verrà visualizzato nei log di acceso al server?

Sì, gli indirizzi IPv6 saranno visualizzati nei log di accesso al server se la relativa caratteristica è abilitata in Amazon S3. Eventuali strumenti o software che analizzano i log devono essere aggiornati per poter gestire il formato di indirizzi IPv6. Contatta il supporto per sviluppatori se gli strumenti o i software in uso riscontrano problemi alle funzionalità di gestione degli indirizzi IPv6 nei log di accesso al server a causa del traffico IPv6.

D: È necessario aggiornare le policy di bucket e IAM?

Sì, se usi le policy per consentire o limitare l'accesso in base all'indirizzo IP dovrai, prima di passare all'endpoint "dual stack", aggiornare le policy perché includano gli intervalli IPv6 desiderati. Se il bucket consente o limita l'accesso a utenti IAM specifici, prima di passare all'endpoint "dual stack" l'amministratore di policy di IAM dovrà inoltre controllare le policy IAM di tali utenti per verificare che siano stati assegnati loro i diritti di accesso corretti mediante gli intervalli IPv6 associati. In caso contrario, i client che iniziano a usare il protocollo IPv6 potranno perdere o acquisire indebitamente diritti di accesso al bucket.

D: Quale procedura occorre seguire se i client incorrono in restrizioni di policy, rete o altro tipo utilizzando il protocollo IPv6 per Amazon S3?

Le applicazioni che riscontrano problemi utilizzando IPv6 possono tornare a collegarsi ad endpoint solo IPv4 in qualsiasi momento.

D: È possibile usare il protocollo IPv6 con tutte le caratteristiche di Amazon S3?

No, il protocollo IPv6 non è disponibile con hosting di siti Web e accesso tramite BitTorrent. Tutte le altre caratteristiche funzionano come previsto anche accedendo ad Amazon S3 tramite IPv6.

D: Il protocollo IPv6 è supportato in tutte le regioni?

Il protocollo IPv6 può essere impiegato con Amazon S3 in tutte le regioni commerciali AWS tranne Cina (Pechino). È disponibile anche nella regione AWS GovCloud (US).