Amazon S3 Glacier

D: Perché Amazon Glacier ora viene chiamato Amazon S3 Glacier?

I clienti è da molto che pensano a Amazon Glacier, al nostro servizio di storage di archiviazione e backup, come una classe di storage di Amazon S3. In realtà, una percentuali molto alta di dati memorizzati in Amazon Glacier oggi proviene direttamente dai clienti che utilizzano le politiche del ciclo di vita S3 per spostare i dati più in voga in Amazon Glacier. Ora, Amazon Glacier fa ufficialmente parte di S3 e verrà riconosciuta come Amazon S3 Glacier (S3 Glacier). Tutte le API dirette di Glacier esistenti continueranno a funzionare come sempre, ma ora abbiamo reso più semplice l’utilizzo delle API di S3 per memorizzare i dati nella classe di storage di S3 Glacier.

D: Amazon S3 offre opzioni per l'archiviazione di oggetti a classi di storage a prezzi ridotti?

Sì, Amazon S3 offre Amazon S3 Glacier, un servizio di storage a costi estremamente contenuti per l'archiviazione dei dati. Amazon S3 Glacier memorizza i dati ad appena 0,004 USD per GB al mese. Per mantenere i costi bassi adeguati alle necessità di recupero variabili, Amazon S3 Glacier offre tre opzioni per accedere agli archivi, con tempi che vanno da pochi minuti a diverse ore. Alcuni esempi di archivio che utilizzano casi sono archivi di contenuti multimediali digitali, record finanziari e sanitari, dati non elaborati di sequenze genomiche, backup di lungo termine di database e dati che devono essere conservati a fini di conformità normativa.

D: In che modo è possibile archiviare dati utilizzando la classe di storage Amazon S3 Glacier?

Se hai uno storage che deve essere archiviato immediatamente senza ritardi o se prendi decisioni di business personalizzate su quando effettuare la transizione di oggetti su S3 Glacier non coperti dalla policy del ciclo di vita Amazon S3, S3 PUT su Glacier consente di utilizzare le API di S3 per il caricamento nella classe di storage S3 Glacier su una base oggetto-per-oggetto. Non ci sono ritardi di transizione ed è possibile controllare la tempistica. Inoltre, è un'ottima soluzione se si desidera che l'applicazione scelga la classe di storage senza dover impostare una policy a livello di bucket.

Le regole del ciclo di vita possono essere utilizzate per archiviare automaticamente i set di oggetti Amazon S3 in S3 Glacier in base all'età di un oggetto. Per creare tali regole, è possibile usare la console di gestione di Amazon S3, i kit SDK AWS oppure le API di Amazon S3. Le regole prevedono un prefisso e un intervallo di tempo. Il prefisso (ad esempio "logs/") identifica l'oggetto o gli oggetti a cui si applica la regola. L'intervallo di tempo identifica il numero di giorni successivi alla data di creazione (ad esempio 180 giorni) oppure la data specifica dopo la quale l'oggetto o gli oggetti devono essere archiviati. Gli oggetti memorizzati nelle classi di storage S3 Standard, S3 Standard-IA o S3 One Zone-IA che hanno un nome che inizia con il prefisso indicato e a cui si applica l'intervallo di tempo scelto vengono archiviati in S3 Glacier. Per recuperare i dati di Amazon S3 archiviati in S3 Glacier, avviare un'attività di recupero tramite le API o la Console di gestione di Amazon S3. Al termine dell'operazione, per accedere ai dati è sufficiente una richiesta GET di Amazon S3.

Per ulteriori informazioni sull'uso delle regole del ciclo di vita per l'archiviazione in S3 Glacier, consulta l'argomento relativo all'archiviazione di oggetti nella Guida per lo sviluppatore di Amazon S3.

D: È possibile usare le API o la Console di gestione di Amazon S3 per elencare gli oggetti archiviati in Amazon S3 Glacier?

Sì. Come nel caso delle altre classi di storage di Amazon S3 (S3 Standard, S3 Standard-IA e S3 One Zone-IA), agli oggetti di S3 Glacier archiviati tramite le API o la Console di gestione di Amazon S3 viene associato un nome definito dall'utente. È possibile ottenere un elenco aggiornato in tempo reale di tutti i nomi degli oggetti in Amazon S3, inclusi quelli archiviati nella classe di storage S3 Glacier, utilizzando l'API LIST di S3 o il report S3 Inventory.

D: È possibile utilizzare le API dirette di Amazon Glacier per accedere agli oggetti archiviati in Amazon S3 Glacier?

Poiché Amazon S3 conserva la mappatura tra il nome dell'oggetto definito dall'utente e l'identificatore di Amazon S3 Glacier generato dal sistema, gli oggetti di Amazon S3 archiviati utilizzando la classe di storage S3 Glacier sono accessibili solo attraverso le API o la Console di gestione di Amazon S3.

D: In che modo possono essere recuperati gli oggetti archiviati in Amazon S3 Glacier? Si riceve una notifica quando l'oggetto viene ripristinato?

Per recuperare i dati di Amazon S3 archiviati nella classe di storage S3 Glacier, è necessario avviare una richiesta di recupero tramite le API o la Console di gestione di Amazon S3. La richiesta di recupero crea una copia temporanea dei dati nella classe di storage S3 RRS o S3 Standard-IA e lascia intatti i dati archiviati in S3 Glacier. È possibile specificare l'intervallo di tempo, in giorni, durante il quale la copia temporanea sarà conservata in S3. Per accedervi da S3 è quindi necessaria una richiesta GET di Amazon S3 sull'oggetto archiviato.

Con le notifiche di recupero, si riceve una notifica di evento S3 quando un oggetto viene recuperato correttamente da S3 Glacier e ne viene resa disponibile una copia temporanea. Il proprietario del bucket (o altri, secondo quanto consentito da una policy IAM) può chiedere che le notifiche vengano emesse ad Amazon Simple Queue Service (SQS) o ad Amazon Simple Notification Service (SNS). Le notifiche possono essere inviate anche ad AWS Lambda per essere elaborate da una funzione Lambda.

D: Quanto tempo sarà necessario per ripristinare gli oggetti archiviati in S3 Glacier? Inoltre, è possibile aggiornare una richiesta in corso per tempi di recupero più rapidi?

Durante un'attività di recupero, Amazon S3 recupera prima di tutto i dati richiesti da S3 Glacier, quindi ne crea una copia temporanea in S3 (operazione che di solito richiede alcuni minuti). La rapidità di accesso della richiesta dipende dall'opzione di recupero selezionata: Expedited, Standard o Bulk. Per gli oggetti con dimensioni inferiori ai 250 MB, i tempi di recupero dell'opzione Expedited sono in genere compresi tra 1 e 5 minuti. Gli oggetti ottenuti tramite il recupero di tipo Standard richiedono in genere dalle 3 alle 5 ore. I tempi di recupero per l'opzione Bulk sono invece solitamente inclusi tra le 5 e le 12 ore. Per ulteriori informazioni sulle opzioni di recupero di S3 Glacier, consulta le domande frequenti su S3 Glacier.

L'aggiornamento della velocità di ripristino S3 sostituisce la funzione di recupero in corso con un livello di recupero più rapido se l'accesso ai dati diventa urgente. Puoi utilizzare l'aggiornamento della velocità di ripristino S3 inviando un'altra richiesta di ripristino allo stesso oggetto con un nuovo parametro di processo "Tier". Quando invii un aggiornamento della velocità di ripristino S3, devi scegliere una velocità maggiore rispetto a quella del ripristino in corso. Altri parametri quali l'ora di scadenza dell'oggetto non saranno modificati. Puoi aggiornare l'ora di scadenza dell'oggetto al completamento del ripristino. Ti verrà addebitata ogni richiesta di ripristino e le commissioni di recupero per GB per il livello di ripristino più veloce. Ad esempio, se hai emesso un ripristino di livello Bulk, quindi hai emesso una richiesta di aggiornamento della velocità di ripristino S3 al livello di tipo Expedited per sostituire il ripristino del livello Bulk in corso, ti verranno addebitate due richieste e le commissioni di recupero per GB per il livello di tipo Expedited.

D: Qual è il costo di archiviazione degli oggetti in Amazon S3 Glacier?

I prezzi della classe di storage Amazon S3 Glacier si basano sulla capacità di storage mensile utilizzata e sul numero di richieste di trasferimento del ciclo di vita in Amazon S3 Glacier. Gli oggetti archiviati in Amazon S3 Glacier devono avere almeno 90 giorni di storage. Per gli oggetti eliminati prima dello scadere dei 90 giorni sarà addebitato un costo ripartito proporzionalmente pari alla tariffa di storage per i giorni rimanenti. Consulta la pagina dei prezzi di Amazon S3 per ulteriori informazioni.

D: Come vengono calcolati i costi di storage per gli oggetti di Amazon S3 archiviati in Amazon S3 Glacier?

Il volume di storage fatturato in un mese si basa sulla media dello storage utilizzato in tale mese, misurato in GB. Amazon S3 calcola le dimensioni dell'oggetto sommando alle dimensioni dei dati archiviati 32 KB di dati per Amazon S3 Glacier e 8 KB di dati per la classe di storage S3 Standard. Amazon S3 Glacier richiede 32 KB di dati aggiuntivi per oggetto per l'indice e i metadati in modo da poter identificare e recuperare i dati. Amazon S3 richiede 8 KB di dati aggiuntivi per memorizzare e conservare i metadati e il nome definito dall'utente per gli oggetti archiviati in Amazon S3 Glacier. In questo modo puoi avere un elenco aggiornato in tempo reale di tutti gli oggetti Amazon S3, inclusi quelli nella classe di storage Amazon S3 Glacier, con l'API LIST di Amazon S3 o il report S3 Inventory. Ad esempio, se hai archiviato 100.000 oggetti da 1 GB ciascuno, i costi di storage sono i seguenti:

1,000032 gigabyte per oggetto x 100.000 oggetti = 100.003,2 gigabyte di storage in Amazon S3 Glacier.
0,000008 gigabyte per oggetto x 100.000 oggetti = 0,8 gigabyte di storage standard in Amazon S3.

I costi sono calcolati in base alle tariffe correnti nella regione AWS in uso secondo la pagina dei prezzi di Amazon S3.

D: Quali volumi di dati è possibile recuperare da Amazon S3 Glacier gratuitamente?

È possibile recuperare gratuitamente da Amazon S3 Glacier 10 GB di dati al mese grazie al piano gratuito di AWS. Il piano gratuito può essere sfruttato in qualsiasi momento durante il mese e si applica ai recuperi di tipo Standard di Amazon S3 Glacier.

D: Quali costi vengono addebitati per l'eliminazione di oggetti da Amazon S3 Glacier archiviati da meno di 90 giorni?

Amazon S3 Glacier è stato progettato per casi d'uso in cui i dati archiviati rimangono inattivi per mesi, anni o anche decenni. L'eliminazione di dati archiviati in Amazon S3 Glacier è gratuita se gli oggetti destinati all'eliminazione sono stati archiviati in Amazon S3 Glacier per almeno 90 giorni. Se un oggetto archiviato in Amazon S3 Glacier viene eliminato o sovrascritto entro i primi 90 giorni dall'archiviazione, sarà addebitata una tariffa per l'eliminazione anticipata. Questa tariffa viene ripartita proporzionalmente. Se elimini 1 GB di dati 30 giorni dopo il caricamento, ti verrà applicata una tariffa di eliminazione anticipata per 60 giorni di storage di Amazon S3 Glacier. Se elimini 1 GB di dati dopo 60 giorni, ti verrà applicata una tariffa di eliminazione anticipata per 30 giorni di storage di Amazon S3 Glacier.

D: Quanto costa recuperare dati da Amazon S3 Glacier? 

Esistono tre modi per recuperare dati da Amazon S3 Glacier: Expedited, Standard e Bulk. Ognuno ha un costo di recupero per GB e un costo di richiesta per archivio differenti (ad esempio, la richiesta di un archivio conta come una richiesta). Per ulteriori informazioni sui costi di S3 Glacier in base alla regione AWS, consulta la pagina dei prezzi di Amazon S3 Glacier.

Applicazione di query

D: cos'è la funzione "Query in Place" (applicazione di query)?

Amazon S3 permette ai clienti di eseguire query sofisticate sui dati memorizzati senza doverli trasferire in piattaforme di analisi separate. La possibilità di applicare query su questi set di dati in Amazon S3 permette di migliorare in modo significativo le prestazioni e ridurre di conseguenza i costi per le soluzioni di analisi che sfruttano S3 come data lake. S3 offre diverse opzioni di questo tipo: S3 Select, Amazon Athena e Amazon Redshift Spectrum, ognuno con caratteristiche diverse per casi d'uso differenti. È anche possibile impiegare Amazon S3 Select con AWS Lambda per creare app serverless in grado di sfruttare le funzionalità di elaborazione integrate nel servizio.

D: Cos'è S3 Select?

S3 Select è una caratteristica di Amazon S3 che semplifica il ripristino di un set di dati specifico dai contenuti di un oggetto tramite espressioni SQL semplici, senza dover ripristinare l'intero oggetto. Puoi utilizzare S3 Select per richiamare un sottoinsieme di dati utilizzando le clausole SQL, come SELECT e WHERE, dagli oggetti archiviati in formato CSV, JSON o Apache Parquet. Ciò è valido anche per oggetti che vengono compressi con GZIP o BZIP2 (solo per oggetti CSV e JSON) e oggetti crittografati lato server.

D: cosa è possibile fare con S3 Select?

S3 Select può essere utilizzato per recuperare un set di dati specifico di piccole dimensioni da un oggetto tramite istruzioni SQL. Può essere utilizzato con AWS Lambda per creare applicazioni serverless che usano S3 per recuperare dati in modo semplice ed efficiente da Amazon S3 senza dover ripristinare ed elaborare l'intero oggetto. Infine, può essere utilizzato con framework per Big Data quali Presto, Apache Hive e Apache Spark per scansionare e filtrare i dati in Amazon S3.

D: qual è il vantaggio di utilizzare S3 Select?

S3 Select offre un nuovo modo per recuperare dati specifici dai contenuti di un oggetto memorizzato in Amazon S3 senza dover recuperare l'intero oggetto utilizzando istruzioni SQL. S3 Select semplifica e migliora anche del 400% le prestazioni di scansione e filtraggio dei contenuti di oggetti in set di dati specifici di dimensioni minori. Con questo servizio, inoltre, è possibile eseguire indagini operative sui file di log in Amazon S3 senza dover avviare e gestire un cluster di elaborazione.

D: che cos'è Amazon Athena?

Amazon Athena è un servizio di query interattivo che semplifica l'analisi dei dati in Amazon S3 con query SQL standard. Athena è serverless, per cui non c'è un'infrastruttura da installare o gestire ed è quindi possibile iniziare immediatamente ad analizzare i dati. Non è neppure necessario caricare i dati in Athena poiché funziona direttamente con i dati memorizzati in qualsiasi classe di S3. Per iniziare è sufficiente accedere alla console di gestione di Athena, definire gli schemi e cominciare a eseguire le query. Amazon Athena usa Presto con il supporto SQL standard completo e funziona con numerosi formati standard di dati, tra cui CSV, JSON, ORC, Apache Parquet e Avro. L'uso ideale di Athena è la creazione di query veloci ad hoc; il servizio si integra con Amazon QuickSight per dare vita a visualizzazioni semplificate, ma è anche in grado di gestire analisi complesse, inclusi join di grandi dimensioni, funzioni finestra e array.

D: cos'è Amazon Redshift Spectrum?

Amazon Redshift Spectrum è una caratteristica di Amazon Redshift che permette di eseguire query su exabyte di dati non strutturati in Amazon S3 senza dover caricare o trasformare i dati. Quando viene inoltrata, la query raggiunge l'endpoint SQL di Amazon Redshift, il quale genera e ottimizza un piano di query. Amazon Redshift determinerà quindi quali dati si trovano in locale e quali in Amazon S3, genererà un piano per ridurre al minimo i dati che è necessario leggere in Amazon S3 e richiederà a specifiche risorse condivise di un pool di Amazon Redshift Spectrum la lettura e l'elaborazione dei dati da Amazon S3.

Redshift Spectrum, se necessario, effettuerà il provisioning di migliaia di istanze, perciò le query saranno rapide indipendentemente dalle dimensioni. Inoltre, è possibile utilizzare con Amazon S3 la stessa sintassi SQL utilizzata per le query in Amazon Redshift, collegando lo stesso endpoint di Amazon Redshift agli strumenti di business intelligence esistenti. Redshift Spectrum permette di separare le funzioni di storage e di elaborazione, perciò è possibile ricalibrarne le risorse separatamente. È possibile impostare tutti i cluster Amazon Redshift necessari per interrogare i data lake Amazon S3 fornendo disponibilità elevata ed esecuzioni simultanee illimitate. Redshift Spectrum offre la libertà di memorizzare i dati dove è più conveniente e nel formato desiderato senza sacrificare le possibilità di elaborazione.

Notifiche di eventi

D: cosa sono le notifiche di eventi di Amazon S3?

Le notifiche di eventi di Amazon S3 vengono inviate in risposta ad azioni predefinite in Amazon S3, quali richieste PUT, POST, COPY o DELETE. I messaggi possono essere inviati tramite Amazon SNS, Amazon SQS, oppure direttamente su AWS Lambda.

D: cosa è possibile fare con le notifiche di eventi di Amazon S3?

Le notifiche di eventi di Amazon S3 consentono di eseguire flussi di lavoro, inviare allarmi o eseguire altre azioni in risposta a modifiche negli oggetti salvati in Amazon S3. È possibile utilizzare le notifiche eventi di S3 per configurare trigger per eseguire azioni quali la transcodifica di file multimediali durante il caricamento, l'elaborazione di file di dati non appena risultano disponibili e la sincronizzazione di oggetti S3 con altri datastore. È anche possibile configurare le notifiche eventi in base ai prefissi e ai suffissi del nome dell'oggetto. Ad esempio, è possibile scegliere di ricevere notifiche sui nomi di oggetto che iniziano con "images/".

D: Quali informazioni sono incluse nelle notifiche di eventi di Amazon S3?

Per una descrizione dettagliata delle informazioni incluse nei messaggi di notifica di eventi di Amazon S3, consulta la sezione Configurare le notifiche degli eventi di Amazon S3 nella Guida per sviluppatori di Amazon S3.

D: in che modo è possibile impostare le notifiche di eventi di Amazon S3

Per istruzioni dettagliate su come configurare le notifiche di eventi in Amazon S3, consulta la sezione Configurare le notifiche degli eventi di Amazon S3 nella Guida per sviluppatori di Amazon S3. Per ulteriori informazioni sui servizi di messaggistica di AWS, consulta la documentazione di Amazon SNS e la documentazione di Amazon SQS.

D: quanto costa usare le notifiche di eventi di Amazon S3?

Non sono previsti costi aggiuntivi per l'uso delle notifiche di eventi di Amazon S3. Vengono addebitati solo i costi di invio dei messaggi di Amazon SNS o di Amazon SQS o i costi di esecuzione delle funzioni AWS Lambda. Consulta le pagine relative ai prezzi di Amazon SNS, Amazon SQS e AWS Lambda per ulteriori informazioni sulle relative tariffe.

Amazon S3 Transfer Acceleration

D: cos'è S3 Transfer Acceleration?

Amazon S3 Transfer Acceleration consente il trasferimento rapido, semplice e sicuro di file su lunga distanza tra il tuo client e il tuo bucket Amazon S3. S3 Transfer Acceleration sfrutta la rete di AWS Edge Location di Amazon CloudFront distribuite in tutto il mondo. Quando i dati raggiungono una AWS edge location, vengono instradati verso il bucket Amazon S3 selezionato seguendo un percorso di rete ottimizzato.

D::   come si inizia a usare S3 Transfer Acceleration?

Per iniziare a usare S3 Transfer Acceleration S3, abilita il servizio in un bucket S3 tramite la console o l'API di Amazon S3 oppure l'interfaccia a riga di comando di AWS. Una volta abilitata la S3 Transfer Acceleration, è possibile selezionare come destinazione delle richieste PUT e GET di Amazon S3 il nome di dominio dell'endpoint s3-accelerate. Il tipo di endpoint che l'applicazione di trasferimento dei dati deve utilizzare per accedere al bucket con una velocità di trasferimento superiore è uno dei seguenti: .s3-accelerate.amazonaws.com oppure .s3-accelerate.dualstack.amazonaws.com per un endpoint "dual stack". Se desideri utilizzare il trasferimento di dati standard, puoi continuare a utilizzare gli stessi endpoint.

Sono previste alcune restrizioni in relazione ai bucket compatibili con S3 Transfer Acceleration. Per ulteriori informazioni, consulta la Guida per sviluppatori di Amazon S3.

D: Quali velocità consente S3 Transfer Acceleration?

La funzione S3 Transfer Acceleration consente di sfruttare l'intera larghezza di banda, riducendo al minimo gli effetti della distanza sul throughput, ed è progettata per garantire trasferimenti di dati veloci e costanti verso Amazon S3 indipendentemente dalla posizione del client. L'accelerazione dipende dalla larghezza di banda disponibile, dalla distanza tra sorgente e destinazione e dal tasso di perdita dei pacchetti sul percorso di rete. In generale, l'accelerazione sarà più evidente quando la sorgente è più lontana dalla destinazione, quando la larghezza di banda disponibile è maggiore e/o quando le dimensioni degli oggetti trasferire sono superiori.

Uno dei nostri clienti ha registrato una riduzione del 50% al tempo medio di inoltro di 300 MB di file dalla propria base utenti globale distribuita tra Stati Uniti, Europa e Asia in un bucket nella regione Asia Pacifico (Sydney). Un altro cliente ha visto il trasferimento di dati migliorare di oltre il 500% per alcuni utenti nel Sud-est asiatico e in Australia che caricano 250 MB di file (in parti da 50 MB) in un bucket S3 nella regione Stati Uniti orientali (Virginia settentrionale).

Prova il nuovo strumento di confronto delle velocità per ottenere un'anteprima delle prestazioni di cui potrai beneficiare.

D: a chi è rivolta la funzione S3 Transfer Acceleration?

S3 Transfer Acceleration è una funzione progettata per ottimizzare le velocità di trasferimento dei dati in tutto il mondo verso bucket S3. Quando occorre caricare dati in un bucket centralizzato a partire da diverse posizioni distanti tra loro, oppure quando occorre spostare regolarmente GB o TB di dati tra continenti diversi, con questa funzione è possibile ridurre i tempi di trasferimento di ore o di giorni con S3 Transfer Acceleration.

D:   qual è il livello di sicurezza di S3 Transfer Acceleration?

S3 Transfer Acceleration fornisce lo stesso livello di sicurezza dei normali trasferimenti verso Amazon S3. Sono infatti supportate tutte le funzionalità di sicurezza di Amazon S3, ad esempio le restrizioni di accesso basate sull'indirizzo IP del client. S3 Transfer Acceleration comunica con i client tramite protocollo TCP standard e non richiede modifiche del firewall. I dati trasferiti non vengono salvati nelle AWS edge location.

D: Cosa succede se S3 Transfer Acceleration non migliora la velocità di trasferimento di Amazon S3l?

Ogni volta che usi S3 Transfer Acceleration per caricare un oggetto, verificheremo che il trasferimento sia effettivamente più rapido rispetto ai comuni trasferimenti in Amazon S3. Se risulta che il caricamento con S3 Transfer Acceleration non è più veloce rispetto al caricamento normale dello stesso oggetto verso la stessa destinazione con Amazon S3, non sarà addebitato alcun costo per il servizio e per tale trasferimento il sistema non sarà utilizzato.

D:     è possibile utilizzare la funzione S3 Transfer Acceleration con i caricamenti in più parti?

Sì, S3 Transfer Acceleration supporta tutte le caratteristiche a livello di bucket, incluso il caricamento in più parti.

D:     Quando è più conveniente scegliere S3 Transfer Acceleration o le richieste PUT/POST di Amazon CloudFront?

S3 Transfer Acceleration consente di ottimizzare il protocollo TCP e fornisce ulteriore intelligence tra il cliente e il bucket S3, perciò è una scelta migliore quando è necessario un maggiore throughput. Se gli oggetti o i set di dati da trasferire hanno dimensioni inferiori a 1 GB, ti consigliamo di impiegare i comandi PUT/POST di Amazon CloudFront per ottenere prestazioni ottimali.

D: quando è più conveniente scegliere S3 Transfer Acceleration o la famiglia di prodotti AWS Snow (Snowball, Snowball Edge e Snowmobile)?

La famiglia di prodotti AWS Snowball è una soluzione ideale per i clienti che devono trasferire grandi quantità di dati in una volta. AWS Snowball in genere richiede 5-7 giorni. Nello stesso periodo di tempo, S3 Transfer Acceleration è in grado di trasferire approssimativamente 75 TB di dati, se impiega completamente una linea da 1 Gb/s. In genere, se il trasferimento tramite Internet richiede più di una settimana, oppure se i processi di trasferimento sono ricorrenti e la larghezza di banda disponibile è superiore a 25 Mb/s, S3 Transfer Acceleration è l'opzione ideale. È anche possibile utilizzare entrambi i servizi: il trasferimento iniziale con la maggior parte dei dati può essere effettuato con AWS Snowball (una o più appliance), mentre i trasferimenti incrementali contenenti le modifiche possono essere eseguiti con S3 Transfer Acceleration.

D:       è possibile utilizzare S3 Transfer Acceleration in sinergia con AWS Direct Connect?

AWS Direct Connect è una soluzione ideale per i clienti che necessitano di una rete privata o che hanno accesso al traffico di AWS Direct Connect. S3 Transfer Acceleration è invece più utile per inoltrare dati da client sparsi in diverse posizioni su connessioni Internet pubbliche, oppure quando il throughput è inficiato da condizioni di rete variabili. Alcuni clienti di AWS Direct Connect si avvalgono di S3 Transfer Acceleration per velocizzare i trasferimenti di dati da filiali remote, dove la connessione Internet potrebbe essere rallentata.

D:       È possibile utilizzare S3 Transfer Acceleration in sinergia con AWS Storage Gateway o gateway di terze parti?

Se puoi configurare la destinazione di bucket nel gateway di terze parti in modo che utilizzi un nome di dominio di endpoint S3 Transfer Acceleration, potrai notarne i vantaggi.

Consulta la sezione File delle Domande frequenti su Storage Gateway per ulteriori informazioni sull'implementazione di AWS.

D:      è possibile utilizzare S3 Transfer Acceleration in sinergia con software integrati di terze parti?

Sì. I pacchetti software che si connettono direttamente in Amazon S3 possono utilizzare S3 Transfer Acceleration quando inoltrano processi in Amazon S3.

Ulteriori informazioni sulle soluzioni dei partner di storage »

D:       S3 Transfer Acceleration è soggetto alla normativa HIPAA?

Sì, AWS ha esteso il proprio programma di conformità agli standard HIPAA in modo da includere Amazon S3 Transfer Acceleration. Se disponi di un BAA (Business Associate Agreement) con AWS, puoi utilizzare Amazon S3 Transfer Acceleration per trasferire i dati in modo rapido, facile e sicuro, incluse le informazioni sanitarie protette su grandi distanze tra il client e il bucket Amazon S3.

Ulteriori informazioni sulla conformità alla normativa HIPAA »

Gestione dello storage

Applicazione di tag agli oggetti S3

D: che cosa sono i tag di oggetti S3?

I tag di oggetti S3 sono coppie chiave-valore applicate a oggetti S3 che possono essere create, aggiornate o eliminate in qualunque momento durante il ciclo di vita dell'oggetto. Essi consentono di creare policy di Identity and Access Management (IAM), configurare policy di ciclo di vita S3 e personalizzare parametri di storage. Questi tag a livello di oggetto possono in seguito gestire trasferimenti fra classi di storage e oggetti a scadenza in background.

D: Come si applicano i tag agli oggetti?

Si possono aggiungere tag a nuovi oggetti quando vengono caricati oppure aggiungerli a oggetti esistenti. A ciascun oggetto S3 possono essere aggiunti fino a dieci tag e per farlo si possono usare la Console di gestione AWS, l'API REST, l'interfaccia a riga di comando di AWS o gli SDK AWS.

D: qual è il vantaggio di utilizzare i tag di oggetti?

I tag di oggetti sono uno strumento che può essere utilizzato per gestire in modo semplice lo storage S3. Grazie alla possibilità di creare, aggiornare ed eliminare tag in qualunque momento durante la durata di vita dell'oggetto, lo storage può adattarsi alle necessità della tua attività. Questi tag permettono di controllare l'accesso a oggetti che contengono tag con coppie chiave-valore specifiche, consentendo una maggiore protezione dei dati confidenziali per un gruppo o un utente selezionato. I tag degli oggetti possono essere utilizzati anche per etichettare gli oggetti appartenenti a un progetto specifico o a una business unit e possono essere utilizzati in combinazione con le policy del ciclo di vita di S3 per gestire le transizioni verso altre classi di storage (S3 Standard-IA, S3 One Zone-IA e S3 Glacier) o con la replica tra regioni S3 per replicare i dati selettivamente tra regioni AWS.

D: Come si aggiornano i tag di oggetti?

I tag di oggetti possono essere modificati in qualunque momento durante il ciclo di vita di un oggetto S3, tramite la Console di gestione AWS, l'API REST, l'interfaccia a riga di comando di AWS o i kit SDK AWS. Le modifiche effettuate sui tag al di fuori della Console di gestione AWS vengono effettuate sull'intero gruppo di tag. Se hai cinque tag collegati a un oggetto particolare e ne vuoi aggiungere un sesto, devi includere i cinque tag originali nella richiesta.

D: è prevista la replica dei tag di oggetti quando è in uso la replica in più regioni?

I tag di oggetti possono essere replicati in diverse regioni AWS utilizzando la funzionalità di replica in più regioni. Per i clienti già abilitati alla replica in più regioni, sono necessari nuovi permessi per la replica dei tag. Per ulteriori informazioni sulla configurazione della replica in più regioni, consulta Impostare la replica tra più regioni nella Guida per sviluppatori di Amazon S3.

D: quanto costano i tag di oggetti?

Il costo dei tag di oggetti è calcolato in base alla quantità di tag impiegati e ai costi delle richieste necessarie per aggiungerli. Il costo delle richieste necessarie per aggiungere e aggiornare i tag di oggetti dipende dalle tariffe correnti delle richieste. Per ulteriori informazioni, consulta la pagina dei prezzi di Amazon S3.

Storage Class Analysis

D: cos'è Storage Class Analysis?

Con Storage Class Analysis è possibile analizzare i modelli di accesso allo storage e trasferire i dati nella classe di storage più idonea. Questa nuova caratteristica di S3 rileva automaticamente la frequenza di accesso ai dati per facilitarne il trasferimento nella classe S3 Standard-IA. È possibile configurare una policy per monitorare l'intero bucket, un prefisso o il tag di un oggetto. Quando vengono individuati dati a cui l'accesso è meno frequente, è possibile creare un'apposita policy sul ciclo di vita di S3. Questa funzione illustra inoltre quotidianamente l'utilizzo dello storage sulla Console di gestione AWS; sulla base di queste informazioni, è possibile esportare i dati in un bucket S3 per analisi di business intelligence, ad esempio con Amazon QuickSight.

D:   come si inizia a usare Storage Class Analysis?

Puoi utilizzare la Console di gestione AWS o l'API PUT Bucket Analytics di S3 per configurare una policy di analisi della classe di storage e identificare quindi gli storage con accessi non frequenti che possono essere trasferiti nelle classi di storage S3 Standard-IA o S3 One Zone-IA o archiviati nella classe di storage S3 Glacier. Apri la scheda "Management" nella console di S3 per gestire i parametri di Storage Class Analysis, S3 Inventory e S3 CloudWatch.

D: quali costi vengono addebitati per l'uso di Storage Class Analysis?

Consulta la pagina dei prezzi di Amazon S3 per informazioni generali sulle tariffe di Storage Class Analysis.

D:   con quale frequenza avvengono gli aggiornamenti di Storage Class Analysis?

Storage Class Analysis viene aggiornato quotidianamente nella console di gestione di S3. Inoltre, è possibile configurare Storage Class Analysis in modo che esporti il report in un bucket S3 specifico.

S3 Inventory

D: cos'è S3 Inventory?

S3 Inventory costituisce un'alternativa pianificata all'API List sincrona di Amazon S3. S3 Inventory può essere configurato per generare giornalmente o settimanalmente un output di file CSV, , ORC o Parquet dei tuoi oggetti e dei metadati corrispondenti per un prefisso o bucket S3. L'utilizzo di S3 Inventory consente di semplificare e accelerare i flussi di lavoro aziendali e le attività di Big Data. S3 Inventory può inoltre essere impiegato per verificare la crittografia e lo stato di replica degli oggetti e soddisfare le esigenze aziendali e di conformità alle normative. 

D:  come si inizia a usare S3 Inventory?

È possibile utilizzare la Console di gestione AWS o l'API PUT Bucket Inventory per configurare un inventario giornaliero o settimanale di tutti gli oggetti in un bucket S3 o di un sottoinsieme di oggetti sotto un prefisso condiviso. Durante la fase di configurazione, puoi specificare un bucket S3 di destinazione per il report S3 Inventory, il formato del file di output (CSV, ORC o Parquet) e i metadati specifici di oggetto necessari all'applicazione aziendale, ad esempio nome, dimensioni, data dell'ultima modifica, classe di storage, ID della versione, contrassegno di eliminazione, contrassegno di versione non corrente, contrassegno di caricamento in più parti, stato di replica o stato di crittografia dell'oggetto.

D: è possibile crittografare i file del report S3 Inventory?

Sì, è possibile configurare la crittografia tramite la tecnologia SSE S3 o SSE-KMS su tutti i file scritti da S3 Inventory. Per ulteriori informazioni, fai riferimento alla guida per l'utente.

D: come si usa S3 Inventory?

S3 Inventory può essere utilizzato come input diretto nei flussi di lavoro delle applicazioni o nei processi relativi ai Big Data. È anche possibile eseguire query in S3 Inventory tramite SQL standard con Amazon Athena, Amazon Redshift Spectrum e altri strumenti quali Presto, Hive e Spark.

Ulteriori informazioni su come eseguire query in S3 Inventory con Athena »

D: come viene fatturato l'utilizzo di S3 Inventory?

Consulta la pagina dei prezzi di Amazon S3 per informazioni sulle tariffe di S3 Inventory. Per la crittografia con SSE-KMS, vengono addebitate le tariffe standard di AWS KMS. Per ulteriori dettagli, consulta la pagina dei prezzi di KMS.

Operazioni S3 in batch

D: Cos'è S3 Batch Operations?

S3 Batch Operations è una funzionalità che i clienti possono utilizzare per automatizzare l'esecuzione, la gestione e il controllo di richieste API S3 specifiche o di funzioni AWS Lambda tra i molti oggetti archiviati in Amazon S3 a qualsiasi livello. I clienti possono utilizzare S3 Batch Operations per automatizzare la sostituzione di set di tag su oggetti S3, l'aggiornamento delle liste di controllo accessi (ACL) per gli oggetti S3, la copia di oggetti tra bucket, l'avvio di un ripristino da Amazon Glacier in altre classi di storage S3 o l'esecuzione di operazioni personalizzate con le funzioni AWS Lambda.

Con S3 Batch Operations puoi modificare miliardi di oggetti senza dover scrivere codici di applicazione personalizzati o eseguire cluster di calcolo per le applicazioni di gestione dello storage: sono sufficienti pochi clic sulla Console di gestione S3 o una singola richiesta API. Oltre a gestire le operazioni di storage tra più oggetti, S3 Batch Operations gestisce nuovi tentativi, monitora i progressi, invia le notifiche, genera report di completamento e invia eventi ad AWS CloudTrail per tutte le operazioni effettuate sugli oggetti di destinazione. S3 Batch Operations può essere utilizzato dalla Console di gestione S3 o mediante l'SDK e la CLI di AWS. Registrati all'anteprima di S3 Batch Operations qui.

D: In che modo è possibile utilizzare S3 Batch Operations?

Puoi iniziare a utilizzare S3 Batch Operations tramite la Console di gestione S3 o mediante l'SDK o la CLI di AWS per creare il primo processo S3 Batch Operations. Un processo S3 Batch Operations è costituito dall'elenco degli oggetti di destinazione su cui agire e dal tipo di operazione da eseguire. Inizia selezionando un report S3 Inventory o fornendo un elenco personalizzato di oggetti di destinazione su cui agirà S3 Batch Operations. Un report S3 Inventory è un file che elenca tutti gli oggetti archiviati in un prefisso o bucket S3. Quindi, scegli tra una serie di operazioni supportate da S3 Batch Operations, ad esempio la sostituzione di set di tag, la modifica delle ACL, la copia dello storage da un bucket a un altro o l'avvio del ripristino da S3 Glacier ad altre classi di storage S3. Quindi, puoi personalizzare i processi S3 Batch Operations con parametri specifici quali, ad esempio, valori tag, garanzie ACL o durata del ripristino. Per personalizzare ulteriormente le operazioni di storage, puoi scrivere una funzione AWS Lambda e richiamare il codice con S3 Batch Operations.

Una volta creato, il processo S3 Batch Operations elaborerà l'elenco di oggetti, attenderà conferma (azione facoltativa), quindi inizierà a eseguire l'operazione specificata. Puoi visualizzare l'avanzamento del processo in modo programmatico o tramite la console S3, ricevere notifiche al completamento e rivedere il report di completamento che elenca in dettaglio le modifiche apportate allo storage. Per ulteriori informazioni su S3 Batch Operations, consulta la pagina delle caratteristiche di Amazon S3.

D: In che modo è possibile gestire i processi S3 Batch Operations? Come è possibile definirne le priorità?  

I processi S3 Batch Operations possono essere gestiti tramite la Console di gestione S3 o mediante gli SDK, la CLI o le API di AWS. Selezionando una regione AWS nella console o utilizzando la richiesta ListJobs, potrai visualizzare l'elenco dei processi (fino a 1000 per richiesta) in ogni regione AWS filtrato per stato del processo. Puoi utilizzare questi elenchi per visualizzare i processi attivi, completati o in attesa di essere eseguiti. Se uno dei processi è più importante o più urgente degli altri, puoi aggiornare la priorità a un livello più alto per renderne prioritaria l'esecuzione. Per annullare uno dei processi, utilizza la richiesta CancelJob o seleziona il processo e fai clic su “Cancel (Annulla)” nella console.

Per visualizzare l'avanzamento di uno qualsiasi dei processi attivi, utilizza la richiesta DescribeJob o fai clic sul processo tramite la Console di gestione S3. Una volta selezionato il processo, potrai vederne lo stato, il numero delle operazioni riuscite, il numero delle operazioni con errori, il numero delle operazioni restanti e la percentuale di completamento. Puoi anche utilizzare le notifiche per monitorare l'inizio e il completamento dei processi.

S3 Object Lock

D: Cos'è Amazon S3 Object Lock?

Amazon S3 Object Lock è una nuova funzionalità di Amazon S3 che blocca l'eliminazione della versione degli oggetti durante un periodo di conservazione definito dal cliente, consentendoti di applicare policy di conservazione come un livello aggiuntivo di protezione dei dati o la conformità normativa. Puoi migrare i carichi di lavoro dai sistemi WORM (Write-Once-Read-Many) esistenti in Amazon S3 e configurare S3 Object Lock a livello di oggetto e di bucket per prevenire l'eliminazione della versione degli oggetti prima della data di fine conservazione o della data di conservazione a fini legali predefinita. La protezione S3 Object Lock viene mantenuta indipendentemente dalla classe di storage in cui risiede l'oggetto e tramite le transizioni di S3 Lifecycle tra le classi di storage.

D: Qual è il vantaggio di utilizzare Amazon S3 Object Lock?

È necessario utilizzare S3 Object Lock se i requisiti normativi specificano che i dati devono essere protetti da WORM o se vuoi aggiungere un ulteriore livello di protezione ai dati in Amazon S3. S3 Object Lock può aiutarti a soddisfare i requisiti normativi secondo i quali i dati devono essere archiviati in un formato non modificabile, nonché a proteggere i dati da eliminazioni accidentali o malevoli in Amazon S3.

D: Come funziona Amazon S3 Object Lock?

Amazon S3 Object Lock blocca l'eliminazione di un oggetto per la durata di un periodo di conservazione specificato. Se associato alla funzione Versioni multiple S3, che protegge gli oggetti dalla sovrascrittura, consente di garantire che gli oggetti resteranno immutati finché sarà applicata la protezione WORM. È possibile applicare la protezione WORM assegnando la data di fine conservazione o la data di conservazione a fini legali a un oggetto, utilizzando la Console di gestione S3, l'API REST, la CLI o l'SDK di AWS. È possibile applicare le impostazioni di conservazione in una richiesta PUT o applicarle a un oggetto esistente dopo averlo creato.

La data di fine conservazione definisce il periodo di tempo durante il quale un oggetto non sarà modificabile. Se all'oggetto è stata assegnata una data di fine conservazione, questo non potrà essere modificato o eliminato fino allo scadere della data indicata. Se un utente cerca di eliminare un oggetto prima che sia trascorsa la data di fine conservazione, l'operazione non sarà consentita.

Per configurare S3 Object Lock è possibile scegliere tra due diverse modalità. Se distribuiti in modalità di governance, gli account AWS con autorizzazioni IAM specifiche sono in grado di rimuovere la protezione WORM da un oggetto. Se hai bisogno di un periodo di non modificabilità più lungo per conformità alle normative, puoi utilizzare la modalità di conformità. In modalità di conformità, la protezione WORM non può essere rimossa da nessun utente, neppure dall'account root.

In alternativa, puoi rendere un oggetto non modificabile applicando la conservazione a fini legali. La conservazione a fini legali pone una protezione S3 Object Lock indefinita su un oggetto, che rimane finché non viene esplicitamente rimossa. Per applicare o rimuovere la conservazione a fini legali, l'account AWS deve avere l'autorizzazione in scrittura per l'operazione PutObjectLegalHold. La conservazione a fini legali può essere applicata a qualsiasi oggetto in un bucket abilitato S3 Object Lock, indipendentemente dal fatto che l'oggetto sia protetto da WORM tramite un periodo di conservazione.

D: Quali servizi di storage elettronico di AWS hanno ricevuto valutazioni secondo le normative rivolte ai servizi finanziari?

Per i clienti che operano nel settore dei servizi finanziari, S3 Object Lock offre supporto ulteriore a broker e dealer che hanno bisogno di conservare i record in un formato non cancellabile e non riscrivibile, in conformità ai requisiti della Rule 17a-4(f) della SEC, della Rule 4511 della FINRA o della Regulation 1.31 CFTC. È facile impostare il tempo di conservazione dei record per mantenere gli archivi regolamentati nel formato originale per la durata richiesta, nonché applicare i vincoli di legge alla conservazione dei dati per un tempo indeterminato fino a quando tale vincolo non viene rimosso.

D: Quali sono i documenti di AWS a supporto dei requisiti per SEC 17a-4(f)(2)(i) e CFTC 1.31(c) per inviare notifiche all'autorità normativa?

È possibile comunicare all'autorità normativa oppure all'autorità di verifica designata (DEA, Designated Examining Authority) l'utilizzo di Amazon S3 per lo storage elettronico insieme a una copia del Cohasset Assessment. Ai fini della valutazione dei requisiti, AWS non è considerato una terza parte designata (D3P). Nella notifica alla DEA è necessario includere una D3P.

Parametri di S3 CloudWatch

D: come si inizia a usare i parametri di S3 CloudWatch?

Per abilitare la generazione di parametri di CloudWatch di 1 minuto per il tuo bucket S3 o configurare filtri per i parametri con un prefisso o un tag di oggetto, puoi utilizzare la Console di gestione AWS. In alternativa, è possibile richiamare l'API PUT Bucket Metrics di S3 per abilitare e configurare la pubblicazione dei parametri di storage S3. I parametri delle richieste di CloudWatch saranno disponibili in CloudWatch entro 15 minuti dall'attivazione. I parametri di storage di CloudWatch vengono abilitati di default per tutti i bucket e viene creato un report ogni giorno.

D:  è possibile allineare i parametri di storage ad applicazioni o organizzazioni aziendali?

Sì, è possibile configurare i parametri di S3 CloudWatch in modo che generino parametri per il bucket S3 o configurare filtri per i parametri in base a prefissi o tag di oggetti.

D: quali avvisi è possibile configurare per i parametri di storage?

È possibile utilizzare CloudWatch per stabilire soglie per qualsiasi conteggio, timer o velocità dei parametri di storage e avviare un'operazione quando tale soglia viene superata. Ad esempio, è possibile stabilire una soglia sulla percentuale di risposte di errori di tipo 4xx; quando almeno 3 punti dati sono al di sopra della soglia, si attiva un allarme di CloudWatch per avvisare un ingegnere DevOps.

D: Quali costi vengono addebitati per l'uso dei parametri di S3 CloudWatch? 

I parametri di storage di CloudWatch sono gratuiti. I parametri delle richieste CloudWatch vengono addebitati come parametri personalizzati per Amazon CloudWatch. Consulta la pagina dei prezzi di Amazon CloudWatch per ulteriori informazioni sulle tariffe dei parametri di S3 CloudWatch.

Gestione del ciclo di vita di S3

D: cos'è la gestione del ciclo di vita di S3?

Con S3 è possibile definire il ciclo di vita degli oggetti con policy predefinite, diminuendo così il costo dello storage. È possibile configurare una policy di trasferimento basata sul ciclo di vita per eseguire automaticamente la migrazione di oggetti dalla classe di storage S3 Standard alle classi S3 Standard-IA, S3 One Zone-IA e/o S3 Glacier in base alla data di creazione dei dati. È anche possibile impostare policy di scadenza del ciclo di vita per rimuovere automaticamente oggetti a seconda della loro età. Ad esempio, una policy può determinare la scadenza di un caricamento in più parti a seconda del momento del ciclo di vita del caricamento.

D: come si imposta una policy di gestione del ciclo di vita di S3?

È possibile impostare e gestire le policy di ciclo di vita tramite la Console di gestione AWS, l'API REST di S3, i kit SDK AWS e l'interfaccia a riga di comando di AWS. La policy può essere specificata a livello di prefisso o a livello di bucket.

D: quanto costa usare la gestione del ciclo di vita di S3?

L'impostazione e l'applicazione di policy sul ciclo di vita non prevedono alcun costo. Vengono fatturate le richieste di transizione per ogni oggetto quando un oggetto diviene idoneo al trasferimento in base alla regola del ciclo di vita. Consulta la pagina dei prezzi di S3 per informazioni sui costi.

D: cosa è possibile fare con le policy di gestione del ciclo di vita di S3?

Con il passare del tempo, i dati perdono di importanza e a volte devono rispettare determinati requisiti di conformità. Amazon S3 include un'ampia libreria di policy per semplificare l'automazione dei processi di migrazione dei dati da una classe di storage a un'altra. Ad esempio, è possibile stabilire che gli oggetti a cui si accede con minore frequenza vengano trasferiti in classi di storage più economiche (come S3 Standard-IA e S3 One Zone-IA) dopo un determinato periodo di tempo. Dopo un ulteriore intervallo di tempo, tali oggetti possono essere spostati in Amazon S3 Glacier per fini di archiviazione e di conformità. Dove applicabile, sarà possibile anche specificare una policy sul ciclo di vita per l'eliminazione degli oggetti. Tutte queste regole contribuiscono a ridurre i costi dello storage e semplificare la gestione. Le policy, inoltre, includono pratiche di amministrazione per rimuovere oggetti e attributi che non sono più necessari, in modo da tenere sotto controllo i costi e ottimizzare le prestazioni.

D: come è possibile utilizzare la gestione del ciclo di vita di Amazon S3 per contribuire a ridurre i costi di storage?

Con le policy sul ciclo di vita di Amazon S3, è possibile predisporre la migrazione degli oggetti dalla classe di storage S3 Standard alle classi S3 Standard-IA o S3 One Zone-IA e/o l'archiviazione in S3 Glacier. È anche possibile configurare una policy di gestione del ciclo di vita di S3 con cui eliminare gli oggetti dopo un determinato periodo di tempo. Queste funzioni di automazione basate su policy rappresentano un modo rapido e veloce per ridurre i costi di storage e per risparmiare tempo. Per ciascuna regola è possibile specificare un prefisso, un periodo di tempo, unl trasferimento nelle classi S3 Standard-IA, S3 One Zone-IA e S3 Glacier e/o una scadenza. Ad esempio, puoi creare una regola che determini l'archiviazione in S3 Glacier di tutti gli oggetti con prefisso "logs/" 30 giorni dopo la loro creazione e la scadenza 365 giorni dopo la creazione. È anche possibile creare una regola a parte che determini la scadenza di tutti gli oggetti con prefisso "backup/" 90 giorni dopo la creazione. Le policy sul ciclo di vita di S3 si applicano agli oggetti S3 sia nuovi sia esistenti e consentono quindi di ottimizzare lo storage il risparmio per tutti i dati archiviati in S3 senza lunghe e onerose procedure manuali di revisione e migrazione dei dati. In una regola del ciclo di vita, gli oggetti ai quali essa va applicata sono identificati dal prefisso. Per applicare la regola a un singolo oggetto, occorre specificare il nome chiave. Per applicare la regola a un set di oggetti, occorre specificare il loro prefisso comune (ad esempio "log/"). È possibile impostare un'azione di transizione per archiviare gli oggetti e un'azione di scadenza per rimuoverli. Per il periodo di tempo, specificare la data di creazione (ad esempio 31 gennaio 2015) oppure il numero di giorni dalla data di creazione (ad esempio 30 giorni), trascorso il quale si desidera che gli oggetti vengano archiviati o rimossi. È possibile creare più regole per diversi prefissi.

D: come si configurano gli oggetti in modo che vengano eliminati dopo un determinato periodo di tempo?

Per rimuovere gli oggetti dai bucket dopo un dato numero di giorni, è possibile creare una policy di scadenza del ciclo di vita di S3. Le regole di scadenza di un set di oggetti del bucket si definiscono mediante la policy di configurazione del ciclo di vita applicata al bucket stesso.

Ulteriori informazioni sulle policy di scadenza del ciclo di vita di S3 »

D: qual è il vantaggio di usare una policy sul ciclo di vita per far scadere caricamenti in più parti non completati?

Una policy sul ciclo di vita di S3 che consente di far scadere i caricamenti in più parti non completati permette di risparmiare sui costi determinando la durata di conservazione massima dei dati di tali caricamenti. Ad esempio, se l'applicazione in uso carica diverse porzioni di un oggetto diviso in più parti ma non ne esegue il commit, verranno addebitati i costi di storage relativi a tali porzioni inutilizzate. Questa policy consente di ridurre le spese per S3 rimuovendo automaticamente i caricamenti in più parti non completati e lo storage ad essi correlato dopo un numero di giorni predefinito.

Ulteriori informazioni su come usare la gestione del ciclo di vita di S3 per la scadenza di caricamenti in più parti non completati »

Replica in più regioni

D: Cos'è la replica in più regioni o CRR (Cross-Region Replication) di Amazon S3?

CRR è una funzionalità di Amazon S3 che consente di replicare automaticamente i dati tra le regioni AWS. Con CRR, è possibile configurare una replica a livello di bucket, un livello di prefisso condiviso o un livello di oggetto utilizzando i tag dell'oggetto S3. CRR può essere impiegato per fornire accesso a latenza ridotta in aree geografiche differenti. Inoltre, CRR può risultare utile per soddisfare requisiti di conformità che richiedono di salvare copie dei propri dati a migliaia di chilometri di distanza.

D: Come si abilita la replica in più regioni?

La replica in più regioni va configurata a livello di bucket S3. Per abilitarla in un bucket sorgente, è necessario specificare un bucket di destinazione per la replica in una regione differente. La funzione CRR può essere attivata tramite la Console di gestione AWS, l'API REST, l'interfaccia a riga di comando di AWS oppure il kit SDK AWS. Per abilitare la replica in più regioni, la funzione Versioni multiple deve essere attivata sia per i bucket di origine sia per quelli di destinazione. Per ulteriori informazioni, consulta la sezione Impostare la replica tra più regioni nella Guida per sviluppatori di Amazon S3.

D: è possibile usare la replica in più regioni con le regole del ciclo di vita?

Sì, è possibile configurare regole del ciclo di vita di S3 separate per il bucket sorgente e il bucket di destinazione. Ad esempio, una regola del ciclo di vita può stabilire la migrazione dei dati dalla classe di storage S3 Standard alle classi S3 Standard-IA o S3 One Zone-IA oppure l'archiviazione in S3 Glacier nel bucket di destinazione.

Ora puoi stabilire regole di replica tra regioni S3 per effettuare copie dirette di dati nella classe di storage S3 Glacier in una regione differente per scopi di backup o altri obiettivi, senza dover gestire policy sul ciclo di vita dei dati.

D: è possibile utilizzare la replica in più regioni con gli oggetti crittografati tramite AWS Key Management Service (KMS)?

Sì, è possibile replicare gli oggetti crittografati con KMS fornendo la chiave KMS di destinazione nella configurazione.

Ulteriori informazioni sulla replica di oggetti crittografati tramite KMS »

D: gli oggetti trasferiti sono mantenuti al sicuro e crittografati durante tutto il processo di replica?

Sì, gli oggetti rimangono crittografati durante l'intero processo di replica in più regioni. Gli oggetti crittografati vengono trasmessi dalla regione di origine a quella di destinazione utilizzando il protocollo SSL.

D: è possibile usare la replica in più regioni su diversi account AWS per un maggiore protezione da malintenzionati ed eliminazioni accidentali?

Sì, è possibile impostare la replica in più regioni su diversi account AWS per memorizzare i dati replicati in un account differente nella regione di destinazione. È possibile impiegare il comando CCR Ownership Overwrite nella configurazione della replica per mantenere stack di proprietà distinti tra origine e destinazione e assegnare la proprietà dello storage replicato all'account di destinazione. 

D: quanto costa utilizzare la replica in più regioni di S3?

I costi della funzione sono calcolati in base alle tariffe di storage di Amazon S3 (per la precisione, della classe di storage specifica), delle richieste COPY e di trasferimento dei dati tra regioni diverse per le copie replicate dei dati. I costi di richieste COPY e trasferimento di dati tra regioni diverse sono addebitati in base alla regione di origine. I costi dello storage per i dati replicati sono addebitati in base alla regione di destinazione. Per ulteriori informazioni, consulta la pagina dei prezzi di S3.

Se l'oggetto sorgente viene caricato tramite la funzione di caricamento in più parti, la replica avviene con lo stesso numero di parti e ogni parte avrà le stesse dimensioni. Ad esempio, su un oggetto da 100 GB caricato tramite la funzione di caricamento in più parti (800 parti da 128 MB ciascuna) vengono applicati, in caso di replica, i costi di richiesta associati alle 802 richieste (800 richieste per il caricamento delle parti + 1 richiesta Initiate Multipart Upload + 1 richiesta Complete Multipart Upload). Saranno perciò addebitati 0,00401 USD (802 richieste * 0,005 USD ogni 1.000 richieste) e 2 USD (0,020 USD per GB trasferito * 100 GB) per il trasferimento tra regioni. Dopo la replica, sui 100 GB di dati saranno applicate le tariffe di storage previste dalla regione di destinazione.

Amazon S3 e IPv6

D: cosa si intende per IPv6?

Tutti i server e i dispositivi connessi a Internet devono avere un indirizzo univoco. Lo schema di indirizzamento originale a 32 bit era l'Intel Protocol Version 4 (IPv4). La crescita esponenziale di Internet, tuttavia, in futuro saturerà tutti gli indirizzi IPv4 disponibili. Per questo è stato introdotto il protocollo IPv6, che supererà le limitazioni di assegnazione di indirizzi del protocollo IPv4.

D: cosa è possibile fare con IPv6?

Con il supporto di Amazon S3 per IPv6, le applicazioni possono connettersi ad Amazon S3 senza software o sistemi di conversione degli indirizzi IPv4 o IPv6. In questo modo è più semplice soddisfare i requisiti di conformità, eseguire l'integrazione con applicazioni basate su IPv6 esistenti in locale ed evitare l'acquisto di costose apparecchiature di rete per gestire la conversione degli indirizzi. Ora è anche possibile utilizzare le caratteristiche di filtro dell'indirizzo sorgente esistente in policy di IAM e di bucket con indirizzi IPv6, ampliando le opzioni per proteggere le applicazioni che interagiscono con Amazon S3.

D: in che modo è possibile iniziare a usare il protocollo IPv6 in Amazon S3?

È possibile iniziare indirizzando l'applicazione verso il nuovo endpoint "dual stack" di Amazon S3, che supporta l'accesso tramite sia IPv4 sia IPv6. Nella maggior parte di casi non è necessario procedere ad alcuna configurazione aggiuntiva per accedere su IPv6, perché in molti client di rete il protocollo IPv6 è quello predefinito.

D: le prestazioni di Amazon S3 sono differenti utilizzando il protocollo IPv6?

No, le prestazioni di Amazon S3 sono identiche qualunque protocollo sia in uso, IPv4 o IPv6.

D: quale procedura occorre seguire se i client incorrono in restrizioni di policy, rete o altro tipo utilizzando il protocollo IPv6 per Amazon S3?

Le applicazioni che riscontrano problemi utilizzando IPv6 possono tornare a collegarsi ad endpoint solo IPv4 in qualsiasi momento.

D: è possibile usare il protocollo IPv6 con tutte le caratteristiche di Amazon S3?

No, il protocollo IPv6 non è disponibile con hosting di siti Web e accesso tramite BitTorrent. Tutte le altre caratteristiche funzionano come previsto anche accedendo ad Amazon S3 tramite IPv6.

D: Il protocollo IPv6 è supportato in tutte le regioni AWS?

Il protocollo IPv6 può essere impiegato con Amazon S3 in tutte le regioni commerciali AWS tranne Cina (Pechino). È disponibile anche nella regione AWS GovCloud (Stati Uniti).

Amazon S3 Glacier

D: Perché Amazon Glacier ora viene chiamato Amazon S3 Glacier?

I clienti è da molto che pensano a Amazon Glacier, al nostro servizio di storage di archiviazione e backup, come una classe di storage di Amazon S3. In realtà, una percentuali molto alta di dati memorizzati in Amazon Glacier oggi proviene direttamente dai clienti che utilizzano le politiche del ciclo di vita S3 per spostare i dati più in voga in Amazon Glacier. Ora, Amazon Glacier fa ufficialmente parte di S3 e verrà riconosciuta come Amazon S3 Glacier (S3 Glacier). Tutte le API dirette di Glacier esistenti continueranno a funzionare come sempre, ma ora abbiamo reso più semplice l’utilizzo delle API di S3 per memorizzare i dati nella classe di storage di S3 Glacier.

D: Amazon S3 offre opzioni per l'archiviazione di oggetti a classi di storage a prezzi ridotti?

Sì, Amazon S3 offre Amazon S3 Glacier, un servizio di storage a costi estremamente contenuti per l'archiviazione dei dati. Amazon S3 Glacier memorizza i dati ad appena 0,004 USD per GB al mese. Per mantenere i costi bassi adeguati alle necessità di recupero variabili, Amazon S3 Glacier offre tre opzioni per accedere agli archivi, con tempi che vanno da pochi minuti a diverse ore. Alcuni esempi di archivio che utilizzano casi sono archivi di contenuti multimediali digitali, record finanziari e sanitari, dati non elaborati di sequenze genomiche, backup di lungo termine di database e dati che devono essere conservati a fini di conformità normativa.

D: In che modo è possibile archiviare dati utilizzando la classe di storage Amazon S3 Glacier?

Se hai uno storage che deve essere archiviato immediatamente senza ritardi o se prendi decisioni di business personalizzate su quando effettuare la transizione di oggetti su S3 Glacier non coperti dalla policy del ciclo di vita Amazon S3, S3 PUT su Glacier consente di utilizzare le API di S3 per il caricamento nella classe di storage S3 Glacier su una base oggetto-per-oggetto. Non ci sono ritardi di transizione ed è possibile controllare la tempistica. Inoltre, è un'ottima soluzione se si desidera che l'applicazione scelga la classe di storage senza dover impostare una policy a livello di bucket.

Le regole del ciclo di vita possono essere utilizzate per archiviare automaticamente i set di oggetti Amazon S3 in S3 Glacier in base all'età di un oggetto. Per creare tali regole, è possibile usare la console di gestione di Amazon S3, i kit SDK AWS oppure le API di Amazon S3. Le regole prevedono un prefisso e un intervallo di tempo. Il prefisso (ad esempio "logs/") identifica l'oggetto o gli oggetti a cui si applica la regola. L'intervallo di tempo identifica il numero di giorni successivi alla data di creazione (ad esempio 180 giorni) oppure la data specifica dopo la quale l'oggetto o gli oggetti devono essere archiviati. Gli oggetti memorizzati nelle classi di storage S3 Standard, S3 Standard-IA o S3 One Zone-IA che hanno un nome che inizia con il prefisso indicato e a cui si applica l'intervallo di tempo scelto vengono archiviati in S3 Glacier. Per recuperare i dati di Amazon S3 archiviati in S3 Glacier, avviare un'attività di recupero tramite le API o la Console di gestione di Amazon S3. Al termine dell'operazione, per accedere ai dati è sufficiente una richiesta GET di Amazon S3.

Per ulteriori informazioni sull'uso delle regole del ciclo di vita per l'archiviazione in S3 Glacier, consulta l'argomento relativo all'archiviazione di oggetti nella Guida per lo sviluppatore di Amazon S3.

D: È possibile usare le API o la Console di gestione di Amazon S3 per elencare gli oggetti archiviati in Amazon S3 Glacier?

Sì. Come nel caso delle altre classi di storage di Amazon S3 (S3 Standard, S3 Standard-IA e S3 One Zone-IA), agli oggetti di S3 Glacier archiviati tramite le API o la Console di gestione di Amazon S3 viene associato un nome definito dall'utente. È possibile ottenere un elenco aggiornato in tempo reale di tutti i nomi degli oggetti in Amazon S3, inclusi quelli archiviati nella classe di storage S3 Glacier, utilizzando l'API LIST di S3 o il report S3 Inventory.

D: È possibile utilizzare le API dirette di Amazon Glacier per accedere agli oggetti archiviati in Amazon S3 Glacier?

Poiché Amazon S3 conserva la mappatura tra il nome dell'oggetto definito dall'utente e l'identificatore di Amazon S3 Glacier generato dal sistema, gli oggetti di Amazon S3 archiviati utilizzando la classe di storage S3 Glacier sono accessibili solo attraverso le API o la Console di gestione di Amazon S3.

D: In che modo possono essere recuperati gli oggetti archiviati in Amazon S3 Glacier? Si riceve una notifica quando l'oggetto viene ripristinato?

Per recuperare i dati di Amazon S3 archiviati nella classe di storage S3 Glacier, è necessario avviare una richiesta di recupero tramite le API o la Console di gestione di Amazon S3. La richiesta di recupero crea una copia temporanea dei dati nella classe di storage S3 RRS o S3 Standard-IA e lascia intatti i dati archiviati in S3 Glacier. È possibile specificare l'intervallo di tempo, in giorni, durante il quale la copia temporanea sarà conservata in S3. Per accedervi da S3 è quindi necessaria una richiesta GET di Amazon S3 sull'oggetto archiviato.

Con le notifiche di recupero, si riceve una notifica di evento S3 quando un oggetto viene recuperato correttamente da S3 Glacier e ne viene resa disponibile una copia temporanea. Il proprietario del bucket (o altri, secondo quanto consentito da una policy IAM) può chiedere che le notifiche vengano emesse ad Amazon Simple Queue Service (SQS) o ad Amazon Simple Notification Service (SNS). Le notifiche possono essere inviate anche ad AWS Lambda per essere elaborate da una funzione Lambda.

D: Quanto tempo sarà necessario per ripristinare gli oggetti archiviati in S3 Glacier? Inoltre, è possibile aggiornare una richiesta in corso per tempi di recupero più rapidi?

Durante un'attività di recupero, Amazon S3 recupera prima di tutto i dati richiesti da S3 Glacier, quindi ne crea una copia temporanea in S3 (operazione che di solito richiede alcuni minuti). La rapidità di accesso della richiesta dipende dall'opzione di recupero selezionata: Expedited, Standard o Bulk. Per gli oggetti con dimensioni inferiori ai 250 MB, i tempi di recupero dell'opzione Expedited sono in genere compresi tra 1 e 5 minuti. Gli oggetti ottenuti tramite il recupero di tipo Standard richiedono in genere dalle 3 alle 5 ore. I tempi di recupero per l'opzione Bulk sono invece solitamente inclusi tra le 5 e le 12 ore. Per ulteriori informazioni sulle opzioni di recupero di S3 Glacier, consulta le domande frequenti su S3 Glacier.

L'aggiornamento della velocità di ripristino S3 sostituisce la funzione di recupero in corso con un livello di recupero più rapido se l'accesso ai dati diventa urgente. Puoi utilizzare l'aggiornamento della velocità di ripristino S3 inviando un'altra richiesta di ripristino allo stesso oggetto con un nuovo parametro di processo "Tier". Quando invii un aggiornamento della velocità di ripristino S3, devi scegliere una velocità maggiore rispetto a quella del ripristino in corso. Altri parametri quali l'ora di scadenza dell'oggetto non saranno modificati. Puoi aggiornare l'ora di scadenza dell'oggetto al completamento del ripristino. Ti verrà addebitata ogni richiesta di ripristino e le commissioni di recupero per GB per il livello di ripristino più veloce. Ad esempio, se hai emesso un ripristino di livello Bulk, quindi hai emesso una richiesta di aggiornamento della velocità di ripristino S3 al livello di tipo Expedited per sostituire il ripristino del livello Bulk in corso, ti verranno addebitate due richieste e le commissioni di recupero per GB per il livello di tipo Expedited.

D: Qual è il costo di archiviazione degli oggetti in Amazon S3 Glacier?

I prezzi della classe di storage Amazon S3 Glacier si basano sulla capacità di storage mensile utilizzata e sul numero di richieste di trasferimento del ciclo di vita in Amazon S3 Glacier. Gli oggetti archiviati in Amazon S3 Glacier devono avere almeno 90 giorni di storage. Per gli oggetti eliminati prima dello scadere dei 90 giorni sarà addebitato un costo ripartito proporzionalmente pari alla tariffa di storage per i giorni rimanenti. Consulta la pagina dei prezzi di Amazon S3 per ulteriori informazioni.

D: Come vengono calcolati i costi di storage per gli oggetti di Amazon S3 archiviati in Amazon S3 Glacier?

Il volume di storage fatturato in un mese si basa sulla media dello storage utilizzato in tale mese, misurato in GB. Amazon S3 calcola le dimensioni dell'oggetto sommando alle dimensioni dei dati archiviati 32 KB di dati per Amazon S3 Glacier e 8 KB di dati per la classe di storage S3 Standard. Amazon S3 Glacier richiede 32 KB di dati aggiuntivi per oggetto per l'indice e i metadati in modo da poter identificare e recuperare i dati. Amazon S3 richiede 8 KB di dati aggiuntivi per memorizzare e conservare i metadati e il nome definito dall'utente per gli oggetti archiviati in Amazon S3 Glacier. In questo modo puoi avere un elenco aggiornato in tempo reale di tutti gli oggetti Amazon S3, inclusi quelli nella classe di storage Amazon S3 Glacier, con l'API LIST di Amazon S3 o il report S3 Inventory. Ad esempio, se hai archiviato 100.000 oggetti da 1 GB ciascuno, i costi di storage sono i seguenti:

1,000032 gigabyte per oggetto x 100.000 oggetti = 100.003,2 gigabyte di storage in Amazon S3 Glacier.
0,000008 gigabyte per oggetto x 100.000 oggetti = 0,8 gigabyte di storage standard in Amazon S3.

I costi sono calcolati in base alle tariffe correnti nella regione AWS in uso secondo la pagina dei prezzi di Amazon S3.

D: Quali volumi di dati è possibile recuperare da Amazon S3 Glacier gratuitamente?

È possibile recuperare gratuitamente da Amazon S3 Glacier 10 GB di dati al mese grazie al piano gratuito di AWS. Il piano gratuito può essere sfruttato in qualsiasi momento durante il mese e si applica ai recuperi di tipo Standard di Amazon S3 Glacier.

D: Quali costi vengono addebitati per l'eliminazione di oggetti da Amazon S3 Glacier archiviati da meno di 90 giorni?

Amazon S3 Glacier è stato progettato per casi d'uso in cui i dati archiviati rimangono inattivi per mesi, anni o anche decenni. L'eliminazione di dati archiviati in Amazon S3 Glacier è gratuita se gli oggetti destinati all'eliminazione sono stati archiviati in Amazon S3 Glacier per almeno 90 giorni. Se un oggetto archiviato in Amazon S3 Glacier viene eliminato o sovrascritto entro i primi 90 giorni dall'archiviazione, sarà addebitata una tariffa per l'eliminazione anticipata. Questa tariffa viene ripartita proporzionalmente. Se elimini 1 GB di dati 30 giorni dopo il caricamento, ti verrà applicata una tariffa di eliminazione anticipata per 60 giorni di storage di Amazon S3 Glacier. Se elimini 1 GB di dati dopo 60 giorni, ti verrà applicata una tariffa di eliminazione anticipata per 30 giorni di storage di Amazon S3 Glacier.

D: Quanto costa recuperare dati da Amazon S3 Glacier? 

Esistono tre modi per recuperare dati da Amazon S3 Glacier: Expedited, Standard e Bulk. Ognuno ha un costo di recupero per GB e un costo di richiesta per archivio differenti (ad esempio, la richiesta di un archivio conta come una richiesta). Per ulteriori informazioni sui costi di S3 Glacier in base alla regione AWS, consulta la pagina dei prezzi di Amazon S3 Glacier.

Applicazione di query

D: cos'è la funzione "Query in Place" (applicazione di query)?

Amazon S3 permette ai clienti di eseguire query sofisticate sui dati memorizzati senza doverli trasferire in piattaforme di analisi separate. La possibilità di applicare query su questi set di dati in Amazon S3 permette di migliorare in modo significativo le prestazioni e ridurre di conseguenza i costi per le soluzioni di analisi che sfruttano S3 come data lake. S3 offre diverse opzioni di questo tipo: S3 Select, Amazon Athena e Amazon Redshift Spectrum, ognuno con caratteristiche diverse per casi d'uso differenti. È anche possibile impiegare Amazon S3 Select con AWS Lambda per creare app serverless in grado di sfruttare le funzionalità di elaborazione integrate nel servizio.

D: Cos'è S3 Select?

S3 Select è una caratteristica di Amazon S3 che semplifica il ripristino di un set di dati specifico dai contenuti di un oggetto tramite espressioni SQL semplici, senza dover ripristinare l'intero oggetto. Puoi utilizzare S3 Select per richiamare un sottoinsieme di dati utilizzando le clausole SQL, come SELECT e WHERE, dagli oggetti archiviati in formato CSV, JSON o Apache Parquet. Ciò è valido anche per oggetti che vengono compressi con GZIP o BZIP2 (solo per oggetti CSV e JSON) e oggetti crittografati lato server.

D: cosa è possibile fare con S3 Select?

S3 Select può essere utilizzato per recuperare un set di dati specifico di piccole dimensioni da un oggetto tramite istruzioni SQL. Può essere utilizzato con AWS Lambda per creare applicazioni serverless che usano S3 per recuperare dati in modo semplice ed efficiente da Amazon S3 senza dover ripristinare ed elaborare l'intero oggetto. Infine, può essere utilizzato con framework per Big Data quali Presto, Apache Hive e Apache Spark per scansionare e filtrare i dati in Amazon S3.

D: qual è il vantaggio di utilizzare S3 Select?

S3 Select offre un nuovo modo per recuperare dati specifici dai contenuti di un oggetto memorizzato in Amazon S3 senza dover recuperare l'intero oggetto utilizzando istruzioni SQL. S3 Select semplifica e migliora anche del 400% le prestazioni di scansione e filtraggio dei contenuti di oggetti in set di dati specifici di dimensioni minori. Con questo servizio, inoltre, è possibile eseguire indagini operative sui file di log in Amazon S3 senza dover avviare e gestire un cluster di elaborazione.

D: che cos'è Amazon Athena?

Amazon Athena è un servizio di query interattivo che semplifica l'analisi dei dati in Amazon S3 con query SQL standard. Athena è serverless, per cui non c'è un'infrastruttura da installare o gestire ed è quindi possibile iniziare immediatamente ad analizzare i dati. Non è neppure necessario caricare i dati in Athena poiché funziona direttamente con i dati memorizzati in qualsiasi classe di S3. Per iniziare è sufficiente accedere alla console di gestione di Athena, definire gli schemi e cominciare a eseguire le query. Amazon Athena usa Presto con il supporto SQL standard completo e funziona con numerosi formati standard di dati, tra cui CSV, JSON, ORC, Apache Parquet e Avro. L'uso ideale di Athena è la creazione di query veloci ad hoc; il servizio si integra con Amazon QuickSight per dare vita a visualizzazioni semplificate, ma è anche in grado di gestire analisi complesse, inclusi join di grandi dimensioni, funzioni finestra e array.

D: cos'è Amazon Redshift Spectrum?

Amazon Redshift Spectrum è una caratteristica di Amazon Redshift che permette di eseguire query su exabyte di dati non strutturati in Amazon S3 senza dover caricare o trasformare i dati. Quando viene inoltrata, la query raggiunge l'endpoint SQL di Amazon Redshift, il quale genera e ottimizza un piano di query. Amazon Redshift determinerà quindi quali dati si trovano in locale e quali in Amazon S3, genererà un piano per ridurre al minimo i dati che è necessario leggere in Amazon S3 e richiederà a specifiche risorse condivise di un pool di Amazon Redshift Spectrum la lettura e l'elaborazione dei dati da Amazon S3.

Redshift Spectrum, se necessario, effettuerà il provisioning di migliaia di istanze, perciò le query saranno rapide indipendentemente dalle dimensioni. Inoltre, è possibile utilizzare con Amazon S3 la stessa sintassi SQL utilizzata per le query in Amazon Redshift, collegando lo stesso endpoint di Amazon Redshift agli strumenti di business intelligence esistenti. Redshift Spectrum permette di separare le funzioni di storage e di elaborazione, perciò è possibile ricalibrarne le risorse separatamente. È possibile impostare tutti i cluster Amazon Redshift necessari per interrogare i data lake Amazon S3 fornendo disponibilità elevata ed esecuzioni simultanee illimitate. Redshift Spectrum offre la libertà di memorizzare i dati dove è più conveniente e nel formato desiderato senza sacrificare le possibilità di elaborazione.

Notifiche di eventi

D: cosa sono le notifiche di eventi di Amazon S3?

Le notifiche di eventi di Amazon S3 vengono inviate in risposta ad azioni predefinite in Amazon S3, quali richieste PUT, POST, COPY o DELETE. I messaggi possono essere inviati tramite Amazon SNS, Amazon SQS, oppure direttamente su AWS Lambda.

D: cosa è possibile fare con le notifiche di eventi di Amazon S3?

Le notifiche di eventi di Amazon S3 consentono di eseguire flussi di lavoro, inviare allarmi o eseguire altre azioni in risposta a modifiche negli oggetti salvati in Amazon S3. È possibile utilizzare le notifiche eventi di S3 per configurare trigger per eseguire azioni quali la transcodifica di file multimediali durante il caricamento, l'elaborazione di file di dati non appena risultano disponibili e la sincronizzazione di oggetti S3 con altri datastore. È anche possibile configurare le notifiche eventi in base ai prefissi e ai suffissi del nome dell'oggetto. Ad esempio, è possibile scegliere di ricevere notifiche sui nomi di oggetto che iniziano con "images/".

D: Quali informazioni sono incluse nelle notifiche di eventi di Amazon S3?

Per una descrizione dettagliata delle informazioni incluse nei messaggi di notifica di eventi di Amazon S3, consulta la sezione Configurare le notifiche degli eventi di Amazon S3 nella Guida per sviluppatori di Amazon S3.

D: in che modo è possibile impostare le notifiche di eventi di Amazon S3

Per istruzioni dettagliate su come configurare le notifiche di eventi in Amazon S3, consulta la sezione Configurare le notifiche degli eventi di Amazon S3 nella Guida per sviluppatori di Amazon S3. Per ulteriori informazioni sui servizi di messaggistica di AWS, consulta la documentazione di Amazon SNS e la documentazione di Amazon SQS.

D: quanto costa usare le notifiche di eventi di Amazon S3?

Non sono previsti costi aggiuntivi per l'uso delle notifiche di eventi di Amazon S3. Vengono addebitati solo i costi di invio dei messaggi di Amazon SNS o di Amazon SQS o i costi di esecuzione delle funzioni AWS Lambda. Consulta le pagine relative ai prezzi di Amazon SNS, Amazon SQS e AWS Lambda per ulteriori informazioni sulle relative tariffe.

Amazon S3 Transfer Acceleration

D: cos'è S3 Transfer Acceleration?

Amazon S3 Transfer Acceleration consente il trasferimento rapido, semplice e sicuro di file su lunga distanza tra il tuo client e il tuo bucket Amazon S3. S3 Transfer Acceleration sfrutta la rete di AWS Edge Location di Amazon CloudFront distribuite in tutto il mondo. Quando i dati raggiungono una AWS edge location, vengono instradati verso il bucket Amazon S3 selezionato seguendo un percorso di rete ottimizzato.

D::   come si inizia a usare S3 Transfer Acceleration?

Per iniziare a usare S3 Transfer Acceleration S3, abilita il servizio in un bucket S3 tramite la console o l'API di Amazon S3 oppure l'interfaccia a riga di comando di AWS. Una volta abilitata la S3 Transfer Acceleration, è possibile selezionare come destinazione delle richieste PUT e GET di Amazon S3 il nome di dominio dell'endpoint s3-accelerate. Il tipo di endpoint che l'applicazione di trasferimento dei dati deve utilizzare per accedere al bucket con una velocità di trasferimento superiore è uno dei seguenti: .s3-accelerate.amazonaws.com oppure .s3-accelerate.dualstack.amazonaws.com per un endpoint "dual stack". Se desideri utilizzare il trasferimento di dati standard, puoi continuare a utilizzare gli stessi endpoint.

Sono previste alcune restrizioni in relazione ai bucket compatibili con S3 Transfer Acceleration. Per ulteriori informazioni, consulta la Guida per sviluppatori di Amazon S3.

D: Quali velocità consente S3 Transfer Acceleration?

La funzione S3 Transfer Acceleration consente di sfruttare l'intera larghezza di banda, riducendo al minimo gli effetti della distanza sul throughput, ed è progettata per garantire trasferimenti di dati veloci e costanti verso Amazon S3 indipendentemente dalla posizione del client. L'accelerazione dipende dalla larghezza di banda disponibile, dalla distanza tra sorgente e destinazione e dal tasso di perdita dei pacchetti sul percorso di rete. In generale, l'accelerazione sarà più evidente quando la sorgente è più lontana dalla destinazione, quando la larghezza di banda disponibile è maggiore e/o quando le dimensioni degli oggetti trasferire sono superiori.

Uno dei nostri clienti ha registrato una riduzione del 50% al tempo medio di inoltro di 300 MB di file dalla propria base utenti globale distribuita tra Stati Uniti, Europa e Asia in un bucket nella regione Asia Pacifico (Sydney). Un altro cliente ha visto il trasferimento di dati migliorare di oltre il 500% per alcuni utenti nel Sud-est asiatico e in Australia che caricano 250 MB di file (in parti da 50 MB) in un bucket S3 nella regione Stati Uniti orientali (Virginia settentrionale).

Prova il nuovo strumento di confronto delle velocità per ottenere un'anteprima delle prestazioni di cui potrai beneficiare.

D: a chi è rivolta la funzione S3 Transfer Acceleration?

S3 Transfer Acceleration è una funzione progettata per ottimizzare le velocità di trasferimento dei dati in tutto il mondo verso bucket S3. Quando occorre caricare dati in un bucket centralizzato a partire da diverse posizioni distanti tra loro, oppure quando occorre spostare regolarmente GB o TB di dati tra continenti diversi, con questa funzione è possibile ridurre i tempi di trasferimento di ore o di giorni con S3 Transfer Acceleration.

D:   qual è il livello di sicurezza di S3 Transfer Acceleration?

S3 Transfer Acceleration fornisce lo stesso livello di sicurezza dei normali trasferimenti verso Amazon S3. Sono infatti supportate tutte le funzionalità di sicurezza di Amazon S3, ad esempio le restrizioni di accesso basate sull'indirizzo IP del client. S3 Transfer Acceleration comunica con i client tramite protocollo TCP standard e non richiede modifiche del firewall. I dati trasferiti non vengono salvati nelle AWS edge location.

D: Cosa succede se S3 Transfer Acceleration non migliora la velocità di trasferimento di Amazon S3l?

Ogni volta che usi S3 Transfer Acceleration per caricare un oggetto, verificheremo che il trasferimento sia effettivamente più rapido rispetto ai comuni trasferimenti in Amazon S3. Se risulta che il caricamento con S3 Transfer Acceleration non è più veloce rispetto al caricamento normale dello stesso oggetto verso la stessa destinazione con Amazon S3, non sarà addebitato alcun costo per il servizio e per tale trasferimento il sistema non sarà utilizzato.

D:     è possibile utilizzare la funzione S3 Transfer Acceleration con i caricamenti in più parti?

Sì, S3 Transfer Acceleration supporta tutte le caratteristiche a livello di bucket, incluso il caricamento in più parti.

D:     Quando è più conveniente scegliere S3 Transfer Acceleration o le richieste PUT/POST di Amazon CloudFront?

S3 Transfer Acceleration consente di ottimizzare il protocollo TCP e fornisce ulteriore intelligence tra il cliente e il bucket S3, perciò è una scelta migliore quando è necessario un maggiore throughput. Se gli oggetti o i set di dati da trasferire hanno dimensioni inferiori a 1 GB, ti consigliamo di impiegare i comandi PUT/POST di Amazon CloudFront per ottenere prestazioni ottimali.

D: quando è più conveniente scegliere S3 Transfer Acceleration o la famiglia di prodotti AWS Snow (Snowball, Snowball Edge e Snowmobile)?

La famiglia di prodotti AWS Snowball è una soluzione ideale per i clienti che devono trasferire grandi quantità di dati in una volta. AWS Snowball in genere richiede 5-7 giorni. Nello stesso periodo di tempo, S3 Transfer Acceleration è in grado di trasferire approssimativamente 75 TB di dati, se impiega completamente una linea da 1 Gb/s. In genere, se il trasferimento tramite Internet richiede più di una settimana, oppure se i processi di trasferimento sono ricorrenti e la larghezza di banda disponibile è superiore a 25 Mb/s, S3 Transfer Acceleration è l'opzione ideale. È anche possibile utilizzare entrambi i servizi: il trasferimento iniziale con la maggior parte dei dati può essere effettuato con AWS Snowball (una o più appliance), mentre i trasferimenti incrementali contenenti le modifiche possono essere eseguiti con S3 Transfer Acceleration.

D:       è possibile utilizzare S3 Transfer Acceleration in sinergia con AWS Direct Connect?

AWS Direct Connect è una soluzione ideale per i clienti che necessitano di una rete privata o che hanno accesso al traffico di AWS Direct Connect. S3 Transfer Acceleration è invece più utile per inoltrare dati da client sparsi in diverse posizioni su connessioni Internet pubbliche, oppure quando il throughput è inficiato da condizioni di rete variabili. Alcuni clienti di AWS Direct Connect si avvalgono di S3 Transfer Acceleration per velocizzare i trasferimenti di dati da filiali remote, dove la connessione Internet potrebbe essere rallentata.

D:       È possibile utilizzare S3 Transfer Acceleration in sinergia con AWS Storage Gateway o gateway di terze parti?

Se puoi configurare la destinazione di bucket nel gateway di terze parti in modo che utilizzi un nome di dominio di endpoint S3 Transfer Acceleration, potrai notarne i vantaggi.

Consulta la sezione File delle Domande frequenti su Storage Gateway per ulteriori informazioni sull'implementazione di AWS.

D:      è possibile utilizzare S3 Transfer Acceleration in sinergia con software integrati di terze parti?

Sì. I pacchetti software che si connettono direttamente in Amazon S3 possono utilizzare S3 Transfer Acceleration quando inoltrano processi in Amazon S3.

Ulteriori informazioni sulle soluzioni dei partner di storage »

D:       S3 Transfer Acceleration è soggetto alla normativa HIPAA?

Sì, AWS ha esteso il proprio programma di conformità agli standard HIPAA in modo da includere Amazon S3 Transfer Acceleration. Se disponi di un BAA (Business Associate Agreement) con AWS, puoi utilizzare Amazon S3 Transfer Acceleration per trasferire i dati in modo rapido, facile e sicuro, incluse le informazioni sanitarie protette su grandi distanze tra il client e il bucket Amazon S3.

Ulteriori informazioni sulla conformità alla normativa HIPAA »

Gestione dello storage

Applicazione di tag agli oggetti S3

D: che cosa sono i tag di oggetti S3?

I tag di oggetti S3 sono coppie chiave-valore applicate a oggetti S3 che possono essere create, aggiornate o eliminate in qualunque momento durante il ciclo di vita dell'oggetto. Essi consentono di creare policy di Identity and Access Management (IAM), configurare policy di ciclo di vita S3 e personalizzare parametri di storage. Questi tag a livello di oggetto possono in seguito gestire trasferimenti fra classi di storage e oggetti a scadenza in background.

D: Come si applicano i tag agli oggetti?

Si possono aggiungere tag a nuovi oggetti quando vengono caricati oppure aggiungerli a oggetti esistenti. A ciascun oggetto S3 possono essere aggiunti fino a dieci tag e per farlo si possono usare la Console di gestione AWS, l'API REST, l'interfaccia a riga di comando di AWS o gli SDK AWS.

D: qual è il vantaggio di utilizzare i tag di oggetti?

I tag di oggetti sono uno strumento che può essere utilizzato per gestire in modo semplice lo storage S3. Grazie alla possibilità di creare, aggiornare ed eliminare tag in qualunque momento durante la durata di vita dell'oggetto, lo storage può adattarsi alle necessità della tua attività. Questi tag permettono di controllare l'accesso a oggetti che contengono tag con coppie chiave-valore specifiche, consentendo una maggiore protezione dei dati confidenziali per un gruppo o un utente selezionato. I tag degli oggetti possono essere utilizzati anche per etichettare gli oggetti appartenenti a un progetto specifico o a una business unit e possono essere utilizzati in combinazione con le policy del ciclo di vita di S3 per gestire le transizioni verso altre classi di storage (S3 Standard-IA, S3 One Zone-IA e S3 Glacier) o con la replica tra regioni S3 per replicare i dati selettivamente tra regioni AWS.

D: Come si aggiornano i tag di oggetti?

I tag di oggetti possono essere modificati in qualunque momento durante il ciclo di vita di un oggetto S3, tramite la Console di gestione AWS, l'API REST, l'interfaccia a riga di comando di AWS o i kit SDK AWS. Le modifiche effettuate sui tag al di fuori della Console di gestione AWS vengono effettuate sull'intero gruppo di tag. Se hai cinque tag collegati a un oggetto particolare e ne vuoi aggiungere un sesto, devi includere i cinque tag originali nella richiesta.

D: è prevista la replica dei tag di oggetti quando è in uso la replica in più regioni?

I tag di oggetti possono essere replicati in diverse regioni AWS utilizzando la funzionalità di replica in più regioni. Per i clienti già abilitati alla replica in più regioni, sono necessari nuovi permessi per la replica dei tag. Per ulteriori informazioni sulla configurazione della replica in più regioni, consulta Impostare la replica tra più regioni nella Guida per sviluppatori di Amazon S3.

D: quanto costano i tag di oggetti?

Il costo dei tag di oggetti è calcolato in base alla quantità di tag impiegati e ai costi delle richieste necessarie per aggiungerli. Il costo delle richieste necessarie per aggiungere e aggiornare i tag di oggetti dipende dalle tariffe correnti delle richieste. Per ulteriori informazioni, consulta la pagina dei prezzi di Amazon S3.

Storage Class Analysis

D: cos'è Storage Class Analysis?

Con Storage Class Analysis è possibile analizzare i modelli di accesso allo storage e trasferire i dati nella classe di storage più idonea. Questa nuova caratteristica di S3 rileva automaticamente la frequenza di accesso ai dati per facilitarne il trasferimento nella classe S3 Standard-IA. È possibile configurare una policy per monitorare l'intero bucket, un prefisso o il tag di un oggetto. Quando vengono individuati dati a cui l'accesso è meno frequente, è possibile creare un'apposita policy sul ciclo di vita di S3. Questa funzione illustra inoltre quotidianamente l'utilizzo dello storage sulla Console di gestione AWS; sulla base di queste informazioni, è possibile esportare i dati in un bucket S3 per analisi di business intelligence, ad esempio con Amazon QuickSight.

D:   come si inizia a usare Storage Class Analysis?

Puoi utilizzare la Console di gestione AWS o l'API PUT Bucket Analytics di S3 per configurare una policy di analisi della classe di storage e identificare quindi gli storage con accessi non frequenti che possono essere trasferiti nelle classi di storage S3 Standard-IA o S3 One Zone-IA o archiviati nella classe di storage S3 Glacier. Apri la scheda "Management" nella console di S3 per gestire i parametri di Storage Class Analysis, S3 Inventory e S3 CloudWatch.

D: quali costi vengono addebitati per l'uso di Storage Class Analysis?

Consulta la pagina dei prezzi di Amazon S3 per informazioni generali sulle tariffe di Storage Class Analysis.

D:   con quale frequenza avvengono gli aggiornamenti di Storage Class Analysis?

Storage Class Analysis viene aggiornato quotidianamente nella console di gestione di S3. Inoltre, è possibile configurare Storage Class Analysis in modo che esporti il report in un bucket S3 specifico.

S3 Inventory

D: cos'è S3 Inventory?

S3 Inventory costituisce un'alternativa pianificata all'API List sincrona di Amazon S3. S3 Inventory può essere configurato per generare giornalmente o settimanalmente un output di file CSV, , ORC o Parquet dei tuoi oggetti e dei metadati corrispondenti per un prefisso o bucket S3. L'utilizzo di S3 Inventory consente di semplificare e accelerare i flussi di lavoro aziendali e le attività di Big Data. S3 Inventory può inoltre essere impiegato per verificare la crittografia e lo stato di replica degli oggetti e soddisfare le esigenze aziendali e di conformità alle normative. 

D:  come si inizia a usare S3 Inventory?

È possibile utilizzare la Console di gestione AWS o l'API PUT Bucket Inventory per configurare un inventario giornaliero o settimanale di tutti gli oggetti in un bucket S3 o di un sottoinsieme di oggetti sotto un prefisso condiviso. Durante la fase di configurazione, puoi specificare un bucket S3 di destinazione per il report S3 Inventory, il formato del file di output (CSV, ORC o Parquet) e i metadati specifici di oggetto necessari all'applicazione aziendale, ad esempio nome, dimensioni, data dell'ultima modifica, classe di storage, ID della versione, contrassegno di eliminazione, contrassegno di versione non corrente, contrassegno di caricamento in più parti, stato di replica o stato di crittografia dell'oggetto.

D: è possibile crittografare i file del report S3 Inventory?

Sì, è possibile configurare la crittografia tramite la tecnologia SSE S3 o SSE-KMS su tutti i file scritti da S3 Inventory. Per ulteriori informazioni, fai riferimento alla guida per l'utente.

D: come si usa S3 Inventory?

S3 Inventory può essere utilizzato come input diretto nei flussi di lavoro delle applicazioni o nei processi relativi ai Big Data. È anche possibile eseguire query in S3 Inventory tramite SQL standard con Amazon Athena, Amazon Redshift Spectrum e altri strumenti quali Presto, Hive e Spark.

Ulteriori informazioni su come eseguire query in S3 Inventory con Athena »

D: come viene fatturato l'utilizzo di S3 Inventory?

Consulta la pagina dei prezzi di Amazon S3 per informazioni sulle tariffe di S3 Inventory. Per la crittografia con SSE-KMS, vengono addebitate le tariffe standard di AWS KMS. Per ulteriori dettagli, consulta la pagina dei prezzi di KMS.

Operazioni S3 in batch

D: Cos'è S3 Batch Operations?

S3 Batch Operations è una funzionalità che i clienti possono utilizzare per automatizzare l'esecuzione, la gestione e il controllo di richieste API S3 specifiche o di funzioni AWS Lambda tra i molti oggetti archiviati in Amazon S3 a qualsiasi livello. I clienti possono utilizzare S3 Batch Operations per automatizzare la sostituzione di set di tag su oggetti S3, l'aggiornamento delle liste di controllo accessi (ACL) per gli oggetti S3, la copia di oggetti tra bucket, l'avvio di un ripristino da Amazon Glacier in altre classi di storage S3 o l'esecuzione di operazioni personalizzate con le funzioni AWS Lambda.

Con S3 Batch Operations puoi modificare miliardi di oggetti senza dover scrivere codici di applicazione personalizzati o eseguire cluster di calcolo per le applicazioni di gestione dello storage: sono sufficienti pochi clic sulla Console di gestione S3 o una singola richiesta API. Oltre a gestire le operazioni di storage tra più oggetti, S3 Batch Operations gestisce nuovi tentativi, monitora i progressi, invia le notifiche, genera report di completamento e invia eventi ad AWS CloudTrail per tutte le operazioni effettuate sugli oggetti di destinazione. S3 Batch Operations può essere utilizzato dalla Console di gestione S3 o mediante l'SDK e la CLI di AWS. Registrati all'anteprima di S3 Batch Operations qui.

D: In che modo è possibile utilizzare S3 Batch Operations?

Puoi iniziare a utilizzare S3 Batch Operations tramite la Console di gestione S3 o mediante l'SDK o la CLI di AWS per creare il primo processo S3 Batch Operations. Un processo S3 Batch Operations è costituito dall'elenco degli oggetti di destinazione su cui agire e dal tipo di operazione da eseguire. Inizia selezionando un report S3 Inventory o fornendo un elenco personalizzato di oggetti di destinazione su cui agirà S3 Batch Operations. Un report S3 Inventory è un file che elenca tutti gli oggetti archiviati in un prefisso o bucket S3. Quindi, scegli tra una serie di operazioni supportate da S3 Batch Operations, ad esempio la sostituzione di set di tag, la modifica delle ACL, la copia dello storage da un bucket a un altro o l'avvio del ripristino da S3 Glacier ad altre classi di storage S3. Quindi, puoi personalizzare i processi S3 Batch Operations con parametri specifici quali, ad esempio, valori tag, garanzie ACL o durata del ripristino. Per personalizzare ulteriormente le operazioni di storage, puoi scrivere una funzione AWS Lambda e richiamare il codice con S3 Batch Operations.

Una volta creato, il processo S3 Batch Operations elaborerà l'elenco di oggetti, attenderà conferma (azione facoltativa), quindi inizierà a eseguire l'operazione specificata. Puoi visualizzare l'avanzamento del processo in modo programmatico o tramite la console S3, ricevere notifiche al completamento e rivedere il report di completamento che elenca in dettaglio le modifiche apportate allo storage. Per ulteriori informazioni su S3 Batch Operations, consulta la pagina delle caratteristiche di Amazon S3.

D: In che modo è possibile gestire i processi S3 Batch Operations? Come è possibile definirne le priorità?  

I processi S3 Batch Operations possono essere gestiti tramite la Console di gestione S3 o mediante gli SDK, la CLI o le API di AWS. Selezionando una regione AWS nella console o utilizzando la richiesta ListJobs, potrai visualizzare l'elenco dei processi (fino a 1000 per richiesta) in ogni regione AWS filtrato per stato del processo. Puoi utilizzare questi elenchi per visualizzare i processi attivi, completati o in attesa di essere eseguiti. Se uno dei processi è più importante o più urgente degli altri, puoi aggiornare la priorità a un livello più alto per renderne prioritaria l'esecuzione. Per annullare uno dei processi, utilizza la richiesta CancelJob o seleziona il processo e fai clic su “Cancel (Annulla)” nella console.

Per visualizzare l'avanzamento di uno qualsiasi dei processi attivi, utilizza la richiesta DescribeJob o fai clic sul processo tramite la Console di gestione S3. Una volta selezionato il processo, potrai vederne lo stato, il numero delle operazioni riuscite, il numero delle operazioni con errori, il numero delle operazioni restanti e la percentuale di completamento. Puoi anche utilizzare le notifiche per monitorare l'inizio e il completamento dei processi.

S3 Object Lock

D: Cos'è Amazon S3 Object Lock?

Amazon S3 Object Lock è una nuova funzionalità di Amazon S3 che blocca l'eliminazione della versione degli oggetti durante un periodo di conservazione definito dal cliente, consentendoti di applicare policy di conservazione come un livello aggiuntivo di protezione dei dati o la conformità normativa. Puoi migrare i carichi di lavoro dai sistemi WORM (Write-Once-Read-Many) esistenti in Amazon S3 e configurare S3 Object Lock a livello di oggetto e di bucket per prevenire l'eliminazione della versione degli oggetti prima della data di fine conservazione o della data di conservazione a fini legali predefinita. La protezione S3 Object Lock viene mantenuta indipendentemente dalla classe di storage in cui risiede l'oggetto e tramite le transizioni di S3 Lifecycle tra le classi di storage.

D: Qual è il vantaggio di utilizzare Amazon S3 Object Lock?

È necessario utilizzare S3 Object Lock se i requisiti normativi specificano che i dati devono essere protetti da WORM o se vuoi aggiungere un ulteriore livello di protezione ai dati in Amazon S3. S3 Object Lock può aiutarti a soddisfare i requisiti normativi secondo i quali i dati devono essere archiviati in un formato non modificabile, nonché a proteggere i dati da eliminazioni accidentali o malevoli in Amazon S3.

D: Come funziona Amazon S3 Object Lock?

Amazon S3 Object Lock blocca l'eliminazione di un oggetto per la durata di un periodo di conservazione specificato. Se associato alla funzione Versioni multiple S3, che protegge gli oggetti dalla sovrascrittura, consente di garantire che gli oggetti resteranno immutati finché sarà applicata la protezione WORM. È possibile applicare la protezione WORM assegnando la data di fine conservazione o la data di conservazione a fini legali a un oggetto, utilizzando la Console di gestione S3, l'API REST, la CLI o l'SDK di AWS. È possibile applicare le impostazioni di conservazione in una richiesta PUT o applicarle a un oggetto esistente dopo averlo creato.

La data di fine conservazione definisce il periodo di tempo durante il quale un oggetto non sarà modificabile. Se all'oggetto è stata assegnata una data di fine conservazione, questo non potrà essere modificato o eliminato fino allo scadere della data indicata. Se un utente cerca di eliminare un oggetto prima che sia trascorsa la data di fine conservazione, l'operazione non sarà consentita.

Per configurare S3 Object Lock è possibile scegliere tra due diverse modalità. Se distribuiti in modalità di governance, gli account AWS con autorizzazioni IAM specifiche sono in grado di rimuovere la protezione WORM da un oggetto. Se hai bisogno di un periodo di non modificabilità più lungo per conformità alle normative, puoi utilizzare la modalità di conformità. In modalità di conformità, la protezione WORM non può essere rimossa da nessun utente, neppure dall'account root.

In alternativa, puoi rendere un oggetto non modificabile applicando la conservazione a fini legali. La conservazione a fini legali pone una protezione S3 Object Lock indefinita su un oggetto, che rimane finché non viene esplicitamente rimossa. Per applicare o rimuovere la conservazione a fini legali, l'account AWS deve avere l'autorizzazione in scrittura per l'operazione PutObjectLegalHold. La conservazione a fini legali può essere applicata a qualsiasi oggetto in un bucket abilitato S3 Object Lock, indipendentemente dal fatto che l'oggetto sia protetto da WORM tramite un periodo di conservazione.

D: Quali servizi di storage elettronico di AWS hanno ricevuto valutazioni secondo le normative rivolte ai servizi finanziari?

Per i clienti che operano nel settore dei servizi finanziari, S3 Object Lock offre supporto ulteriore a broker e dealer che hanno bisogno di conservare i record in un formato non cancellabile e non riscrivibile, in conformità ai requisiti della Rule 17a-4(f) della SEC, della Rule 4511 della FINRA o della Regulation 1.31 CFTC. È facile impostare il tempo di conservazione dei record per mantenere gli archivi regolamentati nel formato originale per la durata richiesta, nonché applicare i vincoli di legge alla conservazione dei dati per un tempo indeterminato fino a quando tale vincolo non viene rimosso.

D: Quali sono i documenti di AWS a supporto dei requisiti per SEC 17a-4(f)(2)(i) e CFTC 1.31(c) per inviare notifiche all'autorità normativa?

È possibile comunicare all'autorità normativa oppure all'autorità di verifica designata (DEA, Designated Examining Authority) l'utilizzo di Amazon S3 per lo storage elettronico insieme a una copia del Cohasset Assessment. Ai fini della valutazione dei requisiti, AWS non è considerato una terza parte designata (D3P). Nella notifica alla DEA è necessario includere una D3P.

Parametri di S3 CloudWatch

D: come si inizia a usare i parametri di S3 CloudWatch?

Per abilitare la generazione di parametri di CloudWatch di 1 minuto per il tuo bucket S3 o configurare filtri per i parametri con un prefisso o un tag di oggetto, puoi utilizzare la Console di gestione AWS. In alternativa, è possibile richiamare l'API PUT Bucket Metrics di S3 per abilitare e configurare la pubblicazione dei parametri di storage S3. I parametri delle richieste di CloudWatch saranno disponibili in CloudWatch entro 15 minuti dall'attivazione. I parametri di storage di CloudWatch vengono abilitati di default per tutti i bucket e viene creato un report ogni giorno.

D:  è possibile allineare i parametri di storage ad applicazioni o organizzazioni aziendali?

Sì, è possibile configurare i parametri di S3 CloudWatch in modo che generino parametri per il bucket S3 o configurare filtri per i parametri in base a prefissi o tag di oggetti.

D: quali avvisi è possibile configurare per i parametri di storage?

È possibile utilizzare CloudWatch per stabilire soglie per qualsiasi conteggio, timer o velocità dei parametri di storage e avviare un'operazione quando tale soglia viene superata. Ad esempio, è possibile stabilire una soglia sulla percentuale di risposte di errori di tipo 4xx; quando almeno 3 punti dati sono al di sopra della soglia, si attiva un allarme di CloudWatch per avvisare un ingegnere DevOps.

D: Quali costi vengono addebitati per l'uso dei parametri di S3 CloudWatch? 

I parametri di storage di CloudWatch sono gratuiti. I parametri delle richieste CloudWatch vengono addebitati come parametri personalizzati per Amazon CloudWatch. Consulta la pagina dei prezzi di Amazon CloudWatch per ulteriori informazioni sulle tariffe dei parametri di S3 CloudWatch.

Gestione del ciclo di vita di S3

D: cos'è la gestione del ciclo di vita di S3?

Con S3 è possibile definire il ciclo di vita degli oggetti con policy predefinite, diminuendo così il costo dello storage. È possibile configurare una policy di trasferimento basata sul ciclo di vita per eseguire automaticamente la migrazione di oggetti dalla classe di storage S3 Standard alle classi S3 Standard-IA, S3 One Zone-IA e/o S3 Glacier in base alla data di creazione dei dati. È anche possibile impostare policy di scadenza del ciclo di vita per rimuovere automaticamente oggetti a seconda della loro età. Ad esempio, una policy può determinare la scadenza di un caricamento in più parti a seconda del momento del ciclo di vita del caricamento.

D: come si imposta una policy di gestione del ciclo di vita di S3?

È possibile impostare e gestire le policy di ciclo di vita tramite la Console di gestione AWS, l'API REST di S3, i kit SDK AWS e l'interfaccia a riga di comando di AWS. La policy può essere specificata a livello di prefisso o a livello di bucket.

D: quanto costa usare la gestione del ciclo di vita di S3?

L'impostazione e l'applicazione di policy sul ciclo di vita non prevedono alcun costo. Vengono fatturate le richieste di transizione per ogni oggetto quando un oggetto diviene idoneo al trasferimento in base alla regola del ciclo di vita. Consulta la pagina dei prezzi di S3 per informazioni sui costi.

D: cosa è possibile fare con le policy di gestione del ciclo di vita di S3?

Con il passare del tempo, i dati perdono di importanza e a volte devono rispettare determinati requisiti di conformità. Amazon S3 include un'ampia libreria di policy per semplificare l'automazione dei processi di migrazione dei dati da una classe di storage a un'altra. Ad esempio, è possibile stabilire che gli oggetti a cui si accede con minore frequenza vengano trasferiti in classi di storage più economiche (come S3 Standard-IA e S3 One Zone-IA) dopo un determinato periodo di tempo. Dopo un ulteriore intervallo di tempo, tali oggetti possono essere spostati in Amazon S3 Glacier per fini di archiviazione e di conformità. Dove applicabile, sarà possibile anche specificare una policy sul ciclo di vita per l'eliminazione degli oggetti. Tutte queste regole contribuiscono a ridurre i costi dello storage e semplificare la gestione. Le policy, inoltre, includono pratiche di amministrazione per rimuovere oggetti e attributi che non sono più necessari, in modo da tenere sotto controllo i costi e ottimizzare le prestazioni.

D: come è possibile utilizzare la gestione del ciclo di vita di Amazon S3 per contribuire a ridurre i costi di storage?

Con le policy sul ciclo di vita di Amazon S3, è possibile predisporre la migrazione degli oggetti dalla classe di storage S3 Standard alle classi S3 Standard-IA o S3 One Zone-IA e/o l'archiviazione in S3 Glacier. È anche possibile configurare una policy di gestione del ciclo di vita di S3 con cui eliminare gli oggetti dopo un determinato periodo di tempo. Queste funzioni di automazione basate su policy rappresentano un modo rapido e veloce per ridurre i costi di storage e per risparmiare tempo. Per ciascuna regola è possibile specificare un prefisso, un periodo di tempo, unl trasferimento nelle classi S3 Standard-IA, S3 One Zone-IA e S3 Glacier e/o una scadenza. Ad esempio, puoi creare una regola che determini l'archiviazione in S3 Glacier di tutti gli oggetti con prefisso "logs/" 30 giorni dopo la loro creazione e la scadenza 365 giorni dopo la creazione. È anche possibile creare una regola a parte che determini la scadenza di tutti gli oggetti con prefisso "backup/" 90 giorni dopo la creazione. Le policy sul ciclo di vita di S3 si applicano agli oggetti S3 sia nuovi sia esistenti e consentono quindi di ottimizzare lo storage il risparmio per tutti i dati archiviati in S3 senza lunghe e onerose procedure manuali di revisione e migrazione dei dati. In una regola del ciclo di vita, gli oggetti ai quali essa va applicata sono identificati dal prefisso. Per applicare la regola a un singolo oggetto, occorre specificare il nome chiave. Per applicare la regola a un set di oggetti, occorre specificare il loro prefisso comune (ad esempio "log/"). È possibile impostare un'azione di transizione per archiviare gli oggetti e un'azione di scadenza per rimuoverli. Per il periodo di tempo, specificare la data di creazione (ad esempio 31 gennaio 2015) oppure il numero di giorni dalla data di creazione (ad esempio 30 giorni), trascorso il quale si desidera che gli oggetti vengano archiviati o rimossi. È possibile creare più regole per diversi prefissi.

D: come si configurano gli oggetti in modo che vengano eliminati dopo un determinato periodo di tempo?

Per rimuovere gli oggetti dai bucket dopo un dato numero di giorni, è possibile creare una policy di scadenza del ciclo di vita di S3. Le regole di scadenza di un set di oggetti del bucket si definiscono mediante la policy di configurazione del ciclo di vita applicata al bucket stesso.

Ulteriori informazioni sulle policy di scadenza del ciclo di vita di S3 »

D: qual è il vantaggio di usare una policy sul ciclo di vita per far scadere caricamenti in più parti non completati?

Una policy sul ciclo di vita di S3 che consente di far scadere i caricamenti in più parti non completati permette di risparmiare sui costi determinando la durata di conservazione massima dei dati di tali caricamenti. Ad esempio, se l'applicazione in uso carica diverse porzioni di un oggetto diviso in più parti ma non ne esegue il commit, verranno addebitati i costi di storage relativi a tali porzioni inutilizzate. Questa policy consente di ridurre le spese per S3 rimuovendo automaticamente i caricamenti in più parti non completati e lo storage ad essi correlato dopo un numero di giorni predefinito.

Ulteriori informazioni su come usare la gestione del ciclo di vita di S3 per la scadenza di caricamenti in più parti non completati »

Replica in più regioni

D: Cos'è la replica in più regioni o CRR (Cross-Region Replication) di Amazon S3?

CRR è una funzionalità di Amazon S3 che consente di replicare automaticamente i dati tra le regioni AWS. Con CRR, è possibile configurare una replica a livello di bucket, un livello di prefisso condiviso o un livello di oggetto utilizzando i tag dell'oggetto S3. CRR può essere impiegato per fornire accesso a latenza ridotta in aree geografiche differenti. Inoltre, CRR può risultare utile per soddisfare requisiti di conformità che richiedono di salvare copie dei propri dati a migliaia di chilometri di distanza.

D: Come si abilita la replica in più regioni?

La replica in più regioni va configurata a livello di bucket S3. Per abilitarla in un bucket sorgente, è necessario specificare un bucket di destinazione per la replica in una regione differente. La funzione CRR può essere attivata tramite la Console di gestione AWS, l'API REST, l'interfaccia a riga di comando di AWS oppure il kit SDK AWS. Per abilitare la replica in più regioni, la funzione Versioni multiple deve essere attivata sia per i bucket di origine sia per quelli di destinazione. Per ulteriori informazioni, consulta la sezione Impostare la replica tra più regioni nella Guida per sviluppatori di Amazon S3.

D: è possibile usare la replica in più regioni con le regole del ciclo di vita?

Sì, è possibile configurare regole del ciclo di vita di S3 separate per il bucket sorgente e il bucket di destinazione. Ad esempio, una regola del ciclo di vita può stabilire la migrazione dei dati dalla classe di storage S3 Standard alle classi S3 Standard-IA o S3 One Zone-IA oppure l'archiviazione in S3 Glacier nel bucket di destinazione.

Ora puoi stabilire regole di replica tra regioni S3 per effettuare copie dirette di dati nella classe di storage S3 Glacier in una regione differente per scopi di backup o altri obiettivi, senza dover gestire policy sul ciclo di vita dei dati.

D: è possibile utilizzare la replica in più regioni con gli oggetti crittografati tramite AWS Key Management Service (KMS)?

Sì, è possibile replicare gli oggetti crittografati con KMS fornendo la chiave KMS di destinazione nella configurazione.

Ulteriori informazioni sulla replica di oggetti crittografati tramite KMS »

D: gli oggetti trasferiti sono mantenuti al sicuro e crittografati durante tutto il processo di replica?

Sì, gli oggetti rimangono crittografati durante l'intero processo di replica in più regioni. Gli oggetti crittografati vengono trasmessi dalla regione di origine a quella di destinazione utilizzando il protocollo SSL.

D: è possibile usare la replica in più regioni su diversi account AWS per un maggiore protezione da malintenzionati ed eliminazioni accidentali?

Sì, è possibile impostare la replica in più regioni su diversi account AWS per memorizzare i dati replicati in un account differente nella regione di destinazione. È possibile impiegare il comando CCR Ownership Overwrite nella configurazione della replica per mantenere stack di proprietà distinti tra origine e destinazione e assegnare la proprietà dello storage replicato all'account di destinazione. 

D: quanto costa utilizzare la replica in più regioni di S3?

I costi della funzione sono calcolati in base alle tariffe di storage di Amazon S3 (per la precisione, della classe di storage specifica), delle richieste COPY e di trasferimento dei dati tra regioni diverse per le copie replicate dei dati. I costi di richieste COPY e trasferimento di dati tra regioni diverse sono addebitati in base alla regione di origine. I costi dello storage per i dati replicati sono addebitati in base alla regione di destinazione. Per ulteriori informazioni, consulta la pagina dei prezzi di S3.

Se l'oggetto sorgente viene caricato tramite la funzione di caricamento in più parti, la replica avviene con lo stesso numero di parti e ogni parte avrà le stesse dimensioni. Ad esempio, su un oggetto da 100 GB caricato tramite la funzione di caricamento in più parti (800 parti da 128 MB ciascuna) vengono applicati, in caso di replica, i costi di richiesta associati alle 802 richieste (800 richieste per il caricamento delle parti + 1 richiesta Initiate Multipart Upload + 1 richiesta Complete Multipart Upload). Saranno perciò addebitati 0,00401 USD (802 richieste * 0,005 USD ogni 1.000 richieste) e 2 USD (0,020 USD per GB trasferito * 100 GB) per il trasferimento tra regioni. Dopo la replica, sui 100 GB di dati saranno applicate le tariffe di storage previste dalla regione di destinazione.

Amazon S3 e IPv6

D: cosa si intende per IPv6?

Tutti i server e i dispositivi connessi a Internet devono avere un indirizzo univoco. Lo schema di indirizzamento originale a 32 bit era l'Intel Protocol Version 4 (IPv4). La crescita esponenziale di Internet, tuttavia, in futuro saturerà tutti gli indirizzi IPv4 disponibili. Per questo è stato introdotto il protocollo IPv6, che supererà le limitazioni di assegnazione di indirizzi del protocollo IPv4.

D: cosa è possibile fare con IPv6?

Con il supporto di Amazon S3 per IPv6, le applicazioni possono connettersi ad Amazon S3 senza software o sistemi di conversione degli indirizzi IPv4 o IPv6. In questo modo è più semplice soddisfare i requisiti di conformità, eseguire l'integrazione con applicazioni basate su IPv6 esistenti in locale ed evitare l'acquisto di costose apparecchiature di rete per gestire la conversione degli indirizzi. Ora è anche possibile utilizzare le caratteristiche di filtro dell'indirizzo sorgente esistente in policy di IAM e di bucket con indirizzi IPv6, ampliando le opzioni per proteggere le applicazioni che interagiscono con Amazon S3.

D: in che modo è possibile iniziare a usare il protocollo IPv6 in Amazon S3?

È possibile iniziare indirizzando l'applicazione verso il nuovo endpoint "dual stack" di Amazon S3, che supporta l'accesso tramite sia IPv4 sia IPv6. Nella maggior parte di casi non è necessario procedere ad alcuna configurazione aggiuntiva per accedere su IPv6, perché in molti client di rete il protocollo IPv6 è quello predefinito.

D: le prestazioni di Amazon S3 sono differenti utilizzando il protocollo IPv6?

No, le prestazioni di Amazon S3 sono identiche qualunque protocollo sia in uso, IPv4 o IPv6.

D: quale procedura occorre seguire se i client incorrono in restrizioni di policy, rete o altro tipo utilizzando il protocollo IPv6 per Amazon S3?

Le applicazioni che riscontrano problemi utilizzando IPv6 possono tornare a collegarsi ad endpoint solo IPv4 in qualsiasi momento.

D: è possibile usare il protocollo IPv6 con tutte le caratteristiche di Amazon S3?

No, il protocollo IPv6 non è disponibile con hosting di siti Web e accesso tramite BitTorrent. Tutte le altre caratteristiche funzionano come previsto anche accedendo ad Amazon S3 tramite IPv6.

D: Il protocollo IPv6 è supportato in tutte le regioni AWS?

Il protocollo IPv6 può essere impiegato con Amazon S3 in tutte le regioni commerciali AWS tranne Cina (Pechino). È disponibile anche nella regione AWS GovCloud (Stati Uniti).

Sei pronto per iniziare?

Product-Page_Standard-Icons_01_Product-Features_SqInk
Scopri le caratteristiche del prodotto

Ulteriori informazioni sulle funzionalità per la gestione dei dati, la sicurezza, la gestione degli accessi, l'analisi e altro.

Ulteriori informazioni 
Product-Page_Standard-Icons_02_Sign-Up_SqInk
Registrati per creare un account gratuito

Ottieni l'accesso al piano gratuito di AWS e inizia a sperimentare Amazon S3. 

Registrati 
Product-Page_Standard-Icons_03_Start-Building_SqInk
Inizia subito nella console

Inizia a lavorare con Amazon S3 nella Console AWS.

Inizia