Cloud AWS
Cloud AWS
Richiedi la prova gratuita

Amazon Redshift è una soluzione di data warehousing performante e completamente gestita che semplifica e riduce i costi dell'analisi di dati utilizzando SQL standard e gli strumenti di business intelligence già in uso. Questo servizio consente di eseguire query di analisi complesse su petabyte di dati strutturati utilizzando sofisticati sistemi di ottimizzazione delle query, storage a colonne su dischi ad elevate prestazioni e query in parallelo di grandi volumi di dati. Nella maggior parte dei casi, i risultati vengono restituiti in pochi secondi. Con Amazon Redshift è possibile iniziare con una soluzione di base a un costo di soli 0,25 USD all'ora, senza impegni né pagamenti anticipati, per poi ricalibrare la capacità fino a più petabyte a una tariffa pari a 1.000 USD per terabyte all'anno, meno di un decimo dei costi delle soluzioni tradizionali.

Amazon Redshift, inoltre, include Redshift Spectrum, consentendo di eseguire query SQL direttamente su exabyte di dati non strutturati in Amazon S3. Non è necessario procedere a caricamenti o trasformazioni ed è possibile utilizzare formati dati aperti, tra cui Avro, CSV, Grok, ORC, Parquet, RCFile, RegexSerDe, SequenceFile, TextFile e TSV. Redshift Spectrum ricalibra automaticamente la capacità di elaborazione in base ai dati presi in esame, perciò le query in Amazon S3 sono sempre rapide, indipendentemente dal volume di dati interessato. Ulteriori informazioni su Redshift Spectrum »

Prestazioni rapide e costanti

Rapido

Amazon Redshift offre elevate prestazioni in elaborazione di query perché le carica in modo parallelo su più nodi e sfrutta una tecnologia di storage basata su colonne che migliora l'efficienza in I/O. La velocità di carico dei dati può essere ridimensionata in modo lineare a seconda delle dimensioni del cluster, sfruttando l'integrazione con Amazon S3, Amazon DynamoDB, Amazon EMR, Amazon Kinesis o qualsiasi host compatibile con SSH.

Elevata scalabilità

Costi ridotti

I prezzi sono calcolati solo in base all'uso effettivo. Puoi permettere a un numero illimitato di utenti di eseguire analisi sui dati, investendo solo 1.000 USD per terabyte all'anno, che corrisponde a circa un decimo del costo delle soluzioni di data warehousing tradizionali. La maggior parte dei clienti che comprimono i dati ottengono dimensioni dalle 3 alle 4 volte inferiori, risparmiando tra i 250 USD e i 333 USD per terabyte non compresso all'anno.

Prestazioni solide e costanti

Espandibilità

Redshift Spectrum consente di interrogare exabyte di dati in Amazon S3 con la stessa semplicità con cui vengono eseguite query su petabyte di dati in locale in Amazon Redshift, impiegando la stessa sintassi SQL e gli strumenti di business intelligence esistenti. È possibile memorizzare dati altamente strutturati e con accessi frequenti in un disco locale di Redshift e conservare grandi volumi di dati non strutturati in un "data lake" di Amazon S3 interrogando entrambi i pool senza soluzione di continuità.

Flessibilità

Semplicità

Amazon Redshift consente di automatizzare con la massima semplicità le attività di amministrazione più comuni per gestire, monitorare e ridimensionare il data warehouse. Il cliente è così sollevato da una serie di attività lunghe e complesse e può concentrarsi sulle informazioni e sul business.

Elevata scalabilità

Scalabilità

Il cluster può essere ridimensionato con la massima semplicità in base alle esigenze; sono sufficienti pochi clic sulla console o una chiamata API.

Flessibilità

Sicurezza

Le funzioni di protezione sono già integrate. È possibile crittografare sia i dati su disco sia quelli in transito tramite i protocolli AES-256 e SSL con accelerazione hardware, isolare i cluster utilizzando Amazon VPC, oppure gestire le proprie chiavi utilizzando AWS Key Management Service (KMS)Hardware Security Module (HSM, moduli di protezione hardware).

Programmazione basata sugli eventi

Compatibilità

Amazon Redshift supporta SQL standard e fornisce driver JDBC e ODBC personalizzati da scaricare dalla console, consentendo l'utilizzo dei client SQL più utilizzati. È anche possibile impiegare driver PostgreSQL JDBC e ODBC standard.

Ottimizzazione per data warehouse

Le elevate prestazioni in elaborazione di query sono garantite da una serie di importanti innovazioni, che si applicano a set di dati di qualsiasi ordine di grandezza, dalle centinaia di gigabyte agli exabyte. Per ridurre la quantità di I/O necessari per elaborare le query su dati in locale nell'ordine dei petabyte, Amazon Redshift impiega storage basato su colonne, compressione dei dati e mappature di zona. Inoltre l'architettura MPP (Massively Parallel Processing, elaborazione parallela di massa) del suo data warehouse consente di caricare in parallelo e distribuire le operazioni SQL, in modo da sfruttare al massimo tutte le risorse disponibili. L'hardware utilizzato è stato progettato per fornire prestazioni di alto livello in elaborazione dei dati: si serve di storage locali per ottimizzare il throughput tra CPU e unità e di reti mesh a 10 Gigabit Ethernet per ottimizzare il throughput tra nodi. Per i volumi di dati nell'ordine degli exabyte in Amazon S3, Amazon Redshift genera un piano di query ottimizzato che riduce al minimo la quantità di dati da scansire e delega l'esecuzione delle query a un pool di istanze Redshift Spectrum le cui risorse vengono ridimensionate automaticamente, perciò le query avranno prestazioni simili indipendentemente dalle dimensioni dei dati.

Capacità di più petabyte

Sono sufficienti pochi clic nella console o una semplice chiamata API per modificare il numero o il tipo di nodi nel data warehouse e gestire fino a diversi petabyte di dati compressi degli utenti. Con i nodi Dense Storage (DS) si creano data warehouse di grandi dimensioni composti di dischi rigidi (HDD) a prezzi molto competitivi. Con i nodi Dense Compute (DC) si creano data warehouse ad alte prestazioni composti di dischi allo stato solido (SSD), CPU performanti ed elevate quantità di RAM. Durante la ricalibrazione delle risorse, Amazon Redshift consente di proseguire l'interrogazione del data warehouse in sola lettura finché non viene completato il provisioning del nuovo cluster.

Query sui "data lake" di Amazon S3

Redshift Spectrum permette di eseguire query su exabyte di dati non strutturati in Amazon S3 senza la necessità di trasferire o trasformare i dati. Quando viene inoltrata, la query raggiunge l'endpoint SQL di Amazon Redshift, il quale genere e ottimizza un piano di query. Amazon Redshift determinerà quindi quali dati si trovano in locale e quali in Amazon S3, genererà un piano per ridurre al minimo i dati che è necessario leggere in Amazon S3, richiederà a specifiche risorse condivise di un pool di Amazon Redshift Spectrum la lettura e l'elaborazione dei dati da Amazon S3 e inoltrerà i risultati nel cluster Amazon Redshift per eventuali ulteriori operazioni di elaborazione.

Nessun investimento anticipato

I prezzi sono calcolati in base alle risorse effettive di cui è stato effettuato il provisioning. È possibile scegliere tra un modello di pagamento on demand, senza pagamenti anticipati né impegni di lungo termine, e istanze riservate che consentono tariffe molto più contenute. La tariffa on demand parte da 0,25 USD all'ora per un nodo DC1.Large da 160 GB, oppure da 0,85 USD all'ora per un nodo DS2.XLarge da 2 TB. Con le istanze riservate e un pagamento anticipato parziale, il prezzo effettivo può scendere a 0,10 USD all'ora per un nodo DC1.Large (5.500 USD per TB all'anno) oppure 0,228 USD all'ora per un nodo DS2.XLarge (999 USD per TB all'anno). Le query di Redshift Spectrum costano 5 USD per ogni TB in S3 sottoposto a scansione. Per ulteriori informazioni, ti invitiamo a consultare la pagina dei prezzi di Amazon Redshift.

Tolleranza ai guasti

Amazon Redshift dispone di numerose funzionalità che rafforzano l'affidabilità del cluster del data warehouse. Tutti i dati scritti su un nodo nel cluster vengono automaticamente replicati su altri nodi all'interno dello stesso cluster; al contempo, viene eseguito un backup continuo di tutti i dati su Amazon S3. Amazon Redshift monitora inoltre senza soluzione di continuità l'integrità del cluster, replicando una seconda volta i dati provenienti da unità con errori e procedendo, quando necessario, alla sostituzione dei nodi.

Backup automatici

Amazon Redshift esegue il backup automatico e continuo dei nuovi dati in Amazon S3. Gli snapshot vengono conservati per un periodo personalizzabile compreso tra 1 e 35 giorni. È anche possibile acquisire snapshot manualmente in qualsiasi momento; in questo caso vengono conservati finché non vengono eliminati dall'utente. Amazon Redshift è anche in grado di replicare gli snapshot in modo asincrono su Amazon S3 in una regione differente, a scopo di disaster recovery. Una volta eliminato un cluster, gli snapshot di sistema vengono rimossi, mentre gli snapshot acquisiti dall'utente sono disponibili finché non vengono rimossi manualmente.

Ripristino rapido

È possibile utilizzare snapshot di sistema o creati manualmente per ripristinare un cluster mediante la Console di gestione AWS oppure le API di Amazon Redshift. Il cluster è disponibile non appena viene completato il ripristino dei metadati del sistema ed è possibile avviare query mentre ancora viene eseguito lo spool dei dati in background.

Crittografia

Configurando alcune semplici impostazioni, Amazon Redshift può applicare il protocollo SSL per proteggere i dati in transito e il protocollo di crittografia AES a 256 bit per i dati su disco. Se si sceglie di abilitare la crittografia dei dati su disco, tutti i dati scritti sulle unità saranno crittografati, inclusi i backup. Per impostazione predefinita, la gestione delle chiavi è prerogativa di Amazon Redshift, ma puoi decidere di gestire di persona le chiavi utilizzando HSM (moduli di protezione hardware), AWS CloudHSM o AWS Key Management Service.

Isolamento di rete

Amazon Redshift consente di configurare le regole del firewall in modo da controllare gli accessi al cluster del data warehouse. Amazon Redshift può essere eseguito all'interno di Amazon VPC in modo da isolare il cluster del data warehouse in una rete virtuale a sé stante e collegarlo all'infrastruttura IT esistente tramite VPN IPsec con crittografia standard di settore.

Audit e conformità

Amazon Redshift si integra con AWS CloudTrail per creare audit di tutte le chiamate API di Redshift API. Inoltre registra tutte le operazioni SQL, inclusi i tentativi di connessione, le query e le modifiche ai database. Per accedere a questi log è possibile utilizzare query SQL su tabelle di sistema oppure scaricarle in un percorso sicuro su Amazon S3. Amazon Redshift è conforme ai requisiti di controllo SOC1, SOC2, SOC3 e PCI DSS Level 1. Per ulteriori informazioni, consulta Conformità di sicurezza nel cloud AWS.

440x220_APN-Blog

Con Amazon Redshift Spectrum è possibile potenziare le capacità di analisi di Amazon Redshift ben oltre i dati memorizzati nel data warehouse locale, raggiungendo gli enormi volumi di dati nei data lake di Amazon S3 senza eseguire alcun caricamento o trasformazione. In questo post del blog, abbiamo raccolto 10 best practice per Amazon Redshift Spectrum raggruppandole in gruppi funzionali.

Leggi il post completo »

Grazie ad Amazon Redshift Spectrum, i clienti di Amazon Redshift possono interrogare i dati in Amazon S3 con la massima semplicità. Redshift Spectrum operata direttamente sui dati di origine nel loro formato nativo (ad esempio Avro, CSV, Grok, ORC, Parquet, RCFile, RegexSerDe, SequenceFile, TextFile e TSV). Di conseguenza, non è necessario procedere ad alcun caricamento o trasformazione.

Leggi il post completo »

Amazon Redshift Spectrum permette di elaborare i dati senza doverli trasferire o trasformare sfruttando la potenza e la flessibilità di Amazon Redshift. Spectrum può essere impiegato per eseguire query complesse su dati memorizzati in Amazon Simple Storage Service (S3) senza doverli caricare in percorsi differenti o prepararli.

Leggi il post completo »

La compressione a colonne è una tecnologia fondamentale per Amazon Redshift. Consente di ridurre i costi per il cliente, poiché aumenta la capacità di storage effettiva nei nodi, e migliora le prestazioni riducendo le operazioni I/O necessarie per elaborare tutte le richieste SQL. Migliorare l'efficienza di I/O è molto importante nel data warehousing. L'anno scorso, l'ottimizzazione di questo tipo di operazioni ha permesso di raddoppiare il throughput delle query. In questo post, illustrerò alcuni dei nuovi miglioramenti alla compressione aggiunti ad Amazon Redshift.

Leggi il post completo »

Per visualizzare un elenco completo dei post del blog correlati ad Amazon Redshift, consulta questa pagina »

Per ulteriori informazioni su tutte le nuove funzionalità di Amazon Redshift, consulta questa pagina »

Prova Amazon Redshift gratis. Per 2 mesi avrai a disposizione 750 ore di nodo DC1.Large. Per iniziare la prova gratuita, crea un account AWS e accedi alla console di Amazon Redshift. Quindi avvia un cluster Amazon Redshift e seleziona il tipo di nodo DC1.Large. Per richiedere il supporto un proof of concept o una valutazione, fai clic qui.

 

Inizia ora