Infrastruttura di AWS Machine Learning

Alte prestazioni, conveniente e ottimizzato per il machine learning
Le aziende di ogni dimensione e settore stanno adottando sempre più il machine learning (ML) per un'ampia varietà di casi d'uso, inclusi motori di raccomandazione, rilevamento di oggetti, assistenti vocali e rilevamento di frodi. Con questa crescita, aumenta l'utilizzo, la gestione e il costo delle risorse di elaborazione, archiviazione e rete. Procurarsi la giusta quantità di infrastruttura di elaborazione per soddisfare i requisiti dei carichi di lavoro di machine learning può essere impegnativo, ma senza di essa, la formazione e la distribuzione di modelli ML possono essere costose e richiedere molto tempo. Per aiutarti ad accelerare la tua innovazione ML, AWS offre la combinazione ideale di istanze Amazon EC2 ad alte prestazioni ea basso costo e strumenti appositamente ottimizzati per il machine learning.

Vantaggi

Alte prestazioni

Alte prestazioni 

AWS offre l'infrastruttura di elaborazione ML più performante nel cloud. Per l’addestramento, le istanze P4 di Amazon EC2 offrono prestazioni 2,5 volte superiori rispetto alle istanze della generazione precedente e il networking più veloce, fino a 400 Gbps. Per l'inferenza, le istanze Inf1 di Amazon EC2 offrono una velocità effettiva fino a 2,3 volte superiore rispetto alle istanze basate su GPU della generazione attuale.

Ulteriori informazioni >>
Ottimizzato per ML

Ottimizzato per il machine learning

Le istanze di elaborazione AWS supportano i principali framework di machine learning come TensorFlow e PyTorch. Supportano anche modelli e toolkit come Hugging Face per un'ampia gamma di casi d'uso di machine learning. Le AMI di AWS Deep Learning e Deep Learning Containers sono preinstallati con ottimizzazioni per framework e toolkit ML per accelerare il deep learning nel cloud.

Ulteriori informazioni >>
Facilità d'uso

Facilità d'uso

Amazon SageMaker, un servizio ML completamente gestito, è il modo più semplice e veloce per iniziare con l'infrastruttura AWS e offre anche strumenti appositamente progettati tra cui etichettatura dei dati, preparazione dei dati, ingegneria delle funzionalità, rilevamento di bias statistici, AutoML, addestramento, ottimizzazione, hosting, spiegabilità, monitoraggio e flussi di lavoro. SageMaker si basa su decenni di esperienza di Amazon ML.

Ulteriori informazioni >>
Scalabilità

Scalabilità

I clienti AWS hanno accesso a elaborazione, rete e archiviazione virtualmente illimitati in modo da poter scalare. Puoi aumentare o diminuire secondo necessità da una GPU a migliaia e puoi aumentare o diminuire secondo necessità da terabyte a petabyte di spazio di archiviazione. Con il cloud, non è necessario investire in tutte le infrastrutture possibili. Sfrutta invece il calcolo elastico, l'archiviazione e la rete.

Ulteriori informazioni >>
Prezzi contenuti

Prezzi contenuti

Con un'ampia scelta di servizi infrastrutturali, puoi scegliere l'infrastruttura giusta per il tuo budget. Scegli tra qualsiasi istanza basata su CPU, GPU o acceleratore e paga solo per ciò che usi, così non paghi mai per la capacità inattiva. Le istanze Inf1 di Amazon EC2 con tecnologia AWS Inferentia offrono un costo per inferenza inferiore fino al 70% rispetto alle istanze basate su GPU di generazione attuale comparabili.

Ulteriori informazioni >>

Cosa offriamo

Infrastruttura di ML

Clienti

Amazon Alexa

L'intelligenza artificiale e il ML di Amazon Alexa è disponibile su oltre 100 milioni di dispositivi oggi. Alexa diventa sempre più intelligente, più colloquiale, più proattiva e persino più piacevole. Alexa utilizza Amazon EC2 Inf1 per ridurre la latenza di inferenza e il costo per inferenza sulla sintesi vocale di Alexa.

Anthem

Autodesk sta sviluppando la tecnologia cognitiva del nostro assistente virtuale basato su IA, Autodesk Virtual Agent (AVA), utilizzando Inferentia. AVA risponde a oltre 100.000 domande dei clienti ogni mese utilizzando tecniche di riconoscimento del linguaggio naturale (NLU) e deep learning per estrarre il contesto, l'intento e il significato delle richieste. Pilotando AWS Inferentia, sono stati in grado di ottenere una velocità effettiva 4,9 volte superiore rispetto a quella delle istanze basate su GPU.

RadAI

Rad AI utilizza l'intelligenza artificiale per automatizzare i flussi di lavoro di radiologia e aiutare a semplificare i referti radiologici. Con le nuove istanze P4d di Amazon EC2, Rad AI vede un'inferenza più rapida e la capacità di addestrare i modelli 2,4 volte più velocemente e con maggiore precisione.

Guarda al futuro con AWS