Infrastruttura di AWS Machine Learning

Infrastruttura ad alte prestazioni, conveniente ed efficiente dal punto di vista energetico per applicazioni ML

Dalle aziende Fortune 500 alle startup, le organizzazioni di vari settori stanno adottando sempre più spesso il machine learning (ML) per un'ampia gamma di casi d'uso, tra cui l'elaborazione del linguaggio naturale (NLP), la visione artificiale, gli assistenti vocali, il rilevamento delle frodi e i motori di raccomandazione. Inoltre, i modelli linguistici di grandi dimensioni (LLM) con centinaia di miliardi di parametri stanno sbloccando nuovi casi d'uso dell'IA generativa, ad esempio la generazione di immagini e testo. Con la crescita delle applicazioni ML, aumenta l'utilizzo, la gestione e il costo delle risorse di elaborazione, archiviazione e rete. Identificare e scegliere la giusta infrastruttura di elaborazione è essenziale per ridurre l'elevato consumo energetico, ridurre i costi eccessivi ed evitare la complessità durante la formazione e l'implementazione dei modelli ML in produzione. Per aiutarti ad accelerare l'innovazione del machine learning, AWS offre la combinazione ideale di strumenti e acceleratori di ML appositamente progettati ad alte prestazioni, convenienti ed efficienti dal punto di vista energetico, ottimizzati per le applicazioni ML.

Vantaggi

Facile da utilizzare

Facile da utilizzare

Accedi ad acceleratori ML appositamente progettati come AWS Trainium e AWS Inferentia per addestrare e implementare modelli di fondazione (FM) e integrarli nelle tue applicazioni utilizzando servizi gestiti da AWS come Amazon SageMaker e Amazon Bedrock. SageMaker fornisce ai data scientist e agli sviluppatori ML modelli di fondazione preformati che possono essere completamente personalizzati per casi d'uso e dati specifici e implementati in produzione. Bedrock offre ai clienti un'esperienza serverless per la creazione di applicazioni IA generative utilizzando FM tramite un'API.

Prestazioni elevate

Prestazioni elevate

Puoi potenziare la tua applicazione ML con l'infrastruttura di ML con le prestazioni più elevate di AWS. Le istanze Amazon EC2 P4d e Amazon EC2 Trn1 sono ideali per la formazione ML ad alte prestazioni. Per quanto riguarda l'inferenza, le istanze Inf2 di Amazon EC2, basate su Inferentia2 di seconda generazione, offrono una velocità di trasmissione effettiva 4 volte superiore e una latenza fino a 10 volte inferiore rispetto alle istanze basate su Inferentia della generazione precedente.

Prezzi contenuti

Prezzi contenuti

Con un'ampia scelta di servizi infrastrutturali, puoi scegliere l'infrastruttura giusta per il tuo budget. Le istanze Trn1 di Amazon EC2 basate su AWS Trainium offrono un risparmio del 50% sui costi di formazione, mentre le istanze Inf2 di Amazon EC2 basate su AWS Inferentia2 offrono un rapporto prezzo/prestazioni fino al 40% migliore rispetto a istanze Amazon EC2 comparabili. Puoi reinvestire questi risparmi sui costi per accelerare l'innovazione e far crescere la tua attività.

Supporto per framework ML

Sostenibile

AWS si impegna a raggiungere l'obiettivo di Amazon di azzerare le emissioni di carbonio entro il 2040. Amazon SageMaker, un servizio di machine learning completamente gestito, offre acceleratori ML ottimizzati per l'efficienza energetica e la riduzione del consumo energetico durante la formazione e l'implementazione di modelli ML in produzione. Le istanze Amazon EC2 basate su acceleratori ML, come AWS Trainium e AWS Inferentia2, offrono prestazioni per watt migliori fino al 50% rispetto ad altre istanze Amazon EC2 comparabili.

Scalabilità

Scalabile

I clienti AWS hanno accesso a elaborazione, rete e archiviazione virtualmente illimitati in modo da poter scalare. Puoi aumentare o diminuire in base alle esigenze, da un acceleratore GPU o ML a migliaia e da terabyte a petabyte di spazio di archiviazione. Con il cloud, non è necessario investire in tutte le infrastrutture possibili. Sfrutta invece il calcolo elastico, l'archiviazione e la rete.

Carichi di lavoro ML sostenibili

Le istanze di elaborazione AWS supportano i principali framework di machine learning come TensorFlow e PyTorch. Supportano anche modelli e toolkit come Hugging Face per un'ampia gamma di casi d'uso di machine learning. Le AMI di AWS Deep Learning (AWS DLAMIs) e Deep Learning Containers (AWS DLC) sono preinstallati con ottimizzazioni per framework e toolkit ML per accelerare il deep learning nel cloud.

Soluzioni

Infrastruttura di ML

*A seconda dei requisiti di inferenza, puoi esplorare altre istanze in Amazon EC2 per l'inferenza basata su CPU.

Storie di successo

  • Pepperstone
  • Logo Pepperstone

    Pepperstone utilizza l'infrastruttura AWS ML per offrire un'esperienza di trading globale senza interruzioni a oltre 40.000 visitatori unici al mese. Usano Amazon SageMaker per automatizzare la creazione e l'implementazione di modelli ML. Passando a SageMaker, sono stati in grado di ridurre l'attrito tra i team DevOps e quelli di data science e di ridurre i tempi di formazione sui modelli ML da 180 ore a 4,3 ore.

  • Finch Computing
  • Logo Finch Computing

    Finch Computing utilizza AWS Inferentia con PyTorch su AWS per creare modelli ML per eseguire attività di NLP come la traduzione linguistica e la disambiguazione delle entità, riducendo così i costi di inferenza di oltre l'80% rispetto alle GPU.

  • Amazon Robotics
  • Logo Amazon Robotics

    Amazon Robotics ha utilizzato Amazon SageMaker per sviluppare un modello sofisticato di machine learning che ha sostituito la scansione manuale nei centri logistici di Amazon. Amazon Robotics ha utilizzato Amazon SageMaker e AWS Inferentia per ridurre i costi di inferenza di quasi il 50%

  • Money Forward
  • Logo di Money Forward

    Money Forward ha lanciato un servizio di chatbot IA su larga scala sulle istanze Inf1 di Amazon EC2 e ridotto la latenza di inferenza del 97% rispetto a istanze analoghe basate su GPU, riducendo al contempo i costi. Sulla base della corretta migrazione alle istanze Inf1, stanno anche valutando le istanze EC2 Trn1 basate su AWS Trainium per migliorare le prestazioni e i costi di machine learning end-to-end.

  • IA - Intelligenza Artificiale Rad
  • Logo Rad AI

    Rad AI utilizza l'intelligenza artificiale per automatizzare i flussi di lavoro di radiologia e aiutare a semplificare i referti radiologici. Con le nuove istanze P4d di Amazon EC2, Rad AI vede un'inferenza più rapida e la capacità di addestrare i modelli 2,4 volte più velocemente e con maggiore precisione.

  • Amazon Alexa
  • Logo Amazon Alexa
    "L'intelligenza basata su IA e su ML di Amazon Alexa, con tecnologia Amazon Web Services, è disponibile oggi su oltre 100 milioni di dispositivi e la nostra promessa ai clienti è che Alexa diventi sempre più intelligente, che ami conversare, che sia più proattiva e persino più gradevole. Rispettare questa promessa richiede miglioramenti continui nei tempi di risposta e nei costi dell'infrastruttura di machine learning, ed è per questo che siamo entusiasti di utilizzare Inf1 di Amazon EC2 per abbassare la latenza di inferenza e il costo per inferenza della sintesi vocale di Alexa. Con Inf1 di Amazon EC2, possiamo migliorare ulteriormente il servizio per le decine di milioni di clienti che utilizzano Alexa ogni mese".

    Tom Taylor, vicepresidente senior, Amazon Alexa

  • Autodesk
  • Logo di Autodesk
    "Autodesk sta sviluppando la tecnologia cognitiva del nostro assistente virtuale basato su IA, Autodesk Virtual Agent (AVA), utilizzando Inferentia. AVA risponde a oltre 100.000 domande dei clienti ogni mese utilizzando tecniche di riconoscimento del linguaggio naturale (NLU) e deep learning per estrarre il contesto, l'intento e il significato delle richieste. Sfruttando Inferentia, siamo riusciti a ottenere una velocità di trasmissione effettiva di 4,9 volte superiore rispetto a G4dn per i nostri modelli di NLU, e progettiamo di eseguire altri carichi di lavoro sulle istanze Inf1 basate su Inferentia."

    Binghui Ouyang, Sr Data Scientist, Autodesk

  • Sprinklr
  • Logo Sprinklr
    "Sprinklr fornisce una piattaforma unificata di gestione dell'esperienza dei clienti (Unified-CXM) che combina diverse applicazioni per il marketing, la pubblicità, la ricerca, l'assistenza clienti, le vendite e il coinvolgimento sui social media. L'obiettivo è sempre quello di avere una latenza inferiore, il che significa una migliore esperienza del cliente. Utilizzando le istanze Inf1 di Amazon EC2, siamo in grado di raggiungere questo obiettivo".

    Jamal Mazhar, Vice President of Infrastructure and DevOps, Sprinklr

Ottimizza la tua infrastruttura di ML con AWS