Amazon SageMaker

Machine learning per tutti gli sviluppatori e i data scientist.

Amazon SageMaker offre a tutti gli sviluppatori e i data scientist la capacità di creare, addestrare e distribuire in modo rapido modelli di machine learning. Amazon SageMaker è un servizio completamente gestito che copre l’intero flusso di lavoro di machine learning per etichettare e preparare i dati, scegliere un algoritmo, addestrare l’algoritmo, effettuarne il tuning e l’ottimizzazione per la distribuzione, fare predizioni, e passare all’azione. I tuoi modelli arrivano alla produzione più rapidamente, con uno sforzo molto minore e costi più bassi.

CREA

Raccolta e preparazione dei dati di addestramento

Etichettatura dei dati e notebook integrati per problemi comuni

Scelta e ottimizzazione dell’algoritmo di machine learning

Marketplace di modelli e algoritmi, e algoritmi integrati altamente performanti

ADDESTRAMENTO

Configurazione e gestione di ambienti per l’addestramento

Addestramento semplificato nell’infrastruttura più performante

Addestramento e ottimizzazione del modello

Addestra una sola volta ed esegui ovunque, e ottimizzazione del modello

DISTRIBUZIONE

Distribuzione del modello in produzione

Distribuzione semplificata

Dimensiona e gestisci l’ambiente di produzione

Servizio completamente gestito con dimensionamento automatico per il 75% in meno


Clienti in evidenza

logo-Edmunds
logo-intuit
logo-Siemens
logo-nfl
logo-Expedia-Group
logo-liberty_mutual
logo-FI
logo-coinbase
logo-roche
logo-convoy
logo-korean_air

Raccolta e preparazione dei dati di addestramento

Etichetta i dati di addestramento in modo rapido

Amazon SageMaker Ground Truth consente di creare e gestire rapidamente set di dati di addestramento estremamente accurati. Ground Truth offre un facile accesso a etichettatori umani pubblici e privati e fornisce loro flussi di lavoro e interfacce integrati per attività comuni di etichettatura. Inoltre, Ground Truth impara dalle etichette fornite dagli umani a creare annotazioni di alta qualità in modo automatico, consentendo di ridurre notevolmente i costi di etichettatura.

Ulteriori informazioni »
pull-70p
infographic-Ground_Truth
transparent-img-code
Notebook ospitati

Notebook Jupyter gestiti con dozzine di flussi di lavoro integrati e
esempi per facilitare l’esplorazione e la visualizzazione dei dati di addestramento.

Scelta e ottimizzazione dell’algoritmo di machine learning

Amazon SageMaker configura e ottimizza in modo automatico TensorFlow, Apache MNXNet, PyTorch, Chainer, Scikit-learn, SparkML, Horovod, Keras, e Gluon. In Amazon SageMaker sono integrati gli algoritmi di machine learning più comuni, ottimizzati per scalabilità, velocità e accuratezza, con più di cento modelli integrati aggiuntivi e algoritmi disponibili in AWS Marketplace. Puoi anche importare qualunque altro algoritmo o framework inserendolo in un container Docker.

logo-tesnorflow
logo-mxnet
logo-pytorch
logo-chainer
logo-keras
logo-gluon
logo-horovod
pull-10x

Configurazione e gestione di ambienti per l’addestramento

SageMaker_Chart_3

Addestramento semplificato

Inizia l’addestramento del modello con un solo click. Amazon SageMaker gestisce l’intera infrastruttura sottostante per ottenere con facilità petabyte di set di dati.

Le istanze di Amazon EC2 P3 offrono GPU 8 NVIDIA Tesla V100 ottimizzate per offrire il servizio di machine learning distribuito più rapidamente nel cloud.
L’ISTANZA GPU PIÙ PERFORMANTE
nel cloud
25 Gbit/s
di throughput di rete
64 vCPU SCALABILI
Intel® Xeon® Skylake con AVX-512
16 GB DI MEMORIA
per ogni GPU

Il luogo migliore in cui eseguire TensorFlow

Le ottimizzazioni TensorFlow dei servizi AWS forniscono un’efficienza di scalabilità quasi lineare per centinaia di GPU. È così possibile operare alle dimensioni del cloud evitando un’eccessiva elaborazione complessiva, per addestrare modelli più accurati e sofisticati in tempi molto più brevi.

TENSORFLOW DI STOCK
img-65p
TENSORFLOW OTTIMIZZATO PER I SERVIZI AWS
img-90p

Efficienza di scalabilità: 256 GPU

AWS SageMaker è il luogo migliore in cui eseguire TensorFlow
SERVIZIO COMPLETAMENTE GESTITO
formazione e hosting
SCALABILITÀ QUASI LINEARE
per centinaia di GPU
RIDUZIONE DEL 75% DEI COSTI DI INFERENZA
con Amazon Elastic Inference

Tuning e ottimizzazione del modello

Ottimizzazione automatica del modello

L’ottimizzazione automatica dei modelli usa il machine learning per ottimizzare il modello in modo rapido e preciso. Questa funzionalità permette di evitare la correzione manuale dei parametri del modello, una procedura tediosa e basata su tentativi. La soluzione di ottimizzazione automatica dei modelli, invece, ottimizza gli iperparametri nel corso di sessioni di addestramento multiple. Scopre infatti caratteristiche interessanti nei dati e impara come tali caratteristiche, interagendo tra loro, alterino l’accuratezza dei risultati. Puoi risparmiare giorni, o addirittura settimane, e massimizzare la qualità del modello addestrato.

Addestra una volta sola, esegui ovunque

Amazon SageMaker Neo permette di addestrare il modello una volta sola e distribuirlo ovunque. Tramite il machine learning, SageMaker Neo ottimizza automaticamente per la piattaforma hardware specificata qualunque modello addestrato creato con un framework diffuso, senza alcuna perdita di accuratezza. Si può quindi distribuire il modello in istanze EC2 e istanze SageMaker, o in qualunque dispositivo a livello di edge che includa il runtime di Neo, tra cui i dispositivi AWS Greengrass.

Ulteriori informazioni »

pull-2x
pull-1-10
img-neo

Distribuzione e gestione dei modelli in produzione

Distribuzione semplificata per la produzione

Amazon SageMaker semplifica la distribuzione del modello addestrato in produzione: con un solo click si può iniziare a generare previsioni (un processo chiamato inferenza) su dati in tempo reale o in batch. Il modello viene eseguito su cluster di dimensionamento automatico di istanze Amazon SageMaker distribuite in più zone di disponibilità per ottenere prestazioni e disponibilità elevate. Amazon SageMaker inoltre include funzionalità di test A/B integrate per permettere di testare il modello e di provarne diverse versioni per ottenere i risultati migliori.

Eseguire modelli a livello di edge

AWS Greengrass semplifica la distribuzione di modelli addestrati con Amazon SageMaker in dispositivi edge per eseguire l’inferenza. Con AWS Greengrass, i dispositivi connessi possono eseguire funzioni AWS Lambda, mantenere sincronizzati i dati dei dispositivi e comunicare in maniera sicura con altri dispositivi, anche quando non connessi a Internet.

pull-75p

Riduci i costi di inferenza dell’apprendimento profondo fino al 75% usando Amazon Elastic Inference per collegare facilmente l’accelerazione della GPU elastica alle istanze Amazon SageMaker. Nella maggior parte dei modelli, un’istanza GPU completa ha dimensioni troppo grandi per l’inferenza. Inoltre, può essere difficile ottimizzare la GPU, la CPU, e le esigenze di memoria dell’applicazione di apprendimento profondo con un unico tipo di istanza. Elastic Inference consente di scegliere il tipo di istanza più adatto alle esigenze complessive di CPU e memoria dell’applicazione, per poi configurare separatamente la giusta quantità di accelerazione di GPU richiesta per l’inferenza.

Ulteriori informazioni »

img-TFLOPS

SUPPORTI

logo-tesnorflow
logo-mxnet

Storie di successo

Crea i tuoi modelli con l’apprendimento per rinforzo completamente gestito

small-RL-icon

Usa l’apprendimento per rinforzo (RL, Reinforced Learning) per creare modelli sofisticati che possono ottenere risultati specifici senza il bisogno di dati di addestramento pre-etichettati. Il servizio RL è utile in situazioni nelle quali non c’è una risposta “giusta” da cui apprendere, ma un risultato ottimale come imparare a guidare un’auto o a realizzare scambi finanziari vantaggiosi. Invece di analizzare lo storico dei dati, gli algoritmi RL apprendono agendo all’interno di un simulatore, in cui un sistema di premi e sanzioni aiuta a indirizzare il modello verso il comportamento desiderato.

Il sistema RL di Amazon SageMaker include algoritmi di apprendimento per rinforzo integrati e completamente gestiti. SageMaker supporta il sistema RL in più framework, inclusi TensorFlow e MXNet, e in framework progettati su misura per il consolidamento dell'apprendimento come Intel Coach e Ray RLlib.

Il sistema RL di Amazon SageMaker supporta anche ambienti di apprendimento per rinforzo multipli, compresi interi ambienti fisici in 2D e 3D, ambienti di simulazione commerciale quali MATLAB e Simulink, e qualunque altro ambiente che supporti l’interfaccia open source OpenAI Gym, tra cui ambienti sviluppati su misura. Inoltre, SageMaker RL ti consentirà di effettuare l’addestramento tramite ambienti 3D virtuali integrati in Amazon Sumerian e AWS RoboMaker. Puoi quindi creare modelli di qualunque tipo, per esempio nel campo della pubblicità, dei sistemi finanziari, dei controlli industriali, della robotica e dei veicoli autonomi.

Apertura e flessibilità

Machine learning a modo tuo

La tecnologia del machine learning avanza velocemente: per mantenersi flessibili è meglio avere accesso a un’ampia gamma di framework e strumenti. Con Amazon SageMaker è possibile usare i container integrati per qualunque framework diffuso, o importare il framework che preferisci. In entrambi i casi, Amazon SageMaker gestirà interamente l’infrastruttura sottostante necessaria per creare, addestrare e impiegare i modelli.

Una migliore performance a livello di edge

Anche le funzionalità di SageMaker Neo sono a disposizione di tutti gli sviluppatori grazie al progetto open source Neo. Crediamo che sia necessario rendere accessibile a chiunque e in qualunque luogo l’esecuzione dei modelli per sviluppare appieno il potenziale del machine learning. I produttori di hardware, contribuendo a quest’azione in favore dell’open source, possono migliorare Neo con nuove ottimizzazioni, facendo progredire l’intero ecosistema hardware per il machine learning.

SageMaker si adatta al tuo flusso di lavoro

Al suo interno, Amazon SageMaker è costituito da diversi elementi: Ground Truth, Notebooks, Training, Neo e Hosting. Questi elementi sono stati progettati per cooperare tra loro e fornire un servizio di machine learning integrale. Tuttavia, possono anche essere usati separatamente per integrare flussi di lavoro di machine learning già esistenti o come supporto ai modelli eseguiti nel centro dati o a livello di edge.

Apprendere e accelerare

ImgHead_Silverstone_TEST_Car_3

AWS DeepRacer

Un’automobile da corsa su scala 1/18 completamente autonoma, equipaggiata di tutto ciò che ti serve per imparare l’apprendimento di rinforzo attraverso la guida autonoma.

Ulteriori informazioni »

AWS DeepLens

È possibile apprendere la visione computerizzata tramite progetti, tutorial e esplorazioni pratiche e concrete, con la prima videocamera al mondo con funzioni di apprendimento profondo per sviluppatori.

Ulteriori informazioni »

Formazione e certificazione in AWS Machine Learning

L’università di Machine Learning di AWS. L’università di Machine Learning di AWS offre corsi strutturati per il machine learning basati sullo stesso materiale usato per la formazione degli sviluppatori di Amazon, combinando le conoscenze di base con la loro applicazione nel mondo reale.

Ulteriori informazioni »

Amazon ML Solutions Lab

Amazon ML Solutions Lab affianca degli esperti in machine learning di Amazon al tuo team. Questo servizio combina workshop istruttivi pratici con sessioni di brainstorming e servizi di consulenze professionali per aiutarti a fare un passo indietro dalle sfide aziendali, e procedere poi passo per passo lungo il processo di mandare in produzione un modello. Potrai poi mettere in pratica ciò che hai appreso in altri settori della tua organizzazione per perseguire nuove opportunità.

Ulteriori informazioni »