Domande generali

D: Cos'è Amazon SageMaker?

Amazon SageMaker è un servizio completamente gestito che consente a data scientist e sviluppatori di creare, addestrare e distribuire in modo rapido modelli di machine learning. SageMaker semplifica i passaggi del processo di machine learning per sviluppare modelli di alta qualità in modo più facile.

D: In quali regioni è disponibile Amazon SageMaker?

Per un elenco completo delle regioni AWS supportate da Amazon SageMaker, consulta la Tabella delle regioni AWS per l'infrastruttura globale AWS. Per ulteriori informazioni, consulta inoltre la pagina Regioni ed endpoint nei Riferimenti generali AWS.

D: Qual è la disponibilità del servizio Amazon SageMaker?

Amazon SageMaker è progettato per offrire disponibilità elevata. Non sono previsti finestre di manutenzione o tempi di inattività pianificati. Le API SageMaker vengono eseguite nei data center sicuri e ad elevata disponibilità di Amazon, con replica dello stack di servizi configurata fra tre strutture in ogni regione AWS per offrire tolleranza ai guasti in caso di inattività di un server o di interruzione del servizio nella zona di disponibilità.

D: In che modo Amazon SageMaker protegge il codice?

Amazon SageMaker memorizza il codice in volumi di storage per l'apprendimento automatico, protetti da gruppi di sicurezza crittografabili su disco.

D: Quali misure di sicurezza implementa Amazon SageMaker?

Amazon SageMaker crittografa gli artefatti di modello di ML e di altri elementi del sistema, sia inattivi sia in transito. Le richieste all'API e alla console di SageMaker vengono inoltrate tramite una connessione sicura (SSL). È possibile avvalersi di ruoli AWS Identity and Access Management in SageMaker per assegnare automaticamente autorizzazioni di accesso alle risorse per formazione e distribuzione. È possibile utilizzare Amazon S3 per dati e artefatti di modello, nonché applicare una chiave KMS a notebook di SageMaker, processi di addestramento ed endpoint per crittografare i volumi di storage dedicati al machine learning. Amazon SageMaker supporta inoltre Amazon Virtual Privacy Cloud (VPC) e AWS PrivateLink.

D: Amazon SageMaker utilizza o condivide modelli, dati di addestramento o algoritmi?

Amazon SageMaker non utilizza o condivide modelli, dati di addestramento o algoritmi dei clienti. Sappiamo quanto i clienti si preoccupino per la privacy e la sicurezza dei dati. È per questo che, in AWS, hanno sempre il controllo e la proprietà sui loro contenuti; grazie a strumenti semplici ma efficaci possono determinare dove i dati saranno memorizzati, proteggere le informazioni dei loro clienti sia in transito sia inattive e gestire l'accesso ai servizi e alle risorse di AWS per i loro utenti. AWS implementa anche controlli scrupolosi e sofisticati, sia tecnici sia fisici, progettati per impedire accessi non autorizzati e divulgazione di dati riservati. La proprietà dei dati rimane al cliente, che potrà scegliere a quali servizi AWS consentirne elaborazione, memorizzazione e hosting. AWS non accede né utilizza i contenuti dei clienti per alcun motivo senza il loro consenso.

D: Come viene fatturato l'utilizzo di Amazon SageMaker?

Verranno addebitati i costi delle risorse di storage e di elaborazione dati e apprendimento automatico utilizzate per hosting del notebook, addestramento di modelli, elaborazione di previsioni e registrazione dei risultati. Amazon SageMaker permette di selezionare il numero e il tipo di istanze da utilizzare per il notebook in hosting, l'addestramento e l'hosting del modello. I prezzi sono calcolati solo in base all'uso effettivo, senza tariffe minime né impegni anticipati. Per i dettagli, consulta la pagina dei prezzi di Amazon SageMaker.

D: Come posso ottimizzare i costi di Amazon SageMaker, ad esempio individuando e arrestando risorse inattive per evitare addebiti superflui?

Esistono varie best practice da adottare per ottimizzare l'utilizzo delle risorse di Amazon SageMaker. Alcuni approcci prevedono la messa a punto della configurazione, altre soluzioni programmatiche. Una guida completa sull'argomento, completa di tutorial visivi ed esempi di codice, è disponibile in questo post di blog.

D: Se invece è già presente un notebook o un ambiente di formazione o hosting?

Amazon SageMaker offre un flusso di lavoro completo, ma è sempre possibile continuare a utilizzare gli strumenti esistenti insieme al servizio. Trasferire i risultati di ciascuna fase da o verso SageMaker in base ai requisiti aziendali è molto semplice.

D: R è supportato da Amazon SageMaker?

Sì, R è supportato da Amazon SageMaker. Puoi utilizzare R all'interno delle istanze SageMaker Notebook, che includono un kernel R preinstallato e la libreria reticolare. La libreria reticolare offre un'interfaccia R per il kit SDK di Amazon SageMaker Python, consentendo ai professionisti del machine learning di creare, addestrare, ottimizzare e distribuire modelli R. 

D: Come faccio a verificare eventuali squilibri nel mio modello?

Amazon SageMaker Clarify aiuta a migliorare la trasparenza del modello rilevando distorsioni statistiche nell’intero flusso di lavoro di ML. SageMaker Clarify verifica la presenza di squilibri durante la preparazione dei dati, dopo l’addestramento e nel corso del tempo, includendo strumenti che aiutano a spiegare i modelli di ML e le loro previsioni. È possibile condividere i risultati tramite report di spiegabilità.

D: Che tipo di distorsione rileva Amazon SageMaker Clarify?

Misurare le distorsioni in modelli di ML è un primo passo verso il loro contenimento. È possibile misurare le distorsioni prima dell’addestramento e dopo l’addestramento, oltre che per l’inferenza per un modello distribuito. Ogni misura di distorsioni corrisponde a un concetto diverso di equità. Anche considerare semplici concetti di equità conduce a molte misure diverse applicabili in svariati contesti. Devi scegliere i concetti di distorsione e i parametri validi per l'applicazione e la situazione oggetto dell'indagine. SageMaker supporta attualmente l’elaborazione di differenti parametri di distorsione per i dati dell’addestramento (come parte della preparazione dei dati SageMaker), per il modello addestrato (come parte di SageMaker Experiments) e per l’inferenza per un modello implementato (come parte di SageMaker Model Monitor). Ad esempio, prima della formazione forniamo parametri per controllare se i dati dell’addestramento sono rappresentativi (cioè se un gruppo è sotto rappresentato) e se ci sono differenze nella distribuzione dell’etichetta tra i gruppi. Dopo la formazione o durante l’implementazione, i parametri possono risultare utili per misurare se (e di quanto) le prestazioni del modello differiscono tra i gruppi. Ad esempio, inizia confrontando i tassi di errore (qual è la possibilità che una previsione del modello differisca dall’etichetta vera?) o aggiungendo precisione (qual è la possibilità che una previsione positiva sia corretta?) e riconoscimento (con quale possibilità il modello contrassegnerà correttamente un esempio positivo?).

D. Come fa Amazon SageMaker Clarify a migliorare la spiegabilità del modello?

Amazon SageMaker Clarify è integrato con SageMaker Experiments per fornire un grafico che elenca l’importanza di ciascun input per il processo decisionale globale relativo al tuo modello dopo che il modello stesso è stato addestrato. Questi dettagli possono aiutare a stabilire se un particolare input di modello abbia più influenza di quanto dovrebbe sul comportamento generale del modello. SageMaker Clarify rende anche disponibili spiegazioni per le singole previsioni tramite un'API.
 

D. Cos'è Amazon SageMaker Studio?

Amazon SageMaker Studio fornisce un'interfaccia visuale unica basata sul Web in cui si possono eseguire tutte le fasi di sviluppo di ML. SageMaker Studio ti offre accesso, controllo e visibilità completi su ogni fase necessaria alla progettazione, la formazione e la distribuzione dei modelli. Puoi velocemente caricare i dati, creare nuovi notebook, addestrare e configurare i modelli, andare avanti e indietro tra le fasi per modificare gli esperimenti, confrontare i risultati e distribuire i modelli in produzione in un unico luogo, rendendo il tuo processo più produttivo. Tutte le attività di sviluppo con il machine learning che includono notebook, gestione degli esperimenti, creazione automatica dei modelli, debug, profilatura e rilevamento di errori del modello possono essere eseguite all'interno dell'interfaccia visiva unificata di SageMaker Studio.

D: Come sono calcolati i prezzi di Amazon SageMaker Studio?

Non sono previsti costi aggiuntivi per l'utilizzo di Amazon SageMaker Studio. Sono addebitati unicamente i costi base di elaborazione e di storage per i servizi effettivamente utilizzati con Amazon SageMaker Studio..

D: In quali regioni è disponibile Amazon SageMaker Studio?

L’elenco delle regioni in cui è disponibile Amazon SageMaker Studio è consultabile a questo link.

Machine Learning a basso codice

D: Cos'è Amazon SageMaker Autopilot?

Amazon SageMaker Autopilot è la prima funzionalità automatica di machine learning del settore che offre controllo e visibilità totali sui modelli di ML. SageMaker Autopilot esamina automaticamente i dati non elaborati, applica i processori di caratteristiche, sceglie il miglior set di algoritmi, addestra e ottimizza diversi modelli, controlla le loro prestazioni e in base a queste stila una classifica dei modelli, il tutto in pochi clic. Il risultato è un modello con le migliori prestazioni possibili, che si può distribuire in una frazione del tempo normalmente richiesto per la formazione del modello. Hai piena visibilità su come il modello è stato creato, cosa c'è al suo interno e SageMaker Autopilot si integra con Amazon SageMaker Studio. Puoi ricercare fino a 50 modelli diversi generati da SageMaker Autopilot all'interno di SageMaker Studio, così è facile scegliere il miglior modello per il tuo caso d'uso. SageMaker Autopilot può essere utilizzato per produrre facilmente un modello anche da chi non possiede esperienza di machine learning; può però essere utilizzato da sviluppatori esperti per sviluppare un modello di base per le successive iterazioni del team.

D: Quali algoritmi integrati sono supportati in Amazon SageMaker Autopilot?

Amazon SageMaker Autopilot supporta 2 algoritmi integrati: XGBoost e Linear Learner.

D: Posso interrompere manualmente un processo Amazon SageMaker Autopilot?

Sì. Puoi interrompere un processo in qualsiasi momento. Quando un processo Amazon SageMaker Autopilot viene interrotto, tutte le prove in corso saranno interrotte e non sarà avviata alcuna prova nuova.

D: Come faccio a iniziare a usare subito Amazon SageMaker?

Amazon SageMaker JumpStart ti aiuta in maniera facile e veloce a comprendere le nozioni di base del machine learning. SageMaker JumpStart fornisce una serie di soluzioni per i casi d’uso più comuni che è possibile distribuire subito con pochi clic. Le soluzioni sono totalmente personalizzabili e mostrano l’uso dei template e delle architetture di riferimento di AWS CloudFormation così puoi accelerare nel tuo percorso di machine learning. SageMaker JumpStart supporta inoltre la distribuzione con un clic e il perfezionamento di oltre 150 noti modelli open source come il transformer, il rilevamento di oggetti e la classificazione delle immagini.
 

D: Quali modelli open source sono supportati da Amazon SageMaker JumpStart?

Amazon SageMaker JumpStart include oltre 150 modelli open source precedentemente addestrati da PyTorch Hub e TensorFlow Hub. Per attività visive come classificazioni di immagini e rilevamento di oggetti, è possibile sfruttare modelli come ResNet, MobileNet e Single-Shot Detector (SSD). Per attività testuali come classificazioni di frasi, classificazione di testi e risposte a domande è possibile utilizzare modelli come BERT, RoBERTa e DistilBERT.

D. Quali sono le soluzioni precreate con Amazon SageMaker JumpStart?

SageMaker JumpStart offre soluzioni preconfigurate con tutti i servizi AWS necessari per avviare una soluzione in produzione. Le soluzioni sono totalmente personalizzabili, in modo da poterle modificare in base al proprio specifico caso d’uso e set di dati. È possibile utilizzare soluzioni per oltre 15 casi d’uso tra cui previsione della domanda. rilevamento di frodi e manutenzione predittiva, nonché implementare rapidamente soluzioni con pochi clic. Per ulteriori informazioni su tutte le soluzioni disponibili, visita la pagina delle nozioni di basedi SageMaker.
 

Q: Come sono calcolati i prezzi di Amazon SageMaker JumpStart?

Verranno addebitati i servizi di AWS avviati da SageMaker JumpStart, come i processi di addestramento e gli endpoint, in base aiprezzi di SageMaker. Non sono previsti costi aggiuntivi per l'utilizzo di Amazon SageMaker JumpStart.

Flussi di lavoro di machine learning

D: Come faccio a creare una pipeline CI/CD con Amazon SageMaker?

Amazon SageMaker Pipelines aiuta a creare flussi di lavoro di ML completamente automatizzati, dalla preparazione dei dati attraverso l’implementazione dei modelli, in modo da poter gestire migliaia di modelli di ML in produzione. SageMaker Pipelines è dotato di un Python SDK che si collega a SageMaker Studio in modo da poter sfruttare un'interfaccia visiva per costruire ogni passaggio del flusso di lavoro. Quindi utilizzando una singola API, è possibile collegare ogni passaggio per creare un flusso di lavoro completo. SageMaker Pipelines si occupa di gestire i dati tra una fase e l'altra, confezionare le ricette di codice e orchestrare la loro esecuzione, riducendo i mesi di codifica a poche ore. Ogni volta che un flusso di lavoro viene eseguito, viene tenuta una registrazione completa dei dati elaborati e delle azioni intraprese in modo che i data scientist e gli sviluppatori di ML possano eseguire rapidamente il debug dei problemi.

Q: Come faccio a visualizzare tutti i miei modelli addestrati per scegliere il modello migliore per passare alla produzione?

Amazon SageMaker Pipelines fornisce un repository centrale di modelli addestrati chiamato registro dei modelli. Puoi scoprire i modelli e accedere al registro dei modelli visivamente attraverso SageMaker Studio o in modo programmatico attraverso l'SDK di Python, semplificando la scelta del modello desiderato da implementare nella produzione.

Q: Quali componenti di Amazon SageMaker è possibile aggiungere ad Amazon SageMaker Pipelines?

I componenti disponibili tramite Amazon SageMaker Studio quali SageMaker Clarify, SageMaker Data Wrangler, SageMaker Feature Store, SageMaker Experiments, SageMaker Debugger e SageMaker Model Monitor possono essere aggiunti a SageMaker Pipelines.

D: Come faccio a monitorare i componenti del mio modello attraverso l'intero flusso di lavoro di ML?

Amazon SageMaker Pipelines tiene automaticamente traccia di tutti i componenti del modello e mantiene un audit trail di tutte le modifiche, eliminando così il monitoraggio manuale. Può inoltre aiutare a raggiungere gli obiettivi di conformità. Con SageMaker Pipelines è possibile monitorare dati, codice, modelli addestrati e altro ancora.

D: Come sono calcolati i prezzi di Amazon SageMaker Pipelines?

Non sono previsti costi aggiuntivi per Amazon SageMaker Pipelines. Sono addebitati unicamente i costi base di elaborazione o qualunque servizio extra di AWS utilizzato con Amazon SageMaker Pipelines.

D: Posso usare Kubeflow con Amazon SageMaker?

Sì. I componenti Amazon SageMaker per Kubeflow Pipelines sono plug-in open source che consentono di utilizzare le pipeline Kubeflow per definire i flussi di lavoro di ML e di impiegare SageMaker per le fasi di etichettatura, addestramento e inferenza dei dati. Kubeflow Pipelines è un componente aggiuntivo di Kubeflow che consente di creare e distribuire pipeline di ML complete, portatili e scalabili. Tuttavia, durante l'uso di Kubeflow Pipelines, i team di operazioni di ML devono gestire un cluster Kubernetes con istanze CPU e GPU e mantenerne l'utilizzo elevato in ogni momento per ridurre i costi operativi. Massimizzare l'utilizzo di un cluster tra i team di data science è impegnativo e aggiunge un ulteriore sovraccarico operativo ai team delle attività di ML. In alternativa a un cluster Kubernetes ottimizzato per il ML, con i componenti Amazon SageMaker per Kubeflow Pipelines è possibile sfruttare le potenti funzionalità di SageMaker come etichettatura dei dati, ottimizzazione completamente gestita dell'iperparametro su vasta scala e processi distribuiti di addestramento, distribuzione di modelli sicura e scalabile con un clic e addestramento a costi contenuti con istanze Amazon EC2 Spot; il tutto senza la necessità di configurare e gestire i cluster Kubernetes specificamente per eseguire i processi di machine learning.

Q: Come sono calcolati i prezzi di Amazon SageMaker Components per Kubeflow Pipelines?

Non sono previsti costi aggiuntivi per l'utilizzo di Amazon SageMaker Components per Kubeflow Pipelines.
 

Preparazione dei dati

D: Come fa Amazon SageMaker a preparare i dati per il machine learning?

Amazon SageMaker Data Wrangler riduce il tempo richiesto per l'aggregazione e la preparazione dei dati per il machine learning. Da una singola interfaccia in SageMaker Studio, è possibile importare dati da Amazon S3, Amazon Athena, Amazon Redshift, AWS Lake Formation eAmazon SageMaker Feature Store, e in pochi clic SageMaker Data Wrangler automaticamente caricherà, aggregherà e mostrerà i dati non elaborati. Farà quindi raccomandazioni di conversione basate sui dati di origine, trasformerà i dati in nuove funzionalità, convaliderà le caratteristiche e fornirà le visualizzazioni con le raccomandazioni su come rimuovere le fonti comuni di errore come le etichette errate. Una volta che i dati sono preparati, è possibile costruire flussi di lavoro di machine learning completamente automatizzati con Amazon SageMaker Pipelines o importare i dati in Amazon SageMaker Feature Store.

Q: Come faccio a creare le funzionalità del modello con Amazon SageMaker Data Wrangler?

Senza scrivere una singola riga di codice, Amazon SageMaker Data Wrangler è in grado di trasformare automaticamente i tuoi dati in nuove funzionalità. SageMaker Data Wrangler offre una gamma di trasformazioni di dati pre-configurate, come conversione del tipo di colonna, codifica one-hot, attribuzione di dati mancanti con media o mediana, ridimensionamento delle colonne ed embedding dati/tempo. Ad esempio, è possibile convertire una colonna di campo testo in una colonna numerica con un solo clic oppure compiere trasformazioni personalizzate in PySpark, SQL e Pandas.

Q: Come faccio a visualizzare i miei dati in Amazon SageMaker Data Wrangler?

Amazon SageMaker Data Wrangler ti aiuta a comprendere i dati e a identificare potenziali errori e valori estremi con una serie di solidi modelli di visualizzazione preconfigurati. Gli istogrammi, i grafici di dispersione e le visualizzazioni specifiche per il ML, come il rilevamento di perdita dell'obiettivo, sono tutti disponibili senza scrivere una singola linea di codice. È inoltre possibile creare e modificare le proprie visualizzazioni.

D: Come sono calcolati i prezzi di Amazon SageMaker Data Wrangler?

Verranno addebitati i costi di tutte le risorse di calcolo, storage ed elaborazione dati di ML utilizzate per Amazon SageMaker Data Wrangler. È possibile rivedere tutti i dettagli dei prezzi di Amazon SageMaker Data Wrangler qui. Grazie al piano gratuito di AWS, puoi iniziare a utilizzare SageMaker Data Wrangler gratuitamente.

D: Come faccio ad archiviare le funzionalità per i miei modelli di ML?

Amazon SageMaker Feature Store fornisce un repository centrale per le caratteristiche di dati con lettura e scrittura a bassa latenza (millisecondi). Le caratteristiche possono essere archiviate, recuperate, scoperte e condivise tramite SageMaker Feature Store per un facile riutilizzo tra modelli e team con accesso e controllo sicuri. SageMaker Feature Store supporta caratteristiche sia online che offline generate tramite pipeline in batch o in streaming. Supporta il backfilling delle caratteristiche e fornisce negozi online e offline per mantenere la parità tra le caratteristiche utilizzate nell’addestramento e nell’inferenza del modello.

D: Come faccio a mantenere la coerenza tra le funzionalità online e offline?

Amazon SageMaker Feature Store mantiene automaticamente la coerenza tra le funzionalità online e offline senza gestione o codice aggiuntivi. SageMaker Feature Store è completamente gestito e mantiene la coerenza tra gli ambienti di addestramento e di inferenza.

D: Come faccio a riprodurre una funzione da un dato momento nel tempo?

Amazon SageMaker Feature Store mantiene i time stamp per tutte le funzionalità in ogni istanza di tempo. Ciò ti aiuta a recuperare le funzionalità in qualsiasi periodo di tempo per requisiti di business o di conformità. Puoi facilmente spiegare le funzionalità del modello e i loro valori da quando sono stati creati per la prima volta a oggi, riproducendo il modello a partire da un dato momento nel tempo.

D: Quali sono le funzionalità offline?

Le funzionalità offline sono utilizzate per l’addestramento perché è necessario accedere a volumi molto grandi per un lungo periodo di tempo. Queste caratteristiche sono servite da un repository a velocità effettiva e a larghezza di banda elevati.

D: Quali sono le caratteristiche online?

Le caratteristiche online sono utilizzate nelle applicazioni necessarie per fare previsioni in tempo reale. Le caratteristiche online sono servite da un repository ad elevata velocità effettiva con latenza pari a singole unità di millesecondi per previsioni veloci.

D. Come sono calcolati i prezzi di Amazon SageMaker Feature Store?


Grazie al piano gratuito di AWS, puoi iniziare a utilizzare Amazon SageMaker Feature Store gratuitamente. Con SageMaker Feature Store, si paga per la scrittura nel feature store, e per la lettura e l’archiviazione dal feature store online. La pagina dei prezzi di SageMaker contiene tutti i dettagli su come vengono calcolati i prezzi per SageMaker Feature Store.

D: Cos'è Amazon SageMaker Ground Truth?

Amazon SageMaker Ground Truth fornisce l’etichettatura di dati automatizzata tramite il machine learning. SageMaker Ground Truth selezionerà prima un campione casuale di dati e lo invierà ad Amazon Mechanical Turk per essere etichettato. I risultati vengono quindi utilizzati per addestrare un modello di etichettatura che tenta di etichettare automaticamente un nuovo campione di dati grezzi. Le etichette vengono inoltrate quando il modello è in grado di etichettare i dati con un punteggio di affidabilità uguale o superiore alla soglia definita. Quando il punteggio di affidabilità è inferiore alla soglia definita, i dati vengono inviati a etichettatori umani. Alcuni dei dati etichettati da persone vengono utilizzati per generare un nuovo gruppo di dati per formare un modello di etichettatura e il modello viene formato nuovamente in modo automatico per migliorarne l’accuratezza. Questo processo si ripete con ogni campione di dati grezzi da etichettare. Con ogni iterazione, il modello di etichettatura migliora la sua capacità di etichettare automaticamente i dati grezzi e meno dati vengono instradati agli esseri umani.
 

Creazione di modelli

D: Cosa sono i notebook Amazon SageMaker Studio?

I notebook Amazon SageMaker Studio sono notebook Jupyter collaborativi, flessibil e gestiti che fanno parte di Amazon SageMaker Studio, un ambiente di sviluppo completamente integrato per il machine learning.

D: In che modo i notebook SageMaker Studio sono diversi dall'offerta di notebook basati sulle istanze?

I notebook SageMaker Studio offrono alcune importanti funzionalità che li differenziano dai notebook basati sull'istanza. Con i notebook Studio, è possibile avviare rapidamente notebook senza dover effettuare manualmente il provisioning di un'istanza e aspettare che sia operativa. Il tempo dello startup dell'avvio dell'interfaccia utente per leggere ed eseguire un notebook è più rapido rispetto ai notebook basati sulle istanze.

Hai anche la flessibilità di scegliere tra una vasta raccolta di tipi di istanze all'interno dell'interfaccia utente in qualsiasi momento. Non è necessario andare alla console AWS per avviare nuove istanze e trasferirle sui tuoi notebook.

Ciascun utente avrà una home directory isolata e indipendente da una determinata istanza. Questa directory viene automaticamente montata su tutti i server e kernel dei notebook all'avvio, in modo da poter accedere ai notebook e ad altri file anche quando si cambia istanza per visualizzarli ed eseguirli.

Grazie all'integrazione con AWS SSO, l'uso delle credenziali della propria organizzazione per accedere ai notebook SageMaker Studio risulta notevolmente semplificato. La condivisione dei notebook è una funzionalità integrata nei notebook SageMaker Studio. Inoltre, basta un clic per condividere i notebook con i colleghi.

D. Come funzionano i notebook Amazon SageMaker Studio?

I notebook Amazon SageMaker Studio sono notebook Jupyter che possono essere ruotati rapidamente con un semplice clic. Le risorse di calcolo sottostanti sono completamente elastiche, in modo da calibrare le risorse disponibili, e le modifiche vengono attuate in modo automatico in background senza interrompere il lavoro. SageMaker permette anche la condivisione di notebook con un clic. Puoi condividere facilmente i notebook con altri utenti, i quali avranno a disposizione lo stesso identico notebook salvato nella medesima posizione.

Con i notebook SageMaker Studio è possibile accedere con le credenziali aziendali tramite AWS SSO. La condivisione dei notebook nell'ambito dei team e tra essi è semplice, poiché le dipendenze necessarie per far funzionare un notebook vengono automaticamente monitorate in immagini di lavoro con esso durante la sua condivisione.

D: Come funzionano i notebook Amazon SageMaker Studio con altri servizi AWS?

I notebook Amazon SageMaker Studio offrono accesso a tutte le funzionalità di SageMaker, quali addestramento distribuito, trasformazione in batch, hosting e gestione degli esperimenti. Puoi accedere ad altri servizi come set di dati in Amazon S3, Amazon Redshift, AWS Glue, Amazon EMR o AWS Lake Formation dai Notebook SageMaker.

D: Come sono calcolati i prezzi dei notebook SageMaker Studio?

Saranno addebitati sia i costi per il calcolo che per lo storage durante l'utilizzo di notebook SageMaker Studio. Consulta i prezzi di Amazon SageMaker per conoscere i costi in base al tipo di istanza di calcolo. I notebook e gli artefattii associati di tua appartenenza come file di dati e script vengono conservati in Amazon EFS. Consulta i prezzi di Amazon EFS per conoscere i costi di archiviazione. Grazie al piano gratuito di AWS, è possibile iniziare a utilizzare i notebook Amazon SageMaker gratuitamente.

D: Sono addebitati costi separati per ogni notebook creato ed eseguito in SageMaker Studio?

No. È possibile creare ed eseguire più notebook sulla stessa istanza di calcolo. Paghi solamente in base al calcolo che utilizzi e non per i singoli elementi. Ulteriori informazioni a riguardo sono disponibili nella nostra guida alla tariffazione.

Oltre ai notebook, è inoltre possibile avviare ed eseguire terminali e shell interattive in Studio, tutti sulla stessa istanza di calcolo. Ogni applicazione viene eseguita all'interno di un container o di un'immagine. SageMaker Studio offre diverse immagini incorporate appositamente create e preconfigurate per data science e machine learning. Ulteriori informazioni sull'ambiente di sviluppo di Studio sono disponibili nella guida per l'utilizzo dei notebook SageMaker Studio.

D: Come posso monitorare e arrestare le risorse utilizzate dai miei notebook?

Puoi monitorare e arrestare le risorse utilizzate dai tuoi notebook SageMaker Studio tramite l'interfaccia visiva di SageMaker Studio e la console di gestione AWS. Per ulteriori informazioni, consulta la documentazione.

D: Se eseguo un notebook Amazon SageMaker Studio, mi verranno comunque addebitati costi se chiudo il browser, la scheda dei notebook o semplicemente lascio il browser aperto?

Sì, continueranno a essere addebitati i costi di calcolo. È una situazione simile all'avvio delle istanze Amazon EC2 nella console di gestione AWS e quindi alla chiusura del browser. Le istanze Amazon EC2 sono ancora in esecuzione e vengono comunque addebitati costi a meno che non si chiuda esplicitamente l'istanza.

D: Come sono addebitati i costi di creazione e configurazione di un dominio Studio?

No, non ti viene addebitato alcun costo per la creazione o la configurazione di un dominio Studio, inclusi l'aggiunta, l'aggiornamento e l'eliminazione dei profili utente.

D: Come visualizzo i costi dettagliati per i notebook Studio o altri servizi SageMaker?

In qualità di amministratore, puoi visualizzare l'elenco degli addebiti dettagliati per SageMaker, incluso Studio, nella console AWS per la fatturazione. Dalla console di gestione AWS per SageMaker, scegli Servizi nel menu in alto, digita Fatturazione nella casella di ricerca e seleziona Fatturazione dal menu a discesa, quindi seleziona Fatture nel pannello di sinistra. Nella sezione Dettagli, puoi fare clic su SageMaker per espandere l'elenco delle regioni e ancora clic ripetutamente fino a visualizzare gli addebiti in dettaglio.

Addestra modelli

D: Cos'è Amazon SageMaker Experiments?

Amazon SageMaker Experiments ti aiuta ad organizzare e controllare le iterazioni sui modelli di machine learning. SageMaker Experiments ti aiuta a gestire le iterazioni con l'acquisizione automatica di parametri di input, configurazioni e risultati salvandoli come "esperimenti". Puoi lavorare all'interno dell'interfaccia visiva di SageMaker Studio, in cui puoi sfogliare esperimenti attivi, cercare esperimenti precedenti in base alle loro caratteristiche, rivedere esperimenti precedenti e i relativi risultati e paragonare i risultati degli esperimenti in modo visivo.

D: Cos'è Amazon SageMaker Debugger?

Amazon SageMaker Debugger acquisisce automaticamente i parametri in tempo reale durante l’addestramento come matrici di confusione e gradienti di apprendimento per aiutare a migliorare l'accuratezza del modello. I parametri di SageMaker Debugger possono essere visualizzati in SageMaker Studio per una facile comprensione. SageMaker Debugger può anche generare avvisi di allarme e correzione quando vengono rilevati comuni problemi di addestramento. SageMaker Debugger inoltre monitora e profila automaticamente le risorse di sistema come CPU, GPU, rete e memoria in tempo reale, e fornisce consigli sulla loro riassegnazione. Ciò ti abilita ad utilizzare le tue risorse in modo efficiente durante l’addestramento e aiuta a ridurre i costi e le risorse.

D: D: Amazon SageMaker supporta l’addestramento distribuito?

Sì. Amazon SageMaker è in grado di distribuire automaticamente modelli di deep learning e grandi set di addestramento fra istanze AWS GPU in una frazione del tempo necessario per costruire e ottimizzare queste strategie di distribuzione manualmente. Le due tecniche di addestramento distribuite che SageMaker applica sono il parallelismo dei dati e il parallelismo dei modelli. Il parallelismo dei dati viene applicato per migliorare la velocità di addestramento dividendo i dati equamente fra più istanze della GPU, permettendo a ciascuna istanza di addestrarsi contemporaneamente. Il parallelismo del modello è utile per i modelli troppo grandi per essere memorizzati su una singola GPU e richiedono che il modello sia partizionato in parti più piccole prima di essere distribuito su più GPU. Con solo poche righe di codice aggiuntivo nei tuoi script di addestramento PyTorch e TensorFlow, SageMaker applicherà automaticamente il parallelismo dei dati o il parallelismo dei modelli, consentendoti di sviluppare e distribuire i tuoi modelli più velocemente. SageMaker determinerà il miglior approccio per dividere il modello usando algoritmi di partizionamento dei grafici per bilanciare il calcolo di ciascuna GPU e minimizzando la comunicazione tra istanze GPU. SageMaker ottimizza inoltre i tuoi processi di addestramento distribuiti tramite algoritmi che utilizzano pienamente l'elaborazione e la rete AWS per raggiungere un'efficienza di scalabilità quasi lineare. Quest’ultima ti permette di completare l'addestramento più velocemente delle implementazioni open source manuali.

D: Cos'è Managed Spot Training?

Managed Spot Training con Amazon SageMaker ti consente di addestrare i modelli di machine learning utilizzando le istanze Spot di Amazon EC2, riducendo al contempo il costo della formazione fino al 90%.

D: In che modo è possibile utilizzare Managed Spot Training?

Puoi abilitare l'opzione Managed Spot Training durante l'invio dei tuoi processi di addestramento e specificare quanto a lungo desideri attendere per la capacità Spot. Amazon SageMaker gestisce la capacità Spot e utilizza le istanze Spot di Amazon EC2 per eseguire i tuoi processi. Avrai completa visibilità sullo stato del processo di formazione, sia quando è in esecuzione sia quando è in attesa di capacità disponibile.

D: In quali casi è indicato utilizzare Managed Spot Training?

Managed Spot Training è ideale quando hai la flessibilità di scegliere il momento in cui eseguire i processi di addestramento e per ridurre al minimo il loro costo. Con Managed Spot Training puoi ridurre il costo dell'addestramento dei modelli di machine learning fino al 90%.

D: Come funziona Managed Spot Training?

Managed Spot Training utilizza le istanze Spot di Amazon EC2 per l'addestramento. Queste istanze possono essere annullate nel caso in cui sia necessaria capacità per AWS. Come risultato, i processi di Managed Spot Training possono essere eseguiti in piccoli incrementi non appena la capacità diventa disponibile. I processi di addestramento non devono essere riavviati da zero in caso di interruzione, in quanto Amazon SageMaker può ripristinarli utilizzando l'ultimo checkpoint del modello. I framework e gli algoritmi di visione computerizzata integrati in SageMaker consentono di creare checkpoint periodici da poter abilitare con i modelli personalizzati.

D: Con Managed Spot Training è necessario creare checkpoint periodicamente?

Consigliamo di creare checkpoint periodici come procedura consigliata generale per i processi di addestramento con esecuzione prolungata. In questo modo è possibile evitare il riavvio dei processi di Managed Spot Training in caso di annullamento della capacità. Abilitando i checkpoint, Amazon SageMaker ripristina i processi di Managed Spot Training dall'ultimo checkpoint.

D: In che modo è possibile calcolare il risparmio sui costi con i processi di Managed Spot Training?

Quando completi un processo di Managed Spot Training, puoi visualizzare il risparmio nella Console di gestione AWS e calcolare il risparmio sui costi anche come differenza percentuale tra la durata di esecuzione del processo di formazione e la durata per la quale hai ricevuto la fattura.

Indipendentemente dal numero di interruzioni dei processi di Managed Spot Training, i costi ti verranno addebitati solo una volta per la durata per cui i dati erano stati scaricati.

D: Quali istanze si possono utilizzare con Managed Spot Training?

La funzione Managed Spot Training può essere utilizzata con tutte le istanze supportate in Amazon SageMaker.

D: Quali regioni di AWS sono supportate con Managed Spot Training?

Managed Spot Training è supportato in tutte le regioni di AWS nelle quali Amazon SageMaker è attualmente disponibile.

D: Sono previste limitazioni per il set di dati utilizzabile per l'addestramento?

Non sono previsti limiti fissi alle dimensioni del set di dati utilizzabile per l'addestramento di modelli con Amazon SageMaker.

D: Quali algoritmi usa Amazon SageMaker per generare modelli?

Amazon SageMaker include di default algoritmi per regressione lineare, regressione logistica, clustering k-medie, analisi delle componenti principali, macchine di fattorizzazione, topic modeling neurale, allocazione latente di Dirichlet, alberi con gradient boosting, sequence2sequence, previsione di serie storiche, word2vec e classificazione di immagini. SageMaker fornisce inoltre container ottimizzati Apache MXNet, Tensorflow, Chainer, PyTorch, Gluon, Keras, Horovod, Scikit-learn e Deep Graph Library. Infine, Amazon SageMaker supporta gli algoritmi di addestramento personalizzati tramite immagini Docker conformi alle specifiche documentate.

D: Cos'è l'ottimizzazione automatica dei modelli

La maggior parte degli algoritmi di apprendimento automatico impiegano una serie di parametri che controllano il funzionamento dell'algoritmo sottostante. Questi parametri vengono in genere chiamati iperparametri; i loro valori influenzano la qualità dei modelli addestrati. L'ottimizzazione automatica dei modelli è il processo di ricerca di un set di iperparametri di un algoritmo che offrano un modello ottimale.

D: A quali modelli può essere applicata l'ottimizzazione automatica dei modelli?

È possibile eseguire l'ottimizzazione di modelli in Amazon SageMaker su qualsiasi algoritmo purché sia scientificamente fattibile, ad esempio algoritmi integrati in SageMaker, reti neurali profonde o algoritmi arbitrari caricati in SageMaker sotto forma di immagini Docker.

D: È possibile utilizzare l'ottimizzazione automatica dei modelli al di fuori di Amazon SageMaker?

No, al momento no. Esperienza e prestazioni di ottimizzazione del modello sono migliori nell'ambito di Amazon SageMaker.

D: In cosa consiste l'algoritmo di ottimizzazione sottostante?

Al momento, il nostro algoritmo per l'ottimizzazione degli iperparametri è un'implementazione ottimizzata dell'ottimizzazione baynesiana. Il suo scopo è l'ottimizzazione dei parametri secondo un obiettivo stabilito dal cliente. In particolare, verifica i parametri di oggetto per i processi di addestramento completati e sfrutta i dati ottenuti per dedurre la combinazione di iperparametri per il processo di addestramento successivo.

D: Sono previsti suggerimenti per l'ottimizzazione di specifici iperparametri?

No. Il modo in cui i singoli iperparametri alterano le prestazioni di un modello dipende da diversi fattori e non è semplice stabilire se un iperparametro sia più importante di altri e debba essere quindi modificato. Per gli algoritmi in Amazon SageMaker, è già stabilito quali iperparametri possono essere ottimizzati.

D: Quanto tempo richiede un processo di ottimizzazione di iperparametri?

La durata di un processo di ottimizzazione degli iperparametri dipende da diversi fattori, tra cui le dimensioni dei dati, l'algoritmo sottostante e i valori degli iperparametri. Inoltre, i clienti potranno scegliere il numero di processi di addestramento simultanei e il numero totale. Tutte queste scelte influenzano la durata del processo di ottimizzazione.

D: È possibile ottimizzare diversi obiettivi simultaneamente, ad esempio ottenendo un modello sia rapido sia preciso?

No, al momento no. È necessario specificare un singolo obiettivo di ottimizzazione, oppure modificare il codice dell'algoritmo in modo che emetta un nuovo parametro, che sarà confrontato con altri parametri per applicarvi il processo di addestramento secondo il nuovo obiettivo.

D: Quanto costa l'ottimizzazione automatica dei modelli?

Per il processo di ottimizzazione di per sé non è previsto alcun costo. Saranno tuttavia addebitati i costi dei processi di addestramento avviati dal processo di ottimizzazione, secondo le tariffe di addestramento dei modelli.

D: Cosa determina la scelta di usare Amazon SageMaker o l’ottimizzazione automatica dei modelli?

Amazon SageMaker Autopilot automatizza tutto in un tipico flusso di lavoro di machine learning, tra cui la preelaborazione delle funzioni, la selezione dell'algoritmo e l'ottimizzazione dell'iperparametro, concentrandosi in particolare sui casi d'uso di classificazione e regressione. L'ottimizzazione automatica dei modelli, d'altra parte, è progettata per ottimizzare qualsiasi modello, indipendentemente dal fatto che si basi su algoritmi integrati, framework di deep learning o container personalizzati. Per ottenere flessibilità, è necessario selezionare manualmente l'algoritmo specifico, determinare gli iperparametri da ottimizzare e gli intervalli di ricerca corrispondenti.

D: Cos'è il consolidamento dell'apprendimento?

Il consolidamento dell'apprendimento è una tecnica di machine learning che consente a un agente di imparare in un ambiente interattivo tramite prove ed errori utilizzando feedback dalle proprie azioni ed esperienze.

D: Posso formare i modelli di consolidamento dell'apprendimento in Amazon SageMaker?

Sì, è possibile formare i modelli di consolidamento dell'apprendimento in Amazon SageMaker oltre ai tradizionali modelli di apprendimento supervisionato e non supervisionato.

D: In cosa è diverso il consolidamento dell'apprendimento da quello supervisionato?

Sebbene sia l'apprendimento supervisionato che il consolidamento dell'apprendimento utilizzino la mappatura tra input e output, nell'apprendimento supervisionato il feedback fornito all'agente è un insieme di azioni corretto per eseguire un'attività, mentre il consolidamento dell'apprendimento utilizza un feedback ritardato dove i segnali di ricompensa sono ottimizzati per assicurare un obiettivo a lungo termine tramite una sequenza di azioni.

D: Quando è indicato utilizzare il consolidamento dell'apprendimento?

Mentre l'obiettivo delle tecniche di apprendimento supervisionato è di trovare la risposta esatta in base ai modelli nei dati di training, l'obiettivo delle tecniche di apprendimento non supervisionato è di trovare similitudini e differenze tra i punti di dati. Al contrario, l'obiettivo delle tecniche di apprendimento per rinforzo (RL, reinforcement learning) è di imparare come ottenere un risultato desiderato anche quando non è chiaro come raggiungere tale risultato. Di conseguenza, RL è più adatto per abilitare le applicazioni intelligenti dove un agente può prendere decisioni autonome come nella robotica, veicoli con pilota automatico, HVAC, controllo industriale e altro.

D: Che tipo di ambienti possono utilizzare per formare i modelli di consolidamento dell'apprendimento?

Amazon SageMaker RL supporta un numero di ambienti diversi per la formazione di modelli di consolidamento dell'apprendimento. È possibile utilizzare i servizi AWS come AWS RoboMaker, gli ambienti open source o personalizzati sviluppato utilizzando le interfacce Open AI Gym o gli ambienti di simulazione commerciale come MATLAB e SimuLink.

D: Devo scrivere i miei algoritmi di agente RL per formare i modelli di consolidamento dell'apprendimento?

No, Amazon SageMaker RL include i kit di strumenti RL come Coach e Ray RLLib che offrono implementazioni o algoritmi di agente RL come DQN, PPO, A3C e molti altri.

D: Posso portare le mie librerie RL e l'implementazione di algoritmi ed eseguirli in Amazon SageMaker RL?

Sì, è possibile portare le librerie RL e le implementazione di algoritmi in container Docker ed eseguirle in Amazon SageMaker RL.

D: Posso effettuare rollout distribuiti utilizzando Amazon SageMaker RL?

Sì. È anche possibile selezionare un cluster eterogeneo in cui la formazione può essere eseguita su un'istanza GPU e le simulazioni possono essere eseguite su più istanze CPU.

Distribuisci modelli

D: Che cos'è Amazon SageMaker Model Monitor?

Amazon SageMaker Model Monitor consente agli sviluppatori di rilevare e correggere il concept drift. SageMaker Model Monitor rileva automaticamente il concept drift nei modelli distribuiti e fornisce avvisi dettagliati che aiutano a identificare la causa del problema. Tutti i modelli addestrati su SageMaker emettono automaticamente metriche chiave che possono essere raccolte e visualizzate su SageMaker Studio. Dall'interno di SageMaker Studio è possibile configurare i dati in modo che vengano raccolti, come visualizzarli, e quando ricevere gli avvisi.

D: È possibile accedere all'infrastruttura su cui viene eseguito Amazon SageMaker?

No. Amazon SageMaker gestisce automaticamente l'infrastruttura di elaborazione, consentendo l'esecuzione di controlli dello stato, l'applicazione di patch di sicurezza e altre attività di manutenzione di routine. È anche possibile distribuire artefatti di modelli provenienti dai processi di addestramento con codice di inferenza personalizzato nell'ambiente di hosting aziendale.

D: In che modo è possibile ricalibrare le dimensioni e le prestazioni di un modello di Amazon SageMaker una volta avviata la fase di produzione?

L'hosting di Amazon SageMaker viene ricalibrato automaticamente mediante Application Auto Scaling in base alle prestazioni necessarie all'applicazione. Inoltre, è possibile modificare manualmente il tipo e il numero di istanze senza interrompere l'operatività apportando modifiche alla configurazione dell'endpoint.

D: In che modo è possibile monitorare l'ambiente di produzione di Amazon SageMaker?

Amazon SageMaker può inoltrare i propri parametri prestazionali in Amazon CloudWatch per permetterne il monitoraggio, per impostare allarmi e configurare operazioni da eseguire in base alle variazioni del traffico. Inoltre, Amazon SageMaker trascrive i propri log in Amazon CloudWatch Logs per favorire monitoraggio e risoluzione dei problemi negli ambienti di produzione.

D: Quali tipi di modelli possono essere conservati in hosting con Amazon SageMaker?

Amazon SageMaker è compatibile con l'hosting di qualsiasi modello conforme alle specifiche documentate per le immagini Docker di inferenza. Sono pertanto inclusi i modelli creati a partire da codice di inferenza e artefatti di modello di Amazon SageMaker.

D: Quante richieste simultanee in tempo reale dell'API supporta Amazon SageMaker?

Amazon SageMaker è stato progettato per ricalibrare le risorse fino a supportare un numero elevato di transazioni al secondo. Il numero preciso varia in base al modello distribuito e a tipo e numero di istanze in cui il modello è stato implementato.

D: Che cos'è la trasformazione in batch?

La trasformazione in batch abilita ad eseguire analisi predittive su batch di dati di piccole e grandi dimensioni. Non è necessario porzionare il set di dati o gestire gli endpoint in tempo reale. È possibile richiedere analisi predittive con una semplice API per un numero elevato di record di dati, eseguendone la trasformazione in modo rapido e semplice.

D: Cos’è Amazon SageMaker Edge Manager?

Amazon SageMaker Edge Manager è una funzionalità di Amazon SageMaker che semplifica l'ottimizzazione, la sicurezza, il monitoraggio e la manutenzione di modelli di machine learning su flotte di dispositivi edge come telecamere intelligenti, robot, personal computer e dispositivi mobili. SageMaker Edge Manager aiuta gli sviluppatori di ML a utilizzare i modelli di ML su una varietà di dispositivi edge su larga scala.

Q: Come si inizia a usare Amazon SageMaker Edge Manager?

Per iniziare con SageMaker Edge Manager, è necessario compilare e confezionare i modelli addestrati di ML nel cloud, registrare i dispositivi e prepararli con l'SDK di SageMaker Edge Manager. Per preparare il modello per l’implementazione, SageMaker Edge Manager utilizza SageMaker Neo per compilare il modello per l'hardware edge di destinazione. Una volta compilato un modello, SageMaker Edge Manager firma il modello con una chiave generata da AWS, quindi confeziona il modello con il proprio runtime e le credenziali necessarie per prepararlo all’implementazione. Dal lato del dispositivo, si registra il dispositivo con SageMaker Edge Manager, si scarica l'SDK di SageMaker Edge Manager e si seguono le istruzioni per installare l'agente SageMaker Edge Manager sui propri dispositivi. Il notebook del tutorial fornisce un esempio passo per passo di come è possibile preparare i modelli e collegarli con SageMaker Edge Manager su dispositivi edge.

D: Quali dispositivi sono supportati da SageMaker Edge Manager?

Amazon SageMaker Edge Manager supporta i comuni dispositivi basati su CPU (ARM, x86) e GPU (ARM, Nvidia) con sistemi operativi Linux e Windows. Nel corso del tempo, SageMaker Edge Manager si espanderà per supportare più processori incorporati e piattaforme mobili che sono supportati anche da SageMaker Neo.

D: Devo utilizzare Amazon SageMaker per addestrare il mio modello e poter utilizzare Amazon SageMaker Edge Manager?

No. È possibile addestrare i propri modelli altrove o utilizzare un modello preaddestrato open source o un modello del tuo fornitore.

D: Devo utilizzare Amazon SageMaker Neo per compilare il mio modello e poter utilizzare Amazon SageMaker Edge Manager?

Sì. Amazon SageMaker Neo converte e compila i propri modelli in un eseguibile che è poi possibile confezionare e implementare sui tuoi dispositivi edge. Una volta che il pacchetto del modello è implementato, l'agente di Amazon SageMaker Edge Manager decomprimerà il pacchetto ed eseguirà il modello sul dispositivo.

Q: Come faccio a distribuire i modelli ai dispositivi edge?

Amazon SageMaker Edge Manager archivia il pacchetto del modello nel proprio specifico bucket di Amazon S3. È possibile utilizzare la funzione di distribuzione over-the-air (OTA) fornita da AWS Iot Greengrass o qualsiasi altro meccanismo di distribuzione a scelta per distribuire il pacchetto del modello dal proprio bucket S3 ai dispositivi.

D: In che modo l’SDK di Amazon SageMaker Edge Manager è diverso dal runtime di SageMaker Neo (dlr)?

Neo dlr è un runtime open source che esegue solo modelli compilati dal servizio Amazon SageMaker Neo. Rispetto all'open source dlr, l'SDK di SageMaker Edge Manager include un agente di livello aziendale integrato nel dispositivo con ulteriore sicurezza, gestione dei modelli e funzionalità di model serving. L’SDK di SageMaker Edge Manager è adatto per la distribuzione della produzione su larga scala.

D: Come è collegato Amazon SageMaker Edge Manager con AWS IoT Greengrass?

Amazon SageMaker Edge Manager e AWS IoT Greengrass possono lavorare insieme alla tua soluzione di IoT. Una volta che il modello di ML è confezionato con SageMaker Edge Manager, è possibile utilizzare la funzione di aggiornamento OTA di AWS Iot Greengrass per implementare il pacchetto del modello sul proprio dispositivo. AWS IoT Greengrass permette di monitorare i dispositivi IoT da remoto, mentre SageMaker Edge Manager aiuta a monitorare e mantenere i modelli di ML sui dispositivi.

D: Come è collegato Amazon SageMaker Edge Manager con AWS Panorama? Quando si deve usare Amazon SageMaker Edge Manager e quando AWS Panorama?

AWS offre la massima portata e completezza delle funzionalità per l'esecuzione di modelli su dispositivi edge. Disponiamo di servizi che supportano una vasta gamma di casi d'uso tra cui la visione computerizzata, il riconoscimento vocale e la manutenzione predittiva.

Per le aziende che intendono eseguire la visione computerizzata su dispositivi edge come telecamere e elettrodomestici, è possibile utilizzare AWS Panorama. Panorama offre applicazioni di visione computerizzata pronte all’uso per i dispositivi edge. È facile iniziare con AWS Panorama accedendo alla console cloud, specificando il modello che si desidera utilizzare in Amazon S3 o in SageMaker, e poi scrivendo la logica aziendale come script python. AWS Panorama compila il modello per il dispositivo di destinazione e crea un pacchetto di applicazioni in modo che possa essere distribuito ai propri dispositivi con pochi clic. Inoltre, i produttori di software indipendenti (ISV, Independent Software Vendor) che vogliono creare le proprie applicazioni personalizzate possono utilizzare AWS Panorama SDK, mentre i produttori di dispositivi possono utilizzare Device SDK per certificare i propri dispositivi per AWS Panorama.

I clienti che vogliono creare i propri modelli e hanno un controllo più granulare delle caratteristiche del modello, possono utilizzare Amazon SageMaker Edge Manager. SageMaker Edge Manager è un servizio gestito per la preparazione, l’esecuzione, il monitoraggio e l’aggiornamento di modelli di machine learning (ML) in flotte di dispositivi edge come telecamere intelligenti, altoparlanti intelligenti e robot per qualsiasi caso d’uso, come l'elaborazione del linguaggio naturale, l’individuazione delle frodi e la manutenzione predittiva. SageMaker Edge Manager è concepito per gli sviluppatori edge di ML che vogliono avere il controllo del proprio modello tra cui la progettazione di diverse funzionalità e monitorare i modelli in caso di deviazione. Qualsiasi sviluppatore edge di ML può utilizzare SageMaker Edge Manager attraverso la console e le API di SageMaker. SageMaker Edge Manager trasferisce le funzionalità di SageMaker quali creazione, addestramento e distribuzione di modelli nel cloud ai dispositivi edge.

D: In quali regioni AWS è disponibile Amazon SageMaker Edge Manager?

Amazon SageMaker Edge Manager è disponibile in 6 Regioni AWS: Stati Uniti Orientali (Virginia settentrionale), Stati Uniti Orientali (Ohio), Stati Uniti Occidentali (Oregon), UE (Irlanda), UE (Francoforte) e Asia Pacifico (Tokyo). Per i dettagli consulta la tabella delle Regioni AWS.

D: Cos'è Amazon SageMaker Neo?

Amazon SageMaker Neo consente di addestrare una sola volta i modelli di machine learning e di eseguirli ovunque nel cloud e nell'edge. SageMaker Neo ottimizza automaticamente i modelli costruiti con framework comuni di deep learning che possono essere utilizzati per la distribuzione su più piattaforme hardware. I modelli ottimizzati vengono eseguiti fino a 25 volte più velocemente e consumano meno di un decimo delle risorse dei modelli tradizionali di machine learning.

D: Come si inizia a usare Amazon SageMaker Neo?

Per iniziare a usare Amazon SageMaker Neo, è necessario eseguire l'accesso nella relativa console, scegliere un modello formato, seguire l'esempio per compilare i modelli e distribuire il modello risultante nella piattaforma hardware di destinazione.

D: Quali sono i componenti principali di Amazon SageMaker Neo?

Amazon SageMaker Neo contiene due componenti principali: un compilatore e un runtime. Prima, il compilatore Neo legge modelli esportati da diversi framework. Converte quindi le funzioni specifiche del framework e le operazioni in una rappresentazione intermedia indipendente dal framework. Inoltre, esegue una serie di ottimizzazioni. Quindi, il compilatore genera un codice binario per le operazioni ottimizzate e le scrive in una libreria di oggetti condivisa. Il compilatore salva inoltre la definizione del modello e i parametri in file separati. Durante l'esecuzione, il runtime Neo carica gli artefatti generati dal compilatore, definizione del modello, parametri e libreria di oggetti condivisa per eseguire il modello.

D: Devo utilizzare Amazon SageMaker per formare il mio modello e poter utilizzare Amazon SageMaker Neo per convertire il modello?

No. È possibile formare modelli altrove e utilizzare Neo per ottimizzarli per le istanze ML Amazon SageMaker o i dispositivi supportati AWS IoT Greengrass.

D: Quali modelli supporta Amazon SageMaker Neo?

Al momento, Amazon SageMaker Neo supporta i modelli di deep learning più conosciuti che alimentano le applicazioni di visione artificiale e i modelli di albero delle decisioni utilizzati in Amazon SageMaker oggi. Neo ottimizza le prestazioni dei modelli AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet e DenseNet addestrati in MXNet e TensorFlow, e i modelli classification e random cut forest addestrati in XGBoost.

D: Quali piattaforme hardware supporta Amazon SageMaker Neo?

È possibile trovare l’elenco delle istanze cloud supportate, dei dispositivi edge e delle versioni del framework nella documentazione relativa ad Amazon SageMaker Neo.

D: In quali regioni AWS è disponibile Amazon SageMaker Neo?

Per visualizzare le regioni supportare, consulta la tabella delle Regioni AWS.

D: Quali opzioni di implementazione fornisce Amazon SageMaker?

Una volta creati e formati dei modelli, Amazon SageMaker fornisce tre opzioni per implementarli, permettendoti di iniziare a fare previsioni. L'inferenza in tempo reale è adeguata per carichi di lavoro con requisiti di latenza di millisecondi, dimensioni di payload fino a 6MB e tempi di elaborazione fino a 60 secondi. La trasformazione in batch è ideale per previsioni offline su grandi batch di dati disponibili in anticipo. L'inferenza asincrona è progettata per carichi di lavoro che non richiedono latenza inferiore al secondo, dimensioni di payload fino a 1GB e tempi di elaborazione fino a 15 minuti. 

D: Cos'è Amazon SageMaker Asynchronous Inference?

Amazon SageMaker Asynchronous Inference mette in coda le richieste in entrata, elaborandole in maniera asincrona. Questa opzione è ideale per richieste con payload di grandi dimensioni e tempi di elaborazione lunghi che richiedono l'elaborazione al loro arrivo. Facoltativamente, quando non stai elaborando attivamente delle richieste, puoi configurare la scalabilità automatica per ridurre a zero il conto delle istanze e risparmiare sui costi. 

D: Come configuro le impostazioni di scalabilità automatica per ridurre a zero il conto delle istanze quando non sto elaborando le richieste attivamente?

È possibile ridurre a zero il conto delle istanze di endpoint di Amazon SageMaker Asynchronous Inference per risparmiare sui costi quando non stai elaborando le richieste attivamente. È necessario definire una policy di dimensionamento che dimensioni sul parametro personalizzato "ApproximateBacklogPerInstance" e imposti il valore "MinCapacity" su zero. Per istruzioni passo, visita la sezione Dimensionamento automatico di un endpoint asincrono nella guida per gli sviluppatori. 

Savings Plans di Amazon SageMaker

D: Cosa sono i Savings Plans di Amazon SageMaker?

Savings Plans di Amazon SageMaker offre un modello flessibile di determinazione dei prezzi basato sull'uso per Amazon SageMaker, in cambio dell'impegno di un uso costante (misurato in dollari/ore) per un periodo annuale o triennale. Amazon SageMaker Savings Plans fornisce la massima flessibilità e contribuiscono a ridurre i costi fino al 64%. Questi piani si applicano automaticamente agli usi idonei delle istanze ML SageMaker, inclusi SageMaker Studio Notebooks, SageMaker On-Demand Notebooks, SageMaker Processing, SageMaker Data Wrangler, SageMaker Training, SageMaker Real-Time Inference e SageMaker Batch Transform, indipendentemente dalla famiglia di istanze, dalla dimensione o dalla regione. Per esempio, si può modificare in qualsiasi momento l'uso da un'istanza CPU ml.c5.xlarge in esecuzione negli Stati Uniti orientali (Ohio) a un'istanza ml.Inf1 in esecuzione negli Stati Uniti occidentali (Oregon) per carichi di lavoro di inferenza e continuare automaticamente a pagare il prezzo di Savings Plans.

Perché dovrei usare Savings Plans di Amazon SageMaker?

In caso di uso costante (misurato in dollari/ore) delle istanze Amazon SageMaker e di molteplici componenti di SageMaker o se si prevede un cambiamento della configurazione tecnologica (ad esempio famiglia di istanze, regione) nel corso del tempo, SageMaker Savings Plans semplifica l'ottimizzazione dei risparmi offrendo allo stesso tempo la flessibilità di modificare la configurazione tecnologica sottostante in base alle necessità dell'applicazione o alle innovazioni. La tariffa Savings Plans si applica automaticamente a tutti gli usi idonei delle istanze ML senza che sia necessaria alcuna modifica manuale.

D: Come si comincia a usare i Savings Plans di Amazon SageMaker?

Si può cominciare a usare i Savings Plans da AWS Cost Explorer nella console di gestione o usando l'API/CLI. Puoi stabilire facilmente l'impegno per i Savings Plans usando i suggerimenti forniti in AWS Cost Explorer per ottenere il massimo risparmio. L'impegno orario suggerito si basa sullo storico dell'uso on demand e sulla scelta del tipo di piano, della durata e dell'opzione di pagamento. Una volta effettuata l'iscrizione a Savings Plan, l'uso sarà automaticamente fatturato alla tariffa scontata del prezzo di Savings Plans e ogni uso superiore all'impegno stabilito sarà fatturato alla tariffa on demand normale.

D: Qual è la differenza tra Savings Plans per Amazon SageMaker e Compute Savings Plans per Amazon EC2?

La differenza tra Savings Plans per Amazon SageMaker e Savings Plans per EC2 sta nei servizi inclusi. SageMaker Savings Plans si applica esclusivamente agli usi delle istanze di machine learning SageMaker.

D: Come funziona Savings Plans con AWS Organizations/Fatturazione consolidata?

Savings Plans può essere acquistato in qualsiasi account all'interno di una famiglia AWS Organization/Fatturazione consolidata. Per impostazione predefinita, il vantaggio fornito da Savings Plans è applicabile all'uso in tutti gli account di una famiglia AWS Organization/Fatturazione consolidata. Si può anche scegliere tuttavia di restringere il vantaggio di Savings Plans al solo account in cui si è effettuato l'acquisto.

Ulteriori informazioni sui prezzi di Amazon SageMaker

Visita la pagina dei prezzi
Sei pronto per iniziare?
Registrati
Hai altre domande?
Contattaci