Mercoledì, 24 febbraio 2021
 10:00 - 13:30 CET

50

sessioni, 
1 traccia in italiano

Chiedi agli
esperti
Domande e risposte in diretta
Storie di
clienti
Casi d'uso
Esperienza
ML
Ulteriori informazioni
Nozioni di
base
Innovazione
In-Partnership-With-Intel-it-IT
 Mercoledì, 24 febbraio 2021
 10:00 - 13:30 CET

50

sessioni, 
1 traccia in italiano

Chiedi agli
esperti
Domande e risposte in diretta
Storie di
clienti
Casi d'uso
Esperienza
ML
Ulteriori informazioni
Nozioni di
base
Innovazione
In-Partnership-With-Intel-it-IT

Agenda

Lasciati ispirare e scopri come utilizzare il Machine Learning per migliorare le tue esperienze, semplificare le operazioni e ridurre i rischi. Al termine dell’evento saprai come implementare questi progetti nella tua azienda. Approfondisci una delle oltre cinquanta sessioni tecniche e business presentate dagli esperti AWS che condivideranno con te le ultime innovazioni in ambito AI/ML, i concetti chiave, i casi d’uso aziendali e le best practice di progettazione. Gli esperti saranno a tua disposizione per rispondere alle tue domande dal vivo.

 Scarica l’agenda in sintesi »

Sessioni

  •  Italiano
  • Keynote di Apertura
  • Sono uno sviluppatore di applicazioni
  • Sono un data scientist
  • Sono un Data Engineer
  • Sono un MLOps Engineer
  • Sono un Technical Decision Maker
  • Sono un Decision Maker aziendale
  •  Italiano
  • Tutte le sessioni saranno in italiano


    Keynote di Apertura

    Speaker: Alex Casalboni Sr. Developer Advocate, AWS
    Durata: 30 minuti


    Crea e utilizza modelli per il rilevamento di anomalie senza competenze di ML (Livello 300)

    Speaker: Woody Borraccino, Sr Specialist Solutions Architect, AWS
    Durata: 30 minuti


    Come standardizzare e automatizzare il processo di ingegneria delle funzionalità (Livello 300)

    Speaker: Veziona Ekonomi, Sr Solutions Architect, AWS
    Durata: 30 minuti


    ML sul campo: quattro chiacchiere con Luca Bianchi, AWS Serverless Hero (Livello 200)

    Speaker: Alex Casalboni, Sr. Developer Advocate, AWS | Luca Bianchi, AWS Serverless Hero
    Durata: 30 minuti


    Come automatizzare i processi di ML con una pipeline end-to-end (Livello 300)

    Speaker: Giuseppe Angelo Porcelli, Principal ML Specialist Solutions Architect, AWS
    Durata: 30 minuti

  • Keynote di Apertura
  • Il Machine Learning è una delle tecnologie più innovative di questo periodo storico. Più di 100.000 aziende oggi usano i servizi di Machine Learning di AWS, in qualsiasi settore. Durante questa Keynote vi illustreremo una panoramica di servizi che questi clienti stanno utilizzando per innovare in modo più rapido e per aumentare la produttività. Introdurremo anche le tracce disponibili all’interno di Innovate Online Conference per aiutarti a individuare la migliore per il tuo business, sfruttando al meglio la tua giornata.

    Questa sessione serà in italiano

    Speaker: Alex Casalboni Sr. Developer Advocate, AWS
    Durata: 30 minuti

  • Sono uno sviluppatore di applicazioni
  • In merito alla sessione

    Apprendi come aggiungere rapidamente e facilmente funzionalità AI e modelli ML alle tue applicazioni. Non è necessario essere un esperto: chiama le API oppure ricorri a modelli standard ed è presto fatto!

    Tutte le sessioni saranno in inglese

    Aggiungi il tuo modello di visione computerizzata alla tua applicazione senza competenze ML (Livello 200)

    La visione computerizzata consente ai dispositivi di identificare persone, luoghi e cose tramite immagini con un'accuratezza pari o superiore ai livelli umani e con maggiore velocità ed efficienza. Le applicazioni della visione computerizzata sono di vasta portata e si estendono dall’identificazione di difetti nelle linee di assemblaggio ad alta velocità all’analisi di immagini in ambito medico.

    In questa sessione costruiremo un sistema automatico di moderazione dei contenuti utilizzando Amazon Rekognition. Questa demo contrassegna i contenuti potenzialmente non sicuri o non appropriati nelle risorse video e nelle immagini e fornisce etichette dettagliate che permettono di controllare accuratamente i contenuti consentiti in base alle esigenze. L’aspetto migliore? L’uso di Rekognition non richiede esperienza precedente di Machine Learning.

    Speaker: Sohan Maheshwar, Developer Advocate, AWS
    Durata: 30 minuti


    Crea i tuoi modelli di rilevamento di difetti e anomalie senza competenze ML (Livello 300)

    In quale modo i team di sviluppo possono aggiungere funzionalità intelligenti alle tue applicazioni aziendali senza competenze ML? In questa sessione pratica ci concentreremo su due casi d’uso specifici che si riferiscono al rilevamento di anomalie. Approfondiremo i passaggi pratici per identificare i difetti dei prodotti nelle immagini e come scoprire i valori fuori norma e i problemi nei parametri aziendali.

    Speaker: Alex Casalboni, Senior Developer Advocate, AWS
    Durata: 30 minuti


    Distribuisci modelli e soluzioni ML innovativi con un solo clic (Livello 300)

    Distribuisci modelli e soluzioni ML innovativi con un solo clic (livello 300). Gli sviluppatori che non hanno esperienza in questo ambito spesso trovano difficoltà con l’importazione di un modello da uno dei parchi modelli più utilizzati e con la relativa distribuzione a un endpoint API. I componenti aggiuntivi che sono necessari per lanciare un applicazione ML funzionante sono necessari anche componenti aggiuntivi, inclusi i gateway l’elaborazione serverless, lo storage di oggetti, l’ETL streaming, i pannelli di controllo e l’autenticazione. Così, il processo end-to-end per la creazione di una soluzione può richiedere mesi ai nuovi utenti ML o prolungarsi ancora più a lungo. In questa sessione ti mostreremo come lanciare sul mercato in modo rapido e semplice le applicazioni ML. Ti dimostreremo come distribuire le soluzioni ML usando modelli pronti all’uso e come personalizzarli per specifici problemi aziendali. Con pochi clic, ti mostreremo come lanciare soluzioni ML preconfigurate con tutte le risorse AWS necessarie per la produzione, inclusi un modello CloudFormation e l’architettura di riferimento.

    Speaker: Sébastien Stormacq, Principal Developer Advocate, AWS
    Durata: 30 minuti


    L’angolo dell’esperto: chattiamo con Luca Bianchi, AWS Serverless Hero (Livello 200)

    In questa sessione Marcia chatterà con Luca Bianchi, AWS Serverless Hero e CTO di Neosperience. Ci chiederemo se i servizi gestiti tramite AI siano in grado di produrre gli stessi risultati dei modelli personalizzati con addestramento Sagemaker. Forniremo anche alcuni consigli agli sviluppatori che operano nel mondo ML e condivideremo le migliori best practice nei 30 minuti di tempo che abbiamo a disposizione.

    Speaker: Marcia Villalba, Senior Developer Advocate, AWS | Luca Bianchi, AWS Serverless Hero
    Durata: 30 minuti

  • Sono un data scientist
  • In merito alla sessione

    Scopri come creare, addestrare e distribuire modelli di alta qualità, di ogni dimensione, senza preoccuparti dell’infrastruttura. Concentrati sulla comprensione del problema ML che devi affrontare e su come risolverlo usando algoritmi esistenti o quelli che hai creato tu.

    Tutte le sessioni saranno in inglese

    Trasferisci e ridimensiona le tue sperimentazioni ML nella cloud (Livello 200)

    Hai gestito finora i tuoi notebook e le sperimentazioni di Machine Learning sul tuo laptop oppure dividendo le risorse con i colleghi su un server Jupyter comune, cercando di condividere e collaborare senza tracciare le dipendenze e altre restrizioni? È il momento di far salire il tuo ambiente ML sulla cloud.

    Questa sessione ti presenterà Amazon SageMaker e in particolare i notebook di SageMaker. Potrai accedere ai notebook nel giro di qualche secondo, senza perdere tempo con le istanze di calcolo, ridimensionare o estendere le risorse in modo semplice e rapido, condividere i notebook in modo che altri possano riprodurre i risultati con gli stessi dati, ambienti e dipendenze dalle librerie, accedere ad altre risorse AWS, controllare i parametri di sicurezza, creare modelli più facilmente e collaborare su vasta scala.

    Speaker: Boaz Ziniman, Principal Developer Advocate, AWS
    Durata: 30 minuti


    Rilevare i potenziali errori dei tuoi set di dati e comprendi le previsioni in relazione ai tuoi modelli (Livello 300)

    Nel momento in cui i modelli ML sono creati da algoritmi che apprendono modelli statistici presenti nei set di dati, si presentano subito numerose domande. Prima di tutto, è possibile spiegare per quale motivo il nostro modello ML genera una determinata previsione? In secondo luogo, cosa accade se il nostro set di dati non descrive fedelmente il problema reale al quale il modello si riferisce? Saremo in grado di rilevare queste problematiche? Ci troveremmo di fronte a un errore di distorsione senza rendercene conto? Si tratta di domande che vanno oltre le semplici congetture, con implicazioni che potrebbero essere di ampia portata. Sfortunatamente, anche con le migliori intenzioni, non è possibile evitare la presenza di distorsioni ed errori nei set di dati e il loro trasferimento ai modelli con conseguenze a livello aziendale, etico e legale. 

    È importante che chi crea un modello e lo gestisce sia consapevole delle possibili fonti di distorsioni nel sistema produttivo. Inoltre, molte aziende e organizzazioni hanno bisogno che i modelli ML siano spiegabili prima di essere usati nella produzione. Di fatto, alcune normative richiedono esplicitamente la spiegabilità dei modelli per un decision making consequenziale. Nella sessione pratica, apprenderai come Amazon SageMaker Clarify può aiutarti ad affrontare le distorsioni e i problemi di spiegabilità e come usarlo con l’interfaccia utente SageMaker Studio e l’SDK di SageMaker. Vedrai anche come opera con il SageMaker Model Monitor per tracciare la misurazione delle distorsioni sui tuoi endpoint di previsione nel corso del tempo.

    Speaker: Julien Simon, Principal Developer Advocate, AI & Machine Learning, AWS
    Durata: 30 minuti


    L’angolo dell’esperto: chattiamo con Francesco Pochetti, AWS Machine Learning Hero (Livello 300)

    In questa sessione Julien chatterà con Francesco Pochetti, AWS Machine Learning Hero ed esperto Data Scientist. Discutendo in merito ai task concreti sui quali i data scientist lavorano giornalmente, oltre ai nuovi requisiti quali la spiegabilità e l’equità, nei 30 minuti a disposizione, cercheranno di condividere più best practice possibili per aiutarti a creare i tuoi modelli di alta qualità più velocemente.

    Speaker: Julien Simon, Principal Developer Advocate, AI & Machine Learning, AWS | Francesco Pochetti, AWS Machine Learning Hero
    Durata: 30 minuti


    Ridimensiona i tuoi job di addestramento più grandi con il parallelismo tra dati e modelli (Livello 400)

    Speaker: Shashank Prasanna, Senior Developer Advocate, AI/ML, AWS
    Durata: 30 minuti

  • Sono un Data Engineer
  • In merito alla sessione

    Impara come ripulire i dati grezzi e trasformarli in set dati ML espressivi, senza dover gestire un’infrastruttura. Concentrati sull’esplorazione e sulla valorizzazione dei dati che provengono da numerose origini al fine di creare modelli di alta qualità.

    Tutte le sessioni saranno in inglese

    Gestisci i tuoi dati ML in un repository centrale e sicuro (Livello 300)

    Prima di dedicarti ai dati e alla creazione di caratteristiche, devi trasferire i dati grezzi da molteplici datastore a un repository centrale che puoi usare come punto di partenza. In questa sessione puoi vedere come i dati vengano acquisiti da SQL, NoSQL, o distribuiti in streaming dalla loro origine, e come esplorarli e combinarli per creare set di dati ML, usando tool di preparazione SQL o dati visivi.

    Speaker: Javier Ramirez, Developer Advocate, AWS
    Durata: 30 minuti


    L’angolo dell’esperto: chattiamo con Walter Riviera, AI Technical Specialist at Intel (Livello 300)

    In questa sessione, Julien chatterà con Walter Riviera, an AI Technical Specialist di Intel. Condivideranno analisi tecniche sulla migliore modalità di utilizzo Intel per gestire i tuoi carichi di lavoro ML su AWS. Nel corso della sessione, si parlerà anche della tecnologia hardware e software Intel come Intel Skylake, AVX512, DLBoost, the Math Kernel Library, OpenVino e altre. Naturalmente, riceverai ulteriori informazioni sulle istanze EC2 Habana Gaudi, annunciate recentemente, che saranno disponibili su AWS nel 2021. Preparati a imparare tante cose!

    Speaker: Julien Simon, Principal Developer Advocate, AI & Machine Learning, AWS | Walter Riviera, Data Scientist, Intel
    Durata: 30 minuti


    Prepara i tuoi set di dati su vasta scala usando Apache Spark e SageMaker Data Wrangler (Livello 300)

    Pandas non è scalabile per ampi set di dati. Apache Spark è un motore open source, per l’elaborazione di analisi dei dati su larga scala grazie alle sue numerose istanze di cluster. In questa sessione illustrerò diverse modalità di utilizzare Apache Spark su AWS per analizzare set di dati di ampia portata, eseguire verifiche sulla qualità dei dati e sulle distorsioni, trasformare i dati grezzi in caratteristiche di Machine Learning e addestrare modelli predittivi.

    Speaker: Chris Fregly, Senior Developer Advocate, AI/ML, AWS
    Durata: 30 minuti


    Standardizzare e automatizzare i workflow di ingegneria delle funzionalità (Livello 300)

    In quanto data scientist, trascorrerai certamente molto tempo a creare codici di ingegneria delle funzionalità. Di fatto, dato il carattere sperimentale di questa attività, anche un piccolo progetto può comportare molteplici iterazioni. Così, eseguirai più volte lo stesso codice di ingegneria delle funzionalità sprecando tempo e risorse di calcolo ripetendo le stesse operazioni. Nelle grandi organizzazioni la perdita di produttività può essere ancora maggiore, in quanto team diversi, non sapendo dell’attività effettuata in precedenza, eseguono di frequente processi identici o scrivono duplicati di codici di ingegneria delle funzionalità. 

    Dato che l’addestramento dei modelli avviene su set di dati ingegnerizzati, è tassativo applicare le stesse trasformazioni ai dati usati per le previsioni. Di frequente, è pertanto necessario riscrivere il codice di ingegneria delle funzionalità (talvolta in una lingua diversa), integrandolo nel tuo workflow ed eseguendolo al momento della previsione. L’intero processo richiede tempo e inoltre può comportare inconsistenze. Anche la più piccola variazione nella trasformazione dei dati può avere conseguenze rilevanti sulle previsioni. In questa sessione pratica, apprenderai come risolvere questi problemi con Amazon SageMaker Feature Store e come usarlo con l’interfaccia utente SageMaker Studio e l’SDK di SageMaker. Vedrete anche come utilizzare SageMaker Data Wrangler per semplificare i tuoi workflow di preparazione dei tuoi dati end-to-end.

    Speaker: Julien Simon, Principal Developer Advocate, AI & Machine Learning, AWS
    Durata: 30 minuti

  • Sono un MLOps Engineer
  • In merito alla sessione

    Apprendi come supportare i team di data science e di ingegneria dei dati nel modo più efficiente. Automatizza i workflow end-to-end grazie ad AWS e a strumenti open source e scegli la migliore infrastruttura in ogni caso d’uso.

    Tutte le sessioni saranno in inglese

    ML sul campo: quattro chiacchiere con Pavlos Mitsoulis, AWS Machine Learning Hero (Livello 200)

    Speaker: Cobus Bernard, Senior Developer Advocate, AWS | Pavlos Mitsoulis, AWS Machine Learning Hero
    Durata: 30 minuti


    Scegli l'istanza ML corretta per il tuo processo (Livello 200)

    Speaker: Shashank Prasanna, Senior Developer Advocate, AI/ML, AWS
    Durata: 30 minuti


    Automatizza i tuoi workflow ML con pipeline end-to-end (Livello 300)

    Lo sviluppo di un modello ML di alta qualità comporta molti passaggi. Solitamente inizio con l’esplorazione e la preparazione dei dati. Proviamo diversi algoritmi e parametri. Ci occupiamo dell’addestramento e del perfezionamento del modello fino a quando non soddisfa i nostri parametri di qualità ed è pronto per essere distribuito alla produzione. L’organizzazione e l’automatizzazione dei workflow attraverso ogni fase del processo di sviluppo del modello può richiedere diversi mesi per il lavoro di codifica.

    In questa sessione ti mostreremo come creare, automatizzare e gestire i workflow ML end-to-end tramite Amazon SageMaker Pipelines. Creeremo una pipeline riutilizzabile per il modello NLP al fine di preparare i dati, archiviare le funzionalità in un negozio delle funzionalità, ottimizzare il modello BERT e distribuirlo alla produzione, se supera i parametri definiti per la qualità.

    Speaker: Antje Barth, Senior Developer Advocate per AI e Machine Learning, AWS
    Durata: 30 minuti


    Crea la tua piattaforma ML tramite la tecnologia open source (Livello 300)

    Nel momento in cui adottano il Machine Learning, le aziende cercano di automatizzare e organizzare le varie fasi della pipeline. In molti casi preferiscono affidarsi a strumenti open source che affiancano i data engineer nell’organizzazione dell’acquisizione e della preparazione dei dati, i data scientist nel monitoraggio e nella gestione dello sviluppo locale dei modelli oppure contribuiscono a distribuire i modelli finiti alla produzione. Sono disponibili molti strumenti e in questa sessione ne esamineremo alcuni.

    Speaker: Ricardo Sueiras, Principal Developer Advocate, AWS
    Durata: 30 minuti

  • Sono un Technical Decision Maker
  • In merito alla sessione

    Soprattutto nelle grandi organizzazioni il ML è ben più che addestramento e la distribuzione di modelli. Apprendi le best practice AWS in merito ad AI/ML, che ti aiuteranno a rendere più efficienti, resilienti e sicuri i tuoi workflow ML.

    Tutte le sessioni saranno in inglese

    Scomponi i silos di dati: crea un data lake serverless su Amazon S3 (Livello 200)

    Flessibilità, sicurezza, performance e ottimizzazione dei costi sono fattori chiave per la creazione e il dimensionamento di un data lake. Le soluzioni analitiche che userai in futuro saranno certamente diverse da quelle che utilizzi attualmente e, grazie alla giusta base per i servizi di storage, potrai disporre della necessaria agilità per sperimentare velocemente ed effettuare le migrazioni con le soluzioni analitiche più recenti. In questa sessione esplori le best practice per ottimizzare il tuo storage, la performance e i costi quando crei un data lake in Amazon S3 e in Amazon S3 Glacier.

    Durata: 30 minuti


    Da POC alla produzione: strategie per il Machine Learning su vasta scala (Livello 200)

    Hai scelto la strategia per i dati, trovato il giusto caso d’uso e implementato correttamente il tuo primo proof of concept (POC). E ora cosa succederà? Il fattore chiave per il successo del Machine Learning è la scalabilità. Molte aziende si trovano in difficoltà nel trasferimento dei modelli di Machine Learning da un POC iniziale alla produzione e alla dimensione dell’organizzazione reale. Questa sessione, che comprende le best practice per MLOps, la governance dei dati e la condivisione della conoscenza, può essere utile ai dirigenti e ai manager che vogliono implementare con successo il Machine Learning su vasta scala nelle loro organizzazioni.

    Durata: 30 minuti


    Architectural best practices per le applicazioni di Machine Learning applications (Livello 300)

    L’architettura dell’applicazione di Machine Learning (ML) è la medesima, ma si differenzia da altre architetture distribuite nell’AWS Cloud. Mentre le applicazioni ML basate su cloud acquistano crescente popolarità, gli utenti si chiedono ripetutamente. “È corretto quello che faccio?” Questa sessione esamina come le best practice stabilite nell’AWS Well-Architected Framework si applicano ai carichi di lavoro ML e dove sono necessarie distinzioni adeguate alla natura esclusiva dell’architettura ML. Come nel caso di studio, la sessione approfondisce le soluzioni, disponibili pubblicamente, AWS Well-Architected in modo tale che tu sia sicuro di avere gli strumenti giusti per iniziare in modo corretto.

    Durata: 30 minuti


    Machine Learning sicuro e conforme alle norme per i settori altamente regolamentati (Livello 300)

    Il requisito più importante per le organizzazioni che trasferiscono i loro carichi di lavoro Machine Learning (ML) è l’accesso a un ambiente sicuro. IIn questa sessione apprendi le fasi di provisioning di un ambiente ML sicuro in Amazon SageMaker, approfondisci i modelli e le architetture e scopri come puoi valorizzare altri servizi AWS per creare ambienti in modo riproducibile e coerente.

    Durata: 30 minuti

  • Sono un Decision Maker aziendale
  • In merito alla sessione

    Pur con tutte le complessità tecniche, il vantaggio di AI/ML è che aiuta le organizzazioni a innovare in modo più rapido e a migliorare i loro processi aziendali. Impara dalle aziende che hanno avuto successo e come fare la stessa cosa!

    Tutte le sessioni saranno in inglese

    L'innovazione non è mai normale (Livello 100) 

    Durata: 45 minuti


    Uso da parte di Amazon.com dell’intelligenza artificiale/del Machine Learning per aumentare l’esperienza cliente (Livello 200)

    Amazon.com usa l’intelligenza artificiale/il Machine Learning in modalità innovative e scalabili per trasformare il modo in cui operiamo e inventare nuove esperienze clienti. In questa sessione, dedicata ai decision maker senior aziendali e del settore tecnologico, condividiamo esempi specifici tratti dall’attività relativa ai beni di consumo/alle vendite al dettaglio di Amazon.com e da altre attività, al fine di spiegare come l’intelligenza artificiale/il machine learning consentono ad Amazon di fornire al cliente la migliore esperienza possibile, migliorando l’efficienza e riducendo i costi. Ci occupiamo delle informazioni e delle lezioni che Amazon.com ha appresso attraverso gli aspetti culturali, operativi e tecnologici connessi alla creazione e al dimensionamento delle funzionalità ML nell’organizzazione.

    Durata: 30 minuti


    In che modo l’innovazione migliora i risultati aziendali? (Livello 200)

    In questa sessione ascolti storie reali raccontate da clienti che hanno utilizzato AWS Cloud e AWS Professional Services per accelerare l’innovazione tecnica, trasformando positivamente i risultati aziendali. Gli esempi comprendono casi d’uso, storie di settore e stack tecnologici.

    Durata: 30 minuti


    Da POC alla produzione: strategie per il Machine Learning su vasta scala (Livello 200)

    Hai scelto la strategia per i dati, trovato il giusto caso d’uso e implementato correttamente il tuo primo proof of concept (POC). E ora cosa succederà? Il fattore chiave per il successo del Machine Learning è la scalabilità. Molte aziende si trovano in difficoltà nel trasferimento dei modelli di Machine Learning da un POC iniziale alla produzione e alla dimensione dell’organizzazione reale. Questa sessione, che comprende le best practice per MLOps, la governance dei dati e la condivisione della conoscenza, può essere utile ai dirigenti e ai manager che vogliono implementare con successo il Machine Learning su vasta scala nelle loro organizzazioni.

    Durata: 30 minuti

Livelli delle sessioni

Fondamentali
Livello 100

Queste sessioni sono progettate per fornire una overview generale dei servizi AWS, partendo dal presupposto che i partecipanti non abbiano familiarità con i servizi AWS.

Intermedio
Livello 200

Queste sessioni sono progettate per condividere best practice, informazioni relative alle funzionalità dei servizi e demo pratiche e sono rivolte a una audience con una conoscenza introduttiva degli argomenti.

Avanzato
Livello 300

Queste sessioni approfondiscono argomenti specifici e sono pensate per un pubblico che, pur avendo familiarità con l'argomento trattato, potrebbe non avere un’ esperienza diretta nell'implementazione di una soluzione simile.

Esperto
Livello 400

Le sessioni sono progettate per un pubblico specializzato, che ha già implementato una soluzione e conosce le interazioni tra tecnologia, servizi, architetture e implementazioni.


 

Inizia subito a usare AWS

Ottieni un'esperienza diretta e gratuita della piattaforma, dei prodotti e dei servizi AWS. Scopri più di 60 prodotti e comincia a utilizzare AWS con il piano gratuito.