Passa al contenuto principale

IA

Trasforma l'IA responsabile dalla teoria alla pratica

Promuovere lo sviluppo sicuro e responsabile dell'IA come forza positiva

Sviluppo dell'IA in modo responsabile in AWS

La rapida crescita dell'IA generativa porta nuove innovazioni promettenti e allo stesso tempo pone nuove sfide. In AWS ci impegniamo a sviluppare l'IA in modo responsabile, adottando un approccio incentrato sulle persone che dà priorità all'istruzione, alla scienza e ai nostri clienti, per integrare l'IA responsabile in tutto il ciclo di vita dell'IA end-to-end.

Missing alt text value

Dimensioni fondamentali dell'IA responsabile

Equità

Valutare gli impatti sui diversi gruppi di parti interessate

Spiegabilità

Comprendere e valutare i risultati del sistema

Privacy e sicurezza

Ottenere, utilizzare e proteggere dati e modelli in modo adeguato

Sicurezza

Prevenire l'output dannoso e l'uso improprio del sistema

Controllabilità

Disporre di meccanismi per monitorare e guidare il comportamento del sistema di IA

Veridicità e robustezza

Ottenere output di sistema corretti, anche con input imprevisti o contraddittori

Governance

Incorporare le best practice nella catena di approvvigionamento dell'IA, inclusi fornitori e implementatori

Trasparenza

Consentire alle parti interessate di fare scelte informate sul loro coinvolgimento con un sistema di IA

Servizi e strumenti

AWS offre servizi e strumenti per aiutarti a progettare, creare e gestire i sistemi di IA in modo responsabile.

Implementazione di misure di sicurezza nell'IA generativa

I guardrail di Amazon Bedrock ti aiutano a implementare misure di sicurezza per le tue applicazioni di IA generativa personalizzate e in linea con le policy di IA responsabile. I guardrail forniscono protezioni aggiuntive personalizzabili oltre a quelle native dei modelli di fondazione (FM) e garantiscono un livello di sicurezza tra i migliori del settore, poiché:

  • blocca fino all'85% in più di contenuti dannosi;
  • filtra oltre il 75% delle allucinazioni dell'IA per i carichi di lavoro RAG e di sintesi;
  • consente ai clienti di personalizzare e applicare le protezioni di sicurezza, privacy e veridicità in un'unica soluzione.
Missing alt text value

Valutazioni dei modelli di fondazione (FM)

La valutazione del modello su Amazon Bedrock ti aiuta a valutare, confrontare e selezionare i migliori FM per il tuo caso d'uso specifico in base a metriche personalizzate, come precisione, robustezza e tossicità. Puoi anche utilizzare Amazon SageMaker Clarify e fmeval per la valutazione del modello.

Missing alt text value

Rilevamento dei bias e spiegazione delle previsioni

I bias sono distorsioni nei dati o disparità nelle prestazioni di un modello tra gruppi diversi. Amazon SageMaker Clarify consente di limitare i bias rilevandone l'eventuale presenza durante la preparazione dei dati, dopo l'addestramento dei modelli e nel modello implementato, attraverso l'analisi di attributi specifici.

Conoscere il comportamento di un modello è importante per sviluppare modelli più accurati e prendere decisioni migliori. Amazon SageMaker Clarify offre una maggiore visibilità sul comportamento del modello, in modo da garantire trasparenza alle parti interessate, informare chi prende decisioni e monitorare se un modello funziona come previsto.

Esplora Amazon SageMaker Clarify

Missing alt text value

Monitoraggio e revisione umana

Il monitoraggio è importante per mantenere modelli di machine learning (ML) di alta qualità e contribuire a garantire previsioni accurate. Amazon SageMaker Model Monitor rileva e segnala automaticamente le previsioni imprecise dei modelli implementati. E con Amazon SageMaker Ground Truth puoi applicare il feedback umano in tutto il ciclo di vita dell'ML per migliorare l'accuratezza e la pertinenza dei modelli.

Missing alt text value

Miglioramento della governance

La governance dell'ML di Amazon SageMaker fornisce strumenti su misura per migliorare la governance dei tuoi progetti di ML offrendoti un controllo e una visibilità più rigorosi sui tuoi modelli di ML. Puoi acquisire e condividere facilmente le informazioni sul modello e ottenere aggiornamenti sul suo comportamento, come i bias, in un unico posto.

Missing alt text value

Schede di servizi di IA di AWS

Le Schede di servizi di IA sono una risorsa per migliorare la trasparenza fornendo un unico posto dove trovare informazioni sui casi d'uso e le limitazioni previste, sulle scelte di progettazione dell'IA responsabile e sulle best practice di ottimizzazione delle prestazioni per i nostri servizi e modelli di IA.

Esplora le schede di servizi disponibili

Missing alt text value

Contributo e collaborazione della community

Grazie a un profondo coinvolgimento con organizzazioni multi-stakeholder come i gruppi di lavoro dell'OECD AI, la Partnership on AI e il Responsible AI Institute, nonché alle partnership strategiche con le università su scala globale, ci impegniamo a collaborare con altri soggetti per sviluppare la tecnologia IA e ML in modo responsabile e a promuovere la fiducia.

Adottiamo un approccio incentrato sulle persone per educare la prossima generazione di leader nel campo dell'IA con programmi come il programma di borse di studio per IA e ML e We Power Tech per aumentare l'accesso all'apprendimento pratico, alle borse di studio e al tutoraggio per le persone meno abbienti o sottorappresentate nel settore tecnologico.

Il nostro impegno per un'IA generativa sicura, trasparente e responsabile prevede la collaborazione con la comunità globale e i decisori politici, inoltre include il Codice di condotta internazionale per i sistemi avanzati di IA del G7 di Hiroshima, l'AI Safety Summit nel Regno Unito e il supporto per la norma ISO 42001, un nuovo standard fondamentale per promuovere l'IA responsabile. Sosteniamo lo sviluppo di quadri normativi efficaci basati sul rischio in materia di IA, in grado di tutelare i diritti civili e di consentire al contempo una innovazione continua.

L'IA responsabile è un'area attiva di ricerca e sviluppo in Amazon. Abbiamo collaborazioni strategiche con il mondo accademico, come il California Institute of Technology e con Amazon Scholars, tra cui esperti di spicco che applicano la loro ricerca accademica per contribuire a creare flussi di lavoro di IA responsabile in Amazon.

Innoviamo insieme ai nostri clienti, rimanendo all'avanguardia nelle nuove tendenze e nella ricerca per fornire valore, con sovvenzioni alla ricerca continue tramite gli Amazon Research Awards e pubblicazioni scientifiche con Amazon Science. Scopri di più sulla scienza per sviluppare l'IA generativa in modo responsabile in questo blog di Amazon Science che descrive le principali sfide e soluzioni emergenti.

Risorse di IA responsabile