Select your cookie preferences

We use essential cookies and similar tools that are necessary to provide our site and services. We use performance cookies to collect anonymous statistics, so we can understand how customers use our site and make improvements. Essential cookies cannot be deactivated, but you can choose “Customize” or “Decline” to decline performance cookies.

If you agree, AWS and approved third parties will also use cookies to provide useful site features, remember your preferences, and display relevant content, including relevant advertising. To accept or decline all non-essential cookies, choose “Accept” or “Decline.” To make more detailed choices, choose “Customize.”

Passa al contenuto principaleAWS Startups

Provare per credere: usare l'IA per verificare l'autenticità dei media

Com'era questo contenuto?

L'IA generativa ha il potere di creare immagini, video e audio ad alta fedeltà e l'unico limite a cui è soggetta è l'immaginazione. Tuttavia, foto ritoccate, video deepfake e la clonazione delle voci rappresentano rischi etici notevoli. Da truffatori che si fingono parenti acquisiti a spot politici finti, saremo costretti ad affrontare una crisi della realtà se non interverremo. Ascolta le voci dei fondatori di DeepMedia, un'azienda di comunicazione IA, per scoprire come utilizzano l'IA per sviluppare un software di rilevamento di deepfake per individuare e smentire le immagini false e le loro implicazioni. Analizzeremo esempi reali per scoprire come il software di rilevamento aiuta a verificare l'autenticità dei media e come possiamo creare un futuro in cui ciò che sentiamo e vediamo è reale, non una replica.

Com'era questo contenuto?