Select your cookie preferences

We use essential cookies and similar tools that are necessary to provide our site and services. We use performance cookies to collect anonymous statistics, so we can understand how customers use our site and make improvements. Essential cookies cannot be deactivated, but you can choose “Customize” or “Decline” to decline performance cookies.

If you agree, AWS and approved third parties will also use cookies to provide useful site features, remember your preferences, and display relevant content, including relevant advertising. To accept or decline all non-essential cookies, choose “Accept” or “Decline.” To make more detailed choices, choose “Customize.”

Saltar al contenido principalAWS Startups

Ver para creer: uso de la inteligencia artificial para validar la autenticidad de los medios

¿Qué le pareció este contenido?

La IA generativa tiene el poder de crear imágenes, video y audio de alta fidelidad, con la única limitación de la imaginación. Sin embargo, las fotos manipuladas, los videos deepfake y la clonación de voces plantean importantes riesgos éticos. Desde estafadores que se hacen pasar por familiares lejanos hasta noticias políticas falsas, se avecina una crisis de lo real a menos que tomemos medidas. Escuche a los fundadores de DeepMedia, una empresa de comunicación basada en inteligencia artificial, explicar cómo utilizan la inteligencia artificial para crear un software de detección profunda de falsificaciones cuyo objetivo es desmentir imágenes falsas y sus implicaciones. Exploraremos ejemplos reales de cómo el software de detección ayuda a validar la autenticidad de los medios y cómo podemos crear un futuro en el que lo que vemos y oímos sea real, no una réplica.

¿Qué le pareció este contenido?