Select your cookie preferences

We use essential cookies and similar tools that are necessary to provide our site and services. We use performance cookies to collect anonymous statistics, so we can understand how customers use our site and make improvements. Essential cookies cannot be deactivated, but you can choose “Customize” or “Decline” to decline performance cookies.

If you agree, AWS and approved third parties will also use cookies to provide useful site features, remember your preferences, and display relevant content, including relevant advertising. To accept or decline all non-essential cookies, choose “Accept” or “Decline.” To make more detailed choices, choose “Customize.”

Pular para o conteúdo principalAWS Startups

Ver para crer: uso da IA para validar a autenticidade da mídia

Como estava esse conteúdo?

A IA generativa tem a capacidade de criar imagens, vídeos e áudios de alta fidelidade, limitados apenas pela imaginação. Entretanto, fotos adulteradas, vídeos deepfake e clonagem de voz representam riscos éticos significativos. Desde golpistas que se passam por membros distantes de uma família a anúncios políticos falsos, há uma crise iminente de realidade, a menos que façamos alguma coisa. Ouça os fundadores da DeepMedia, uma empresa de comunicações de IA, compartilharem como eles estão usando a IA para desenvolver um software de detecção aprofundada de falsificações com a finalidade de eliminar imagens falsas e suas implicações. Exploraremos exemplos reais de como o software de detecção ajuda a validar a autenticidade da mídia e como podemos criar um futuro no qual o que vemos e ouvimos é real, e não replicante.

Como estava esse conteúdo?