5 de junho de 2025 às 12:21
O canguru de apoio emocional impedido de embarcar em um avião viralizou nas redes sociais, mas não era real. O vídeo foi criado com inteligência artificial, mais especificamente com deepfakes, uma técnica que cria vídeos falsos.
Esses vídeos falsificados substituem a voz e o rosto de pessoas, criando a ilusão de que algo realmente aconteceu. Para gerar deepfakes, utiliza-se a tecnologia de Redes Adversariais Generativas (GANs), que aprimora as falsificações.
Identificar vídeos feitos por IA requer atenção a detalhes visuais, como objetos ou pessoas que aparecem e desaparecem inesperadamente. Além disso, bordas borradas ou falhas nos contornos são sinais de manipulação.
Movimentos não naturais, como gestos bruscos ou expressões faciais descoordenadas, também são indicativos de deepfakes. Piscadas raras ou excessivas podem sugerir que o vídeo foi manipulado por IA.
A sincronia labial é outro ponto crucial: se o movimento dos lábios não coincide com o áudio, provavelmente o vídeo é falso. A falta de alinhamento entre som e imagem é um dos sinais mais claros de manipulação.
Outros sinais incluem textura estranha da pele, como brilhos incomuns e ausência de detalhes naturais. Também é possível notar desníveis de cor entre o rosto e o corpo, o que sugere edição artificial.
Ferramentas como o Microsoft Video Authenticator ajudam a identificar vídeos manipulados. Além disso, plataformas de verificação contextual e análise de fontes confiáveis são essenciais para confirmar a autenticidade do conteúdo.