Histórias da Bíblia, como a da Arca de Noé, já foram reinterpretadas de diversas maneiras no cinema e nas séries de TV ao longo dos anos. Além de sermões e do próprio Livro Sagrado, essas narrativas inspiraram pinturas, filmes e livros.
Desta vez, com o auxílio da inteligência artificial generativa, surge um novo formato nas redes sociais: personagens bíblicos ganham vida como influenciadores digitais, criando vídeos como se estivessem produzindo conteúdo para a internet.
Em um estilo de vlog, Noé compartilha como construiu a arca e superou o dilúvio. Daniel filma sua experiência na cova dos leões, enquanto Moisés detalha a libertação do povo hebreu do Egito.
A página "Vlog Bíblico" já conquistou mais de 340 mil seguidores no TikTok, superando 40 milhões de visualizações e acumulando mais de cinco milhões de curtidas.
Perigo constante
Estudos recentes e discussões acadêmicas destacam como os perigos desses vídeos têm aumentado nos últimos anos.
Na University of Maryland, durante o TechFest 2025, especialistas ressaltaram que deepfakes conseguem replicar vozes e imagens com poucos dados, facilitando fraudes financeiras, prejuízos à reputação e desafios legais.
A professora Minoo Modaresnezhad enfatizou que “os estudantes aprenderam sobre os desafios éticos, vieses e preocupações com privacidade ligados à IA e segurança cibernética, reconhecendo que a tecnologia sozinha não é suficiente para proteger contra esses riscos.”
O impacto dessas tecnologias já é visível.
Professores da West Virginia University, Laurel Cook e Amy Cyphert, em um artigo publicado no site da universidade, destacam que conteúdos gerados por IA influenciam eventos políticos, citando robocalls usando a voz do presidente Joe Biden para enganar eleitores.
“[Deepfakes] são muito preocupantes porque tendemos a confiar em vídeo e som como provas suficientes para acreditar no que vemos e ouvimos”, diz Cook.
Ainda segundo Cook, “[em deepfakes] tendemos a confiar em vídeo e som como provas suficientes para acreditar que estamos vendo ou ouvindo algo real", o que deixou de ser verdade com a evolução das IAs.
"As abordagens comuns para atrair engajamento incluem o uso de apelos emocionais, especialmente aqueles que incitam a raiva, dividindo o público e sendo exagerados, como o uso proposital de pronúncias incorretas. Além disso, esse tipo de conteúdo pode incluir o roubo ou distorção de informações disponíveis publicamente. Essas táticas costumam ser combinadas com conteúdos deepfake projetados para provocar uma resposta imediata, geralmente na forma de boca a boca, que os mecanismos de busca e algoritmos das redes sociais recompensam amplamente. Esse resultado também pode afetar negativamente o retorno financeiro daqueles que publicam conteúdo original. Quando essas táticas são usadas, o consumo saudável desse tipo de conteúdo deve incluir checagem dos fatos e/ou triangulação de fontes", explicou.
Até mesmo o Departamento de Segurança Interna dos EUA já se posicionou sobre os vídeos feitos por IA.
O departamento aponta que deepfakes são usados em operações maliciosas, pornografia não consensual e ataques de engenharia social.
Em documento divulgado pela instituição americana, Dr. Matthew Wright, professor do Rochester Institute of Technology, alerta que “deepfakes são mais visualmente impactantes, precisos e em maior resolução” do que os antigos “cheapfakes,” tornando-os mais difíceis de detectar — e ainda mais perigosos.
“É a diferença entre uma calculadora e um computador; o computador é exponencialmente mais poderoso e capaz de fazer todas as coisas; mais potente para o que você pode fazer; mais visualmente impactante, preciso e em maior resolução; tudo que você pode fazer com ‘cheap fakes’ pode ser feito com deepfakes, porém de forma mais convincente", afirmou Wright. “Enfrentamos um outro problema que é, à medida que as pessoas se tornam mais conscientes da tecnologia, isso se torna uma oportunidade para o que chamamos de ‘dividendo dos mentirosos’, em que alguém pode realmente dizer algo que não deveria ou fazer algo que não deveria ser gravado, e então dizer: ‘Não, isso não é real, isso é falso'", disse.
No relatório do World Economic Forum de 2025, são destacados dois grandes riscos das deepfakes: assédio — como pornografia não consensual e chantagem — e golpes de engenharia social, como clonagem de voz para fraudar pessoas e empresas.
Um caso emblemático envolveu um funcionário financeiro em Hong Kong que pagou US$ 25 milhões após uma chamada no Zoom com participantes deepfakes.
Como identificar fotos geradas por IA
Com a popularização de ferramentas como Midjourney, DALL-E e Stable Diffusion, identificar imagens falsas se tornou mais difícil — mas não impossível. Existem técnicas e ferramentas que ajudam a reconhecer padrões artificiais:
-
Atenção aos detalhes visuais
Use o zoom para procurar por distorções. IA frequentemente comete erros em mãos, olhos, dentes e simetrias . Texturas estranhas, acessórios assimétricos e sombras incoerentes também são pistas.
-
Marcas d’água e artefatos ocultos
Algumas imagens carregam marcas discretas deixadas pelos próprios modelos geradores. Embora possam ser removidas, sua presença é um indício de origem sintética.
-
Busca reversa no Google
Ferramentas como Google Imagens ajudam a identificar a origem e o contexto de uma foto. Se ela só aparece em perfis anônimos ou montagens, o alerta deve ser ligado .
-
Detecção automatizada
Plataformas como AI or Not, Deepware Scanner e Forensically permitem verificar metadados, analisar padrões de compressão e detectar manipulações.
-
Verificação contextual
Se a imagem estiver atrelada a um evento, vale procurar por registros em veículos jornalísticos confiáveis. A ausência de cobertura é, muitas vezes, sinal de fraude.
Como identificar vídeos feitos por inteligência artificial (IA)
-
Inconsistências visuais
-
Fique atento a objetos ou pessoas que aparecem e desaparecem de forma inesperada.
-
Note mudanças estranhas nas formas, bordas borradas ou falhas nos contornos.
-
Observe sombras e iluminação que não combinam ou são inconsistentes ao longo do vídeo.
-
Movimentos não naturais
-
Movimentos bruscos, mecânicos ou descoordenados, principalmente em gestos, piscadas e expressões faciais, são sinais de manipulação.
-
Piscadas muito raras ou em excesso e expressões que não condizem com o contexto podem indicar deepfake.
-
Sincronia labial
-
Textura da pele e detalhes faciais
-
Procure por brilhos incomuns na pele ou ausência de detalhes naturais, como rugas, poros e manchas.
-
Desníveis de cor entre o rosto e outras partes do corpo também podem indicar edição artificial.
-
Qualidade do áudio
-
Expressões e emoções desconexas
-
Observe se as expressões faciais estão alinhadas com o conteúdo falado.
-
Por exemplo, uma pessoa aparentando felicidade ao dar uma notícia triste pode ser um sinal de manipulação.
-
Verificação da fonte e contexto
Ferramentas que ajudam na identificação de vídeos feitos por IA
-
Microsoft Video Authenticator (em desenvolvimento): analisa vídeos para detectar manipulações específicas feitas por IA.
-
Originality.AI, GPTZero, Copyleaks AI Content Detector: embora mais focadas em textos, algumas dessas ferramentas também oferecem recursos para identificar conteúdos gerados artificialmente.