Inteligência Artificial

Noé influencer? Ferramenta de IA transforma personagens da Bíblia em celebridades da internet

Página "Vlog Bíblico" já conquistou mais de 340 mil seguidores no TikTok, superando 40 milhões de visualizações. No entanto, formato reacende preocupação com os efeitos de conteúdos gerados IA

Mateus Omena
Mateus Omena

Repórter

Publicado em 6 de junho de 2025 às 17h32.

Tudo sobreInteligência artificial
Saiba mais

Histórias da Bíblia, como a da Arca de Noé, já foram reinterpretadas de diversas maneiras no cinema e nas séries de TV ao longo dos anos. Além de sermões e do próprio Livro Sagrado, essas narrativas inspiraram pinturas, filmes e livros.

Desta vez, com o auxílio da inteligência artificial generativa, surge um novo formato nas redes sociais: personagens bíblicos ganham vida como influenciadores digitais, criando vídeos como se estivessem produzindo conteúdo para a internet.

Em um estilo de vlog, Noé compartilha como construiu a arca e superou o dilúvio. Daniel filma sua experiência na cova dos leões, enquanto Moisés detalha a libertação do povo hebreu do Egito.

A página "Vlog Bíblico" já conquistou mais de 340 mil seguidores no TikTok, superando 40 milhões de visualizações e acumulando mais de cinco milhões de curtidas.

Perigo constante

Estudos recentes e discussões acadêmicas destacam como os perigos desses vídeos têm aumentado nos últimos anos.

Na University of Maryland, durante o TechFest 2025, especialistas ressaltaram que deepfakes conseguem replicar vozes e imagens com poucos dados, facilitando fraudes financeiras, prejuízos à reputação e desafios legais.

A professora Minoo Modaresnezhad enfatizou que “os estudantes aprenderam sobre os desafios éticos, vieses e preocupações com privacidade ligados à IA e segurança cibernética, reconhecendo que a tecnologia sozinha não é suficiente para proteger contra esses riscos.”

O impacto dessas tecnologias já é visível.

Professores da West Virginia University, Laurel Cook e Amy Cyphert, em um artigo publicado no site da universidade, destacam que conteúdos gerados por IA influenciam eventos políticos, citando robocalls usando a voz do presidente Joe Biden para enganar eleitores.

“[Deepfakes] são muito preocupantes porque tendemos a confiar em vídeo e som como provas suficientes para acreditar no que vemos e ouvimos”, diz Cook.

Ainda segundo Cook,  “[em deepfakes] tendemos a confiar em vídeo e som como provas suficientes para acreditar que estamos vendo ou ouvindo algo real", o que deixou de ser verdade com a evolução das IAs.

"As abordagens comuns para atrair engajamento incluem o uso de apelos emocionais, especialmente aqueles que incitam a raiva, dividindo o público e sendo exagerados, como o uso proposital de pronúncias incorretas. Além disso, esse tipo de conteúdo pode incluir o roubo ou distorção de informações disponíveis publicamente. Essas táticas costumam ser combinadas com conteúdos deepfake projetados para provocar uma resposta imediata, geralmente na forma de boca a boca, que os mecanismos de busca e algoritmos das redes sociais recompensam amplamente. Esse resultado também pode afetar negativamente o retorno financeiro daqueles que publicam conteúdo original. Quando essas táticas são usadas, o consumo saudável desse tipo de conteúdo deve incluir checagem dos fatos e/ou triangulação de fontes", explicou.

Até mesmo o Departamento de Segurança Interna dos EUA já se posicionou sobre os vídeos feitos por IA.

O departamento aponta que deepfakes são usados em operações maliciosas, pornografia não consensual e ataques de engenharia social.

Em documento divulgado pela instituição americana, Dr. Matthew Wright, professor do Rochester Institute of Technology, alerta que “deepfakes são mais visualmente impactantes, precisos e em maior resolução” do que os antigos “cheapfakes,” tornando-os mais difíceis de detectar — e ainda mais perigosos.

É a diferença entre uma calculadora e um computador; o computador é exponencialmente mais poderoso e capaz de fazer todas as coisas; mais potente para o que você pode fazer; mais visualmente impactante, preciso e em maior resolução; tudo que você pode fazer com ‘cheap fakes’ pode ser feito com deepfakes, porém de forma mais convincente", afirmou Wright. “Enfrentamos um outro problema que é, à medida que as pessoas se tornam mais conscientes da tecnologia, isso se torna uma oportunidade para o que chamamos de ‘dividendo dos mentirosos’, em que alguém pode realmente dizer algo que não deveria ou fazer algo que não deveria ser gravado, e então dizer: ‘Não, isso não é real, isso é falso'", disse.

No relatório do World Economic Forum de 2025, são destacados dois grandes riscos das deepfakes: assédio — como pornografia não consensual e chantagem — e golpes de engenharia social, como clonagem de voz para fraudar pessoas e empresas.

Um caso emblemático envolveu um funcionário financeiro em Hong Kong que pagou US$ 25 milhões após uma chamada no Zoom com participantes deepfakes.   

Como identificar fotos geradas por IA

Com a popularização de ferramentas como Midjourney, DALL-E e Stable Diffusion, identificar imagens falsas se tornou mais difícil — mas não impossível. Existem técnicas e ferramentas que ajudam a reconhecer padrões artificiais:

  1. Atenção aos detalhes visuais
    Use o zoom para procurar por distorções. IA frequentemente comete erros em mãos, olhos, dentes e simetrias . Texturas estranhas, acessórios assimétricos e sombras incoerentes também são pistas.

  2. Marcas d’água e artefatos ocultos
    Algumas imagens carregam marcas discretas deixadas pelos próprios modelos geradores. Embora possam ser removidas, sua presença é um indício de origem sintética.

  3. Busca reversa no Google
    Ferramentas como Google Imagens ajudam a identificar a origem e o contexto de uma foto. Se ela só aparece em perfis anônimos ou montagens, o alerta deve ser ligado .

  4. Detecção automatizada
    Plataformas como AI or Not, Deepware Scanner e Forensically permitem verificar metadados, analisar padrões de compressão e detectar manipulações.

  5. Verificação contextual
    Se a imagem estiver atrelada a um evento, vale procurar por registros em veículos jornalísticos confiáveis. A ausência de cobertura é, muitas vezes, sinal de fraude.

Como identificar vídeos feitos por inteligência artificial (IA)

  1. Inconsistências visuais

    • Fique atento a objetos ou pessoas que aparecem e desaparecem de forma inesperada.

    • Note mudanças estranhas nas formas, bordas borradas ou falhas nos contornos.

    • Observe sombras e iluminação que não combinam ou são inconsistentes ao longo do vídeo.

  2. Movimentos não naturais

    • Movimentos bruscos, mecânicos ou descoordenados, principalmente em gestos, piscadas e expressões faciais, são sinais de manipulação.

    • Piscadas muito raras ou em excesso e expressões que não condizem com o contexto podem indicar deepfake.

  3. Sincronia labial

    • Verifique se o movimento dos lábios acompanha corretamente o áudio.

    • A falta de sincronização entre o som e o movimento labial é um dos indícios mais claros de vídeo manipulado.

  4. Textura da pele e detalhes faciais

    • Procure por brilhos incomuns na pele ou ausência de detalhes naturais, como rugas, poros e manchas.

    • Desníveis de cor entre o rosto e outras partes do corpo também podem indicar edição artificial.

  5. Qualidade do áudio

    • Ruídos de fundo excessivos, cortes abruptos ou variações estranhas na voz podem ser pistas de áudio gerado, ou editado por IA.

  6. Expressões e emoções desconexas

    • Observe se as expressões faciais estão alinhadas com o conteúdo falado.

    • Por exemplo, uma pessoa aparentando felicidade ao dar uma notícia triste pode ser um sinal de manipulação.

  7. Verificação da fonte e contexto

    • Sempre confirme se o vídeo foi publicado por fontes confiáveis e oficiais.

    • Busque validação em veículos de comunicação reconhecidos para evitar cair em armadilhas de conteúdos falsos.

Ferramentas que ajudam na identificação de vídeos feitos por IA

  • Microsoft Video Authenticator (em desenvolvimento): analisa vídeos para detectar manipulações específicas feitas por IA.

  • Originality.AI, GPTZero, Copyleaks AI Content Detector: embora mais focadas em textos, algumas dessas ferramentas também oferecem recursos para identificar conteúdos gerados artificialmente.

Acompanhe tudo sobre:Inteligência artificialInternet

Mais de Inteligência Artificial

Claude, ChatGPT, Copilot, Meta e Gemini: quem vence a batalha de chatbots?

Anthropic lança Claude Gov, modelos de IA personalizados para clientes da segurança nacional dos EUA

OpenAI recorre de decisão em caso movido pelo New York Times

OpenAI identifica operações chinesas com uso do ChatGPT para manipulação em redes sociais