Inteligência Artificial

O que é o Google Veo 3, IA por trás dos vídeos de 'influencers' da Bíblia

Ferramenta da DeepMind transforma textos em vídeos com som, câmera e personagens realistas[

Vídeo no TikTok feito com o Google VEO 3 (TikTok/Reprodução)

Vídeo no TikTok feito com o Google VEO 3 (TikTok/Reprodução)

Da Redação
Da Redação

Redação Exame

Publicado em 9 de junho de 2025 às 08h13.

De canguru de apoio emocional à Marisa Maiô, passando pelos vídeos de 'influencers' da Bíblia no TikTok, a criatividade dos usuários encontrou no Google Veo 3 uma nova ferramenta para dar vida a ideias surreais — em vídeo, com som e resolução 4K.

Lançado no Google I/O 2025, o modelo de IA desenvolvido pela DeepMind transforma descrições em texto em vídeos com cenários, personagens e falas gerados automaticamente. A ferramenta aceita também imagens como referência visual.

A principal novidade está na geração automática de áudio — falas, efeitos sonoros e música ambiente — sem exigir comandos específicos no prompt.

Do texto ao vídeo com som e câmera cinematográfica

A entrada pode ser uma frase detalhada como “uma mulher de pele verde fala sobre a Força em uma escadaria de templo, com raios ao fundo e iluminação dramática”. O modelo interpreta o pedido, aplica movimentação de câmera, gera o cenário e insere som compatível.

Usuários ainda podem usar o editor Flow para controlar continuidade visual, ângulos e personagens. Cenas anteriores servem de base para manter consistência em vídeos compostos por múltiplos clipes.

Disponibilidade por assinatura e limites técnicos

Veo 3 está disponível via planos pagos: o AI Ultra (US$ 249,99/mês, exclusivo nos EUA) e o AI Pro (US$ 20/mês, com acesso parcial). Algumas regiões oferecem testes gratuitos e uso baseado em créditos.

Apesar dos recursos avançados, o modelo tem falhas frequentes:

  • Clipes são curtos — em muitos casos, limitados a 8 segundos.

  • Movimentos corporais e expressões podem parecer artificiais.

  • Sons nem sempre acompanham corretamente as ações ou diálogos.

  • Legendas e textos gerados em cena muitas vezes apresentam erros ou são desconexos.

  • Ao exportar de ferramentas como Scene Builder, o áudio pode desaparecer, exigindo edição manual.

Segurança, marcação e futuro da IA em vídeo

Todos os vídeos gerados recebem a SynthID, uma marca d’água digital embutida em cada quadro, indicando origem artificial e dificultando manipulações mal-intencionadas.

Mesmo com limitações, o Veo 3 representa um salto técnico na criação audiovisual com IA, unindo geração de imagem e som em uma mesma etapa — e permitindo que, com um bom prompt, qualquer um crie uma cena entre o cinema, o absurdo e o viral.

Perigo constante

Estudos recentes e discussões acadêmicas destacam como os perigos desses vídeos têm aumentado nos últimos anos.

Na University of Maryland, durante o TechFest 2025, especialistas ressaltaram que deepfakes conseguem replicar vozes e imagens com poucos dados, facilitando fraudes financeiras, prejuízos à reputação e desafios legais.

A professora Minoo Modaresnezhad enfatizou que “os estudantes aprenderam sobre os desafios éticos, vieses e preocupações com privacidade ligados à IA e segurança cibernética, reconhecendo que a tecnologia sozinha não é suficiente para proteger contra esses riscos.”

O impacto dessas tecnologias já é visível.

Professores da West Virginia University, Laurel Cook e Amy Cyphert, em um artigo publicado no site da universidade, destacam que conteúdos gerados por IA influenciam eventos políticos, citando robocalls usando a voz do presidente Joe Biden para enganar eleitores.

“[Deepfakes] são muito preocupantes porque tendemos a confiar em vídeo e som como provas suficientes para acreditar no que vemos e ouvimos”, diz Cook.

Ainda segundo Cook,  “[em deepfakes] tendemos a confiar em vídeo e som como provas suficientes para acreditar que estamos vendo ou ouvindo algo real", o que deixou de ser verdade com a evolução das IAs.

"As abordagens comuns para atrair engajamento incluem o uso de apelos emocionais, especialmente aqueles que incitam a raiva, dividindo o público e sendo exagerados, como o uso proposital de pronúncias incorretas. Além disso, esse tipo de conteúdo pode incluir o roubo ou distorção de informações disponíveis publicamente. Essas táticas costumam ser combinadas com conteúdos deepfake projetados para provocar uma resposta imediata, geralmente na forma de boca a boca, que os mecanismos de busca e algoritmos das redes sociais recompensam amplamente. Esse resultado também pode afetar negativamente o retorno financeiro daqueles que publicam conteúdo original. Quando essas táticas são usadas, o consumo saudável desse tipo de conteúdo deve incluir checagem dos fatos e/ou triangulação de fontes", explicou.

Até mesmo o Departamento de Segurança Interna dos EUA já se posicionou sobre os vídeos feitos por IA.

O departamento aponta que deepfakes são usados em operações maliciosas, pornografia não consensual e ataques de engenharia social.

Em documento divulgado pela instituição americana, Dr. Matthew Wright, professor do Rochester Institute of Technology, alerta que “deepfakes são mais visualmente impactantes, precisos e em maior resolução” do que os antigos “cheapfakes,” tornando-os mais difíceis de detectar — e ainda mais perigosos.

É a diferença entre uma calculadora e um computador; o computador é exponencialmente mais poderoso e capaz de fazer todas as coisas; mais potente para o que você pode fazer; mais visualmente impactante, preciso e em maior resolução; tudo que você pode fazer com ‘cheap fakes’ pode ser feito com deepfakes, porém de forma mais convincente", afirmou Wright. “Enfrentamos um outro problema que é, à medida que as pessoas se tornam mais conscientes da tecnologia, isso se torna uma oportunidade para o que chamamos de ‘dividendo dos mentirosos’, em que alguém pode realmente dizer algo que não deveria ou fazer algo que não deveria ser gravado, e então dizer: ‘Não, isso não é real, isso é falso'", disse.

No relatório do World Economic Forum de 2025, são destacados dois grandes riscos das deepfakes: assédio — como pornografia não consensual e chantagem — e golpes de engenharia social, como clonagem de voz para fraudar pessoas e empresas.

Um caso emblemático envolveu um funcionário financeiro em Hong Kong que pagou US$ 25 milhões após uma chamada no Zoom com participantes deepfakes.   

A visão de Bill Gates

O fundador da Microsoft, Bill Gates, reconhece os riscos da tecnologia, mas vê possibilidades de controle.

“Deepfakes e a desinformação gerada por IA podem minar eleições e a democracia. A ideia de usar tecnologia para espalhar mentiras não é nova… Estamos no estágio inicial de outra mudança profunda, a Era da IA", disse ele.

Além disso, Gates já foi alvo de vídeos deepfake, o que exemplifica os perigos dessa tecnologia. Um caso notório foi um vídeo viral em que ele aparecia sendo interrogado sobre temas polêmicos, mas, na verdade, sua imagem e voz foram manipuladas por IA para criar uma entrevista falsa.

Gates destaca ainda que, apesar dos riscos reais apresentados pela IA e pelos deepfakes, esses desafios podem ser gerenciados por meio de supervisão adequada, tecnologias de detecção e uso responsável da inteligência artificial.

Para o bilionário, a situação é semelhante às inovações anteriores, como os automóveis, que exigiram leis e padrões de segurança.

Como identificar imagens geradas por IA

Com a popularização de ferramentas como Midjourney, DALL-E e Stable Diffusion, identificar imagens falsas se tornou mais difícil — mas não impossível. Existem técnicas e ferramentas que ajudam a reconhecer padrões artificiais:

  1. Atenção aos detalhes visuais
    Use o zoom para procurar por distorções. IA frequentemente comete erros em mãos, olhos, dentes e simetrias . Texturas estranhas, acessórios assimétricos e sombras incoerentes também são pistas.

  2. Marcas d’água e artefatos ocultos
    Algumas imagens carregam marcas discretas deixadas pelos próprios modelos geradores. Embora possam ser removidas, sua presença é um indício de origem sintética.

  3. Busca reversa no Google
    Ferramentas como Google Imagens ajudam a identificar a origem e o contexto de uma foto. Se ela só aparece em perfis anônimos ou montagens, o alerta deve ser ligado .

  4. Detecção automatizada
    Plataformas como AI or Not, Deepware Scanner e Forensically permitem verificar metadados, analisar padrões de compressão e detectar manipulações.

  5. Verificação contextual
    Se a imagem estiver atrelada a um evento, vale procurar por registros em veículos jornalísticos confiáveis. A ausência de cobertura é, muitas vezes, sinal de fraude.

Como identificar vídeos feitos por inteligência artificial (IA)

  1. Inconsistências visuais

    • Fique atento a objetos ou pessoas que aparecem e desaparecem de forma inesperada.

    • Note mudanças estranhas nas formas, bordas borradas ou falhas nos contornos.

    • Observe sombras e iluminação que não combinam ou são inconsistentes ao longo do vídeo.

  2. Movimentos não naturais

    • Movimentos bruscos, mecânicos ou descoordenados, principalmente em gestos, piscadas e expressões faciais, são sinais de manipulação.

    • Piscadas muito raras ou em excesso e expressões que não condizem com o contexto podem indicar deepfake.

  3. Sincronia labial

    • Verifique se o movimento dos lábios acompanha corretamente o áudio.

    • A falta de sincronização entre o som e o movimento labial é um dos indícios mais claros de vídeo manipulado.

  4. Textura da pele e detalhes faciais

    • Procure por brilhos incomuns na pele ou ausência de detalhes naturais, como rugas, poros e manchas.

    • Desníveis de cor entre o rosto e outras partes do corpo também podem indicar edição artificial.

  5. Qualidade do áudio

    • Ruídos de fundo excessivos, cortes abruptos ou variações estranhas na voz podem ser pistas de áudio gerado, ou editado por IA.

  6. Expressões e emoções desconexas

    • Observe se as expressões faciais estão alinhadas com o conteúdo falado.

    • Por exemplo, uma pessoa aparentando felicidade ao dar uma notícia triste pode ser um sinal de manipulação.

  7. Verificação da fonte e contexto

    • Sempre confirme se o vídeo foi publicado por fontes confiáveis e oficiais.

    • Busque validação em veículos de comunicação reconhecidos para evitar cair em armadilhas de conteúdos falsos.

Ferramentas que ajudam na identificação de vídeos feitos por IA

  • Microsoft Video Authenticator (em desenvolvimento): analisa vídeos para detectar manipulações específicas feitas por IA.

  • Originality.AI, GPTZero, Copyleaks AI Content Detector: embora mais focadas em textos, algumas dessas ferramentas também oferecem recursos para identificar conteúdos gerados artificialmente.

Acompanhe tudo sobre:GoogleInteligência artificialTecnologiaVídeos

Mais de Inteligência Artificial

Wikipedia suspende teste com IA que gerava resumos automáticos após reação dos editores

Adobe projeta lucros acima do esperado, mas encara desafios na era da IA

Startup de nuvem Crusoe investe US$ 400 milhões em chips da AMD para novo data center de IA nos EUA

Cuidado ao usar o Meta AI: botão de compartilhar pode expor conversas privadas dos usuários