De canguru de apoio emocional à Marisa Maiô, passando pelos vídeos de 'influencers' da Bíblia no TikTok, a criatividade dos usuários encontrou no Google Veo 3 uma nova ferramenta para dar vida a ideias surreais — em vídeo, com som e resolução 4K.
Lançado no Google I/O 2025, o modelo de IA desenvolvido pela DeepMind transforma descrições em texto em vídeos com cenários, personagens e falas gerados automaticamente. A ferramenta aceita também imagens como referência visual.
A principal novidade está na geração automática de áudio — falas, efeitos sonoros e música ambiente — sem exigir comandos específicos no prompt.
Do texto ao vídeo com som e câmera cinematográfica
A entrada pode ser uma frase detalhada como “uma mulher de pele verde fala sobre a Força em uma escadaria de templo, com raios ao fundo e iluminação dramática”. O modelo interpreta o pedido, aplica movimentação de câmera, gera o cenário e insere som compatível.
Usuários ainda podem usar o editor Flow para controlar continuidade visual, ângulos e personagens. Cenas anteriores servem de base para manter consistência em vídeos compostos por múltiplos clipes.
Disponibilidade por assinatura e limites técnicos
Veo 3 está disponível via planos pagos: o AI Ultra (US$ 249,99/mês, exclusivo nos EUA) e o AI Pro (US$ 20/mês, com acesso parcial). Algumas regiões oferecem testes gratuitos e uso baseado em créditos.
Apesar dos recursos avançados, o modelo tem falhas frequentes:
-
Clipes são curtos — em muitos casos, limitados a 8 segundos.
-
Movimentos corporais e expressões podem parecer artificiais.
-
Sons nem sempre acompanham corretamente as ações ou diálogos.
-
Legendas e textos gerados em cena muitas vezes apresentam erros ou são desconexos.
-
Ao exportar de ferramentas como Scene Builder, o áudio pode desaparecer, exigindo edição manual.
Segurança, marcação e futuro da IA em vídeo
Todos os vídeos gerados recebem a SynthID, uma marca d’água digital embutida em cada quadro, indicando origem artificial e dificultando manipulações mal-intencionadas.
Mesmo com limitações, o Veo 3 representa um salto técnico na criação audiovisual com IA, unindo geração de imagem e som em uma mesma etapa — e permitindo que, com um bom prompt, qualquer um crie uma cena entre o cinema, o absurdo e o viral.
Perigo constante
Estudos recentes e discussões acadêmicas destacam como os perigos desses vídeos têm aumentado nos últimos anos.
Na University of Maryland, durante o TechFest 2025, especialistas ressaltaram que deepfakes conseguem replicar vozes e imagens com poucos dados, facilitando fraudes financeiras, prejuízos à reputação e desafios legais.
A professora Minoo Modaresnezhad enfatizou que “os estudantes aprenderam sobre os desafios éticos, vieses e preocupações com privacidade ligados à IA e segurança cibernética, reconhecendo que a tecnologia sozinha não é suficiente para proteger contra esses riscos.”
O impacto dessas tecnologias já é visível.
Professores da West Virginia University, Laurel Cook e Amy Cyphert, em um artigo publicado no site da universidade, destacam que conteúdos gerados por IA influenciam eventos políticos, citando robocalls usando a voz do presidente Joe Biden para enganar eleitores.
“[Deepfakes] são muito preocupantes porque tendemos a confiar em vídeo e som como provas suficientes para acreditar no que vemos e ouvimos”, diz Cook.
Ainda segundo Cook, “[em deepfakes] tendemos a confiar em vídeo e som como provas suficientes para acreditar que estamos vendo ou ouvindo algo real", o que deixou de ser verdade com a evolução das IAs.
"As abordagens comuns para atrair engajamento incluem o uso de apelos emocionais, especialmente aqueles que incitam a raiva, dividindo o público e sendo exagerados, como o uso proposital de pronúncias incorretas. Além disso, esse tipo de conteúdo pode incluir o roubo ou distorção de informações disponíveis publicamente. Essas táticas costumam ser combinadas com conteúdos deepfake projetados para provocar uma resposta imediata, geralmente na forma de boca a boca, que os mecanismos de busca e algoritmos das redes sociais recompensam amplamente. Esse resultado também pode afetar negativamente o retorno financeiro daqueles que publicam conteúdo original. Quando essas táticas são usadas, o consumo saudável desse tipo de conteúdo deve incluir checagem dos fatos e/ou triangulação de fontes", explicou.
Até mesmo o Departamento de Segurança Interna dos EUA já se posicionou sobre os vídeos feitos por IA.
O departamento aponta que deepfakes são usados em operações maliciosas, pornografia não consensual e ataques de engenharia social.
Em documento divulgado pela instituição americana, Dr. Matthew Wright, professor do Rochester Institute of Technology, alerta que “deepfakes são mais visualmente impactantes, precisos e em maior resolução” do que os antigos “cheapfakes,” tornando-os mais difíceis de detectar — e ainda mais perigosos.
“É a diferença entre uma calculadora e um computador; o computador é exponencialmente mais poderoso e capaz de fazer todas as coisas; mais potente para o que você pode fazer; mais visualmente impactante, preciso e em maior resolução; tudo que você pode fazer com ‘cheap fakes’ pode ser feito com deepfakes, porém de forma mais convincente", afirmou Wright. “Enfrentamos um outro problema que é, à medida que as pessoas se tornam mais conscientes da tecnologia, isso se torna uma oportunidade para o que chamamos de ‘dividendo dos mentirosos’, em que alguém pode realmente dizer algo que não deveria ou fazer algo que não deveria ser gravado, e então dizer: ‘Não, isso não é real, isso é falso'", disse.
No relatório do World Economic Forum de 2025, são destacados dois grandes riscos das deepfakes: assédio — como pornografia não consensual e chantagem — e golpes de engenharia social, como clonagem de voz para fraudar pessoas e empresas.
Um caso emblemático envolveu um funcionário financeiro em Hong Kong que pagou US$ 25 milhões após uma chamada no Zoom com participantes deepfakes.
A visão de Bill Gates
O fundador da Microsoft, Bill Gates, reconhece os riscos da tecnologia, mas vê possibilidades de controle.
“Deepfakes e a desinformação gerada por IA podem minar eleições e a democracia. A ideia de usar tecnologia para espalhar mentiras não é nova… Estamos no estágio inicial de outra mudança profunda, a Era da IA", disse ele.
Além disso, Gates já foi alvo de vídeos deepfake, o que exemplifica os perigos dessa tecnologia. Um caso notório foi um vídeo viral em que ele aparecia sendo interrogado sobre temas polêmicos, mas, na verdade, sua imagem e voz foram manipuladas por IA para criar uma entrevista falsa.
Gates destaca ainda que, apesar dos riscos reais apresentados pela IA e pelos deepfakes, esses desafios podem ser gerenciados por meio de supervisão adequada, tecnologias de detecção e uso responsável da inteligência artificial.
Para o bilionário, a situação é semelhante às inovações anteriores, como os automóveis, que exigiram leis e padrões de segurança.
Como identificar imagens geradas por IA
Com a popularização de ferramentas como Midjourney, DALL-E e Stable Diffusion, identificar imagens falsas se tornou mais difícil — mas não impossível. Existem técnicas e ferramentas que ajudam a reconhecer padrões artificiais:
-
Atenção aos detalhes visuais
Use o zoom para procurar por distorções. IA frequentemente comete erros em mãos, olhos, dentes e simetrias . Texturas estranhas, acessórios assimétricos e sombras incoerentes também são pistas.
-
Marcas d’água e artefatos ocultos
Algumas imagens carregam marcas discretas deixadas pelos próprios modelos geradores. Embora possam ser removidas, sua presença é um indício de origem sintética.
-
Busca reversa no Google
Ferramentas como Google Imagens ajudam a identificar a origem e o contexto de uma foto. Se ela só aparece em perfis anônimos ou montagens, o alerta deve ser ligado .
-
Detecção automatizada
Plataformas como AI or Not, Deepware Scanner e Forensically permitem verificar metadados, analisar padrões de compressão e detectar manipulações.
-
Verificação contextual
Se a imagem estiver atrelada a um evento, vale procurar por registros em veículos jornalísticos confiáveis. A ausência de cobertura é, muitas vezes, sinal de fraude.
Como identificar vídeos feitos por inteligência artificial (IA)
-
Inconsistências visuais
-
Fique atento a objetos ou pessoas que aparecem e desaparecem de forma inesperada.
-
Note mudanças estranhas nas formas, bordas borradas ou falhas nos contornos.
-
Observe sombras e iluminação que não combinam ou são inconsistentes ao longo do vídeo.
-
Movimentos não naturais
-
Movimentos bruscos, mecânicos ou descoordenados, principalmente em gestos, piscadas e expressões faciais, são sinais de manipulação.
-
Piscadas muito raras ou em excesso e expressões que não condizem com o contexto podem indicar deepfake.
-
Sincronia labial
-
Textura da pele e detalhes faciais
-
Procure por brilhos incomuns na pele ou ausência de detalhes naturais, como rugas, poros e manchas.
-
Desníveis de cor entre o rosto e outras partes do corpo também podem indicar edição artificial.
-
Qualidade do áudio
-
Expressões e emoções desconexas
-
Observe se as expressões faciais estão alinhadas com o conteúdo falado.
-
Por exemplo, uma pessoa aparentando felicidade ao dar uma notícia triste pode ser um sinal de manipulação.
-
Verificação da fonte e contexto
Ferramentas que ajudam na identificação de vídeos feitos por IA
-
Microsoft Video Authenticator (em desenvolvimento): analisa vídeos para detectar manipulações específicas feitas por IA.
-
Originality.AI, GPTZero, Copyleaks AI Content Detector: embora mais focadas em textos, algumas dessas ferramentas também oferecem recursos para identificar conteúdos gerados artificialmente.