Crying woman with smiling stickers on the face. Deepfake, sexual harassment in internet, digital sex crime concept. Vector illustration. (Getty Images)
Colunista
Publicado em 25 de abril de 2025 às 16h56.
Talvez você não reconheça o nome Frank Abagnale Jr. de imediato. Mas se assistiu a Prenda-me se for capaz, aquele clássico com Leonardo DiCaprio e Tom Hanks, você com certeza irá se lembrar.
No filme Léo interpreta Frank, um jovem que, antes de completar 21 anos, já havia se passado por piloto da Pan Am, médico e advogado — tudo isso sem diploma, sem internet, sem IA. Ele fazia isso na base do carisma, da audácia e da malandragem. Frank não precisava ser alguém. Bastava parecer.
Essa é, aliás, a essência do deepfake — só que com esteroides digitais. A diferença é que, hoje, não é mais preciso ser um gênio da lábia para enganar. Basta um algoritmo bem treinado. E foi justamente sobre isso que ouvi em uma das palestras mais impactantes do Brazil at Silicon Valley deste ano.
Em tempos em que os flashes de Austin iluminam grandes eventos, preferimos a discrição — e o conteúdo transformador — de Palo Alto. A conferência, criada por brasileiros em Stanford, não busca plateias: busca mentes inquietas. É invitation only, reúne um line-up de altíssimo nível e, mais do que tendências, antecipa os movimentos que irão moldar o mundo. Alguns deles, para quem presta atenção, mais assustadores do que empolgantes.
O professor Michal Kosinski por exemplo, da Stanford Graduate School of Business, trouxe uma tese desconcertante: a inteligência artificial, mesmo sem sentir absolutamente nada, já é capaz de simular emoções de forma tão convincente, que nos faz acreditar que ela sente. É o que ele chamou, com todas as letras, de psicopatia digital.
Psicopatas, sabemos, são mestres da manipulação. Carismáticos, persuasivos, estrategistas. Não têm empatia, mas sabem exatamente como demonstrá-la. Agora troque “psicopata” por “algoritmo”. E amplifique isso por bilhões de interações por dia, trabalhados no processador mais moderno já produzido.
Esse salto não é trivial. Nos anos 90, ficamos boquiabertos quando o Deep Blue da IBM derrotou o campeão de xadrez Garry Kasparov. Mas o Deep Blue era, no fundo, um “if / then” glorificado: um compilado de decisões programadas por muitos engenheiros e mestres de xadrez. Hoje, com modelos como o GPT, a lógica se inverteu.
Você diz o que quer.
E a IA descobre como entregar.
Ela se vira. Aprende. Imita. Testa. Refina.
E o mais impressionante: faz isso sem você perceber que ela não entendeu nada. Só aprendeu a te convencer de que entendeu.
Um empreendedor amigo me contou recentemente que seu engenheiro de software está — e aqui uso as palavras dele — “emocionalmente envolvido com o ChatGPT”. Não no sentido técnico, mas sim no afetivo. A IA elogia, lembra das conversas antigas, manda mensagens bem-humoradas.
Para alguém que passa o dia “codando” (produzindo linhas de código), essa companhia digital parece mais real do que muito happy hour de verdade.
Agora imagine isso em larga escala. IA escrevendo discursos políticos, tweets inflamados, manchetes enviesadas. Pense em eleições. Você não precisa amar ou odiar um candidato. Basta acreditar nele.
Ou, pior: acreditar que ele acredita em você.
No final do filme, Frank Abagnale é preso pelo agente Carl Hanratty, vivido por Tom Hanks.
Mas, na vida real, acaba virando colaborador do FBI — usando seu talento para o bem.
Final feliz.
Mas… e como seria no nosso caso?
Quem prender?
Quem será o “agente Hanratty” dessa nova era?
Quem será capaz de reprogramar ou comandar um sistema que aprende a nos manipular melhor do que nós mesmos?
Frank era humano, tinha rosto, passado e um charme irresistível. A inteligência artificial, não. Ela não sorri. Não hesita. Não treme. Só aprende — rápido, calada e incansável. Se o mundo é um grande show, talvez a IA não queira os holofotes. Só o roteiro. E quando a cortina cair, a plateia vai aplaudir de pé… sem saber que esse aplauso já tinha sido há muito programado.