Noam Shazeer (esquerda) e Daniel De Freitas (direita): os fundadores da Character.ai que foram para o Google (Winni Wintermeyer/Getty Images)
Redator
Publicado em 25 de novembro de 2025 às 11h00.
Última atualização em 25 de novembro de 2025 às 11h00.
No final de outubro, a startup Character.AI, criadora de um dos chatbots de inteligência artificial mais populares entre jovens, anunciou a implementação imediata de um limite de duas horas diárias no uso da ferramenta por menores de idade. A partir desta semana, o acesso de adolescentes à plataforma, usada para criar e interagir com companhias virtuais, começou a ser totalmente encerrado.
Essa decisão ocorre após o suicídio de ao menos dois adolescentes que usaram o serviço, o que gerou reações de pais, autoridades e usuários, além de ações judiciais contra a empresa. Fundada em 2022, a Character.AI tem hoje cerca de 20 milhões de usuários mensais.
Entre adolescentes, os bots se tornaram fonte de companhia, apoio emocional e espaço para criação de histórias – inclusive românticas e afetivas. A nova política gerou protestos entre usuários jovens, que afirmam perder uma ferramenta de suporte em momentos de solidão ou ansiedade. No Reddit, há relatos de uso do app para conforto quando não é possível falar com amigos ou terapeutas e menções a “dias de choro” após a mudança.
A decisão de restringir o acesso veio após a constatação de que, mesmo com modelos adaptados para menores de 18 anos, os bots eram menos propensos a seguir os limites de segurança em conversas longas. “Foi uma decisão complicada, mas não difícil. É o certo para a próxima geração”, afirmou o CEO Karandeep Anand, que disse pensar na própria filha de seis anos ao considerar o futuro do produto.
Após o anúncio, a empresa enviou avisos prévios a pais e adolescentes, com o objetivo de suavizar a transição. Usuários mais ativos terão um período adicional com uma hora diária de uso antes do bloqueio completo.
A Character.AI também incorporou ferramentas de apoio emocional em seu chatbot e fechou parcerias com organizações como a Koko e a ThroughLine, que ajudam a identificar sinais de sofrimento e conectar usuários a redes de suporte.
No futuro, a startup acredita que conseguirá desenvolver experiências mais seguras para adolescentes, tão atrativas quanto as atuais, mas que evitem interações extensas e reduzam o risco de dependência emocional.