A declaração foi emitida pelo Future of Life Institute, grupo sem fins lucrativos que trabalha com riscos globais como armas nucleares e biotecnologia (Freepik/Divulgação)
Redator
Publicado em 22 de outubro de 2025 às 13h34.
Até o momento, 1.149 figuras públicas, incluindo cientistas vencedores do Prêmio Nobel, ex-líderes militares, artistas e até membros da monarquia britânica, assinaram uma declaração pedindo a proibição do desenvolvimento da “superinteligência”. Etapa ainda não alcançada da inteligência artificial, o documento alega ela pode, um dia, representar uma ameaça existencial à humanidade.
O manifesto é curto e propõe “a proibição do desenvolvimento de superinteligência” até que haja “um consenso científico amplo de que será feito de maneira segura e controlável” e “amplo apoio público”.
Organizada por pesquisadores de IA preocupados com o rápido avanço tecnológico, a carta conta assinaturas de pessoas de diferentes áreas, incluindo Geoffrey Hinton, laureado com o Nobel e conhecido como “padrinho da IA”, Yoshua Bengio, um dos pioneiros da área, além de nomes como Mike Mullen, ex-líder militar dos EUA durante os governos Bush e Obama, e os duques de Sussex, príncipe Harry e Meghan Markle.
A declaração foi emitida pelo Future of Life Institute, grupo sem fins lucrativos que trabalha com riscos globais como armas nucleares e biotecnologia, e está recebendo novas assinaturas a cada vez que a página é atualizada. Também subscreveram personalidades como Steve Wozniak (cofundador da Apple), Richard Branson (Virgin Group), o filósofo e conselheiro de IA do Vaticano, Paolo Benanti, e Steve Bannon, ex-assessor de Donald Trump.
Esse apelo ocorre em um momento de crescente pressão para desacelerar o desenvolvimento de IA, enquanto empresas como OpenAI, Google e Meta investem bilhões de dólares em novos modelos e data centers. Ao mesmo tempo, diversas indústrias estão buscando integrar a tecnologia em uma ampla gama de produtos e serviços, com impactos econômicos, culturais e sociais globais.
A crescente preocupação sobre o avanço da IA levanta questões sobre a possibilidade de sistemas tecnológicos se aproximarem da inteligência artificial geral (AGI, na sigla em inglês) – uma versão que poderia realizar tarefas intelectuais como um ser humano ou até superar a capacidade dos especialistas mais qualificados.
A carta também destaca as preocupações sobre o avanço acelerado da IA, que muitos consideram estar sendo impulsionado por um sistema econômico que prioriza o lucro, sem uma discussão ampla sobre os impactos dessa tecnologia. Segundo Anthony Aguirre, físico e diretor executivo do Future of Life Institute, a sociedade ainda não teve tempo para entender as consequências e os riscos do desenvolvimento da IA.
Essa não é a primeira vez que documentos do tipo são assinados. Em março de 2023, poucos meses após o lançamento do ChatGPT, milhares de pessoas assinaram uma carta aberta pedindo uma pausa temporária no desenvolvimento da IA. Entre elas, Elon Musk, que hoje está na corrida da nova tecnologia.
Mais recentemente, trinta pesquisadores assinaram um documento pedindo mais investigação sobre técnicas de monitoramento dos chamados “pensamentos” da IA, as cadeias de raciocínio (chains-of-thoughts ou CoTs), usadas por modelos como o o3, da OpenAI, ou o R1, da DeepSeek, para resolver problemas complexos.