Mustafa Suleyman foi um dos fundadores do DeepMind, laboratório de pesquisa posteriormente vendido ao Google; hoje, ele lidera a área de IA da Microsoft
Redator
Publicado em 3 de novembro de 2025 às 10h07.
Enquanto grandes empresas de tecnologia investem em inteligências artificiais que prometem simular emoções humanos – e, futuramente, até adquirir “consciência”, a Microsoft, sob liderança de Mustafa Suleyman na área de IA, segue em direção oposta.
Em entrevista à CNBC durante a conferência AfroTech, em Houston, no Texas, o executivo enfatizou que apenas seres biológicos são capazes de ter consciência e que, por isso, desenvolvedores e pesquisadores deveriam abandonar projetos que sugiram o contrário. Suleyman — cofundador do DeepMind, laboratório de pesquisa depois vendido ao Google — classificou a tentativa de criar tecnologias que imitam dor ou sofrimento como “uma ilusão perigosa”.
Esse posicionamento contrasta com o movimento de empresas como a Meta, de Mark Zuckerberg, e a xAI, de Elon Musk, que apostam em assistentes com traços de personalidade, inclusive sensuais ou sexuais, para simular vínculos afetivos com humanos.
No caso da OpenAI, parceira de longa data da Microsoft, a empresa não apenas busca desenvolver uma inteligência artificial geral (AGI), capaz de igualar ou superar a cognição humana, como também anunciou recentemente que permitirá interações eróticas com o ChatGPT em versões voltadas a adultos.
Nesse cenário, Suleyman foi direto: “Há lugares para onde não vamos”. O chefe de IA da Microsoft defende uma distinção objetiva entre sistemas inteligentes e seres vivos. “Nossa experiência física da dor nos entristece, nos causa sofrimento. A IA não sente tristeza ao ‘sofrer’ dor. Ela só simula uma narrativa de experiência e consciência — mas isso não é o que ela vive de fato”, afirmou. Segundo ele, essa diferença é observável no funcionamento técnico dos modelos.
Embora evite pedir o fim das pesquisas sobre consciência em IA — reconhecendo que diferentes empresas têm missões distintas —, Suleyman considera esse tipo de investigação uma “pergunta errada”, que leva a respostas equivocadas. “É absurdo seguir por esse caminho. Eles não são conscientes. E não podem ser.”
A defesa de limites também se estende à experiência do usuário. Segundo Suleyman, a Microsoft não criará assistentes voltados a interações eróticas. Em vez disso, aposta em ferramentas como o real talk, modo de conversa do Copilot que desafia o usuário com opiniões e provocações, no lugar de apenas concordar.
“O conhecimento está lá, os modelos são responsivos. Cabe a cada um de nós moldar IAs com os valores que queremos ver e com os quais queremos interagir”, disse. Para ele, a Microsoft está criando sistemas que sabem que são IAs e que estão sempre a serviço dos humanos.