Ministra Diella, da Albânia, gerada por inteligência artificial (Reprodução)
Plataforma de conteúdo
Publicado em 15 de outubro de 2025 às 15h00.
Por Diego Nogare*
Nos últimos meses, notícias que parecem saídas de um roteiro de Black Mirror se tornaram realidade;
Mas será que estamos realmente diante de tecnologias capazes de exercer liderança? Ou apenas testemunhando a automação de tarefas operacionais sob o disfarce de uma revolução tecnológica?
Antes de tudo, é válido destacar que qualquer análise sobre o que essas IAs “fazem” ou “decidem” é, em alguma medida, especulativa.
Isso porque apenas quem tem acesso ao código-fonte e aos detalhes do treinamento de cada modelo pode afirmar, com propriedade, quais são suas reais capacidades e limitações.
Sem essa transparência, qualquer afirmação categórica sobre o poder dessas ferramentas carece de fundamento sólido. Ainda assim, é possível refletir sobre seu impacto, considerando questões de ética e governança.
O primeiro ponto a reconhecer é que, por mais sofisticadas que sejam, essas tecnologias ainda operam dentro de parâmetros definidos por seus desenvolvedores.
Elas processam grandes volumes de dados, identificam padrões nas informações e oferecem recomendações ágeis — funções extremamente úteis para otimizar atividades burocráticas.
Em outras palavras, tratam-se de tarefas que muitas vezes nem chegam a ser trabalho, mas apenas burocracia.
Ela exige transparência, responsabilidade e capacidade de julgamento ético — dimensões em que a IA ainda está muito aquém.
O fato de não haver acesso público ao código-fonte dessas ferramentas – tanto da Albânia, quanto do Japão – significa que não compreendemos como chegam às suas conclusões, quais vieses podem estar embutidos ou quem realmente controla os resultados finais.
Sem clareza sobre o processo, falar em liderança é ilusório. O poder não está nas mãos da tecnologia, mas nos grupos e empresas que a programam e a controlam.
O risco é aceitarmos a narrativa da inovação enquanto, nos bastidores, permanecemos sujeitos a interesses humanos.
A autonomia da recém-anunciada "ministra de inteligência artificial" para validar orçamentos e assegurar decisões livres de desvios parece promissora, mas sua eficácia permanece duvidosa.
Afinal, o que exatamente ela entende por corrupção? A forma como esse conceito lhe for ensinada determinará os limites de sua atuação, mas é razoável supor que os corruptos logo encontrarão novas maneiras de contornar tais parâmetros.
O mesmo ocorre no campo das fraudes financeiras: a capacidade de inovação dos fraudadores costuma acompanhar — e, muitas vezes, até superar — o ritmo de modernização das próprias instituições.
Nomear uma “ministra digital” ou um “líder artificial” soa moderno, arrojado, disruptivo. Gera manchetes, projeta a imagem de um país ou partido na vanguarda tecnológica.
Mas na prática, trata-se muito mais de uma estratégia de marketing do que de uma transformação estrutural. A IA não governa: ela apenas executa tarefas dentro de limites bem definidos.
O que ocorre, nesses casos, não é a entrega do poder de decisão às máquinas, mas a delegação de tarefas analíticas e burocráticas, apresentada como se fosse uma revolução.
É importante não confundir automação com liderança, nem algoritmos com escolhas éticas.
O avanço da inteligência artificial, sem dúvida, traz benefícios concretos para modernizar processos públicos e privados. Mas acreditar que uma IA pode exercer liderança é ignorar que, sem dimensão humana, não existe governança legítima.
No fundo, não estamos diante de uma revolução política protagonizada por máquinas. Estamos apenas assistindo à substituição de trabalhos básicos sob a fachada de inovação tecnológica.
O desafio ético não é aceitar ou rejeitar IAs como líderes, mas entender quem controla esses algoritmos — e, principalmente, em nome de quem eles operam.
*Diego Nogare é mestre e doutorando em Inteligência Artificial pela Universidade Presbiteriana Mackenzie, com 20 anos de experiência e passagem por grandes empresas como Microsoft, Deloitte, Bayer e Itaú.