Por Breno Barros, CTO e VP de Soluções Digitais da Falconi
As lideranças estão prestes a atravessar um divisor de águas. Se os líderes de hoje ainda operam com foco exclusivo em equipes com humanos, é possível que sejam os últimos a fazê-lo. Estamos entrando em uma era em que os executivos precisarão gerenciar não apenas profissionais, mas também agentes de inteligência artificial (IA) — sistemas autônomos que percebem, aprendem, decidem e agem com base em objetivos organizacionais.
Ao contrário dos modelos tradicionais de software, os agentes de IA são adaptativos e proativos. Estão cada vez mais presentes em funções como atendimento automatizado, operações financeiras, otimização logística e até desenvolvimento de software. Segundo pesquisa do Gartner, até 2027, 25% das tarefas empresariais críticas serão executadas por agentes autônomos operando em ambientes controlados por humanos.
Essa transição, silenciosa para muitos, é estrutural. Impõe a necessidade de revisar o que entendemos como “liderança” e “gestão”, tanto no plano técnico quanto no plano ético, organizacional e até filosófico.
Liderar essas entidades não se resume a “monitorá-las”. Trata-se de garantir alinhamento de objetivos, assegurando que os agentes otimizem aquilo que realmente importa para a organização, evitando distorções ou comportamentos emergentes indesejados.
Além disso, precisamos de transparência algorítmica, para evitar o desconhecido por meio do uso de ferramentas de Explainable AI (XAI) e sistemas de auditoria em tempo real. E em ambientes operacionais distribuídos, como cadeias de suprimentos, a coordenação entre múltiplos agentes é crítica para evitar conflitos e garantir eficiência.
Mais um ponto importante: a performance e confiabilidade desses sistemas exigem métricas adequadas e processos contínuos de adaptação. A segurança e a resiliência também são indispensáveis, com proteção contra manipulações e falhas por extrapolação. No campo operacional, o controle de custos e a sustentabilidade dependem da adoção de práticas como FinOps, modularidade e revisão contínua. Vale reforçar: questões éticas e sociais não podem ser negligenciadas. É preciso mitigar vieses, evitar decisões moralmente ambíguas e preservar a confiança pública. Esses não são dilemas teóricos — são fatores determinantes para o sucesso (ou fracasso) da estratégia digital em qualquer organização.
No livro “O Verdadeiro Poder”, Vicente Falconi afirma que “liderar é bater meta”. Na era da IA, liderar será bater metas com responsabilidade algorítmica, escalabilidade computacional e impacto social positivo. E a essência da liderança continua válida em seus três pilares: liderança como meio de atingir resultados, agora incluindo agentes autônomos como “liderados” digitais, exigindo clareza de propósito e novos instrumentos de supervisão. Conhecimento técnico, incluindo noções sobre aprendizado de máquina, limites operacionais e implicações éticas dos sistemas. E método como caminho para a excelência, com ciclos contínuos de iteração e validação, integrando engenharia, compliance e desempenho.
Segundo a Forrester, muitas organizações falham ao introduzir IA por não definirem claramente os papéis e as responsabilidades de seus líderes técnicos. Isso reforça a tese de que a liderança futura será inevitavelmente híbrida: técnica, ética e humana. Balancear decisões humanas e ações autônomas será fundamental. A governança da IA não será uma função isolada — será parte central do exercício da liderança.
A transição para um modelo de liderança que integra pessoas e agentes não é uma escolha — é uma inevitabilidade. Os executivos que hoje ignoram esse movimento podem se tornar ineficazes diante da complexidade do futuro. Estamos diante de um novo contrato de liderança. Um contrato em que o líder precisa entender o funcionamento das máquinas, definir seus limites e, acima de tudo, garantir que essas máquinas estejam a serviço do que realmente importa: resultados sustentáveis, humanos e éticos.