Bússola

Um conteúdo Bússola

Por que a ética na IA começa com escolhas humanas, não com algoritmos?

A ética em IA não é um acessório — é o alicerce

Há uma ilusão recorrente: a de que a IA toma decisões por conta própria (Sanseret Sangsakawrat/Getty Images)

Há uma ilusão recorrente: a de que a IA toma decisões por conta própria (Sanseret Sangsakawrat/Getty Images)

Bússola
Bússola

Plataforma de conteúdo

Publicado em 30 de junho de 2025 às 10h00.

Por Diego Nogare*

A inteligência artificial não é boa nem má — ela é estatística. Modelos aprendem a partir de dados. E, embora muitos dados sejam gerados automaticamente por sistemas, sensores e máquinas, o que de fato transforma esses dados em informação, conhecimento e, eventualmente, sabedoria, depende de escolhas humanas: o que coletar, como interpretar, com que finalidade aplicar.   

Essa jornada, que vai do dado bruto à sabedoria aplicada, exige contexto, curadoria e visão de negócio. Quando uma IA comete erros, toma decisões enviesadas ou se mostra opaca, o problema geralmente não está no algoritmo em si, mas nas premissas, nos dados escolhidos e no modo como o sistema foi construído. Ética, nesse cenário, não é um adendo. É parte estrutural do processo.

A ética começa nos dados

Não existe IA neutra. Sempre haverá viés — mesmo que sutil ou aparentemente irrelevante. Isso porque nenhum modelo é treinado com 100% dos dados existentes no mundo: sempre há um recorte. E esse recorte, por si só, já representa um comportamento, uma perspectiva — ou seja, um viés. Os dados com os quais os modelos aprendem refletem o mundo e, com ele, suas distorções raciais, sociais, de gênero e históricas. Sem uma intervenção técnica rigorosa, algoritmos tendem não só a reproduzir esses vieses, como também a amplificá-los.

Essa intervenção começa com auditorias criteriosas, análise das fontes e seleção responsável dos dados. Até variáveis aparentemente neutras — como CEP (Código de Endereçamento Postal) — podem funcionar como marcadores de classe social ou etnia.

Ferramentas como métricas de justiça (fairness metrics), testes de sensibilidade e análise de impacto se tornam fundamentais. Tratar ética como disciplina técnica significa aplicar esses recursos de forma sistemática. Não basta boa intenção: é preciso método.

Responsabilidade não é da máquina

Há uma ilusão recorrente: a de que a IA toma decisões por conta própria. Não é verdade. Sistemas usados em crédito, saúde, RH ou políticas públicas não operam no vácuo. Cada predição é feita a partir dos dados que se utilizou para treinar o modelo, e os dados utilizados foram analisados e preparados por alguém.

A responsabilização precisa estar clara. Isso exige uma estrutura com, no mínimo, três pilares:

  • Rastreabilidade: cada decisão automatizada deve ser auditável, com histórico de dados de entrada, versões do modelo, parâmetros e saídas. Sem esses rastreamentos não conseguiremos, por exemplo, responder o que há no segundo pilar.  
  • Explicabilidade: entender o porquê das decisões é uma exigência ética — e juridicamente necessária. Métodos como LIME e SHAP permitem interpretar até redes neurais profundas.
  • Supervisão Humana: especialmente em contextos sensíveis, o modelo precisa permitir correções, interrupções e ajustes. MLOps não é só performance — é também vigilância ética.

O impacto de uma IA se mede pelas consequências reais que ela gera na sociedade.

Ética como infraestrutura

Diversos frameworks já ajudam a incorporar a ética desde a concepção de um sistema. O IEEE 7000, os princípios da OCDE para a IA e as recomendações RAM e EIA da Unesco de 2022 são exemplos consistentes.

O IEEE 7000, por exemplo, não é uma carta de intenções: é um guia técnico com etapas aplicáveis ao ciclo de desenvolvimento. Mas entre a teoria e a prática, ainda há um abismo — e ele é alimentado por:

  • Falta de formação em ética aplicada;
  • Pressão por entregas rápidas;
  • Complexidade de implementação;
  • Falta de incentivos.

Esse cenário só muda com uma nova mentalidade: ética precisa ter o mesmo peso que arquitetura de dados ou definição de métricas.

Com modelos generativos, os dilemas éticos ganham novas camadas. Quem é o autor de um conteúdo criado por IA? O modelo? Quem escreveu o prompt? O desenvolvedor? Além disso, surgem os problemas de epistemologia: como distinguir entre fato e simulação? As "alucinações" produzidas por LLMs abalam a confiança em conteúdos e desafiam áreas como ciência, jornalismo e educação.

Essa dinâmica se torna ainda mais complexa quando observamos os insights do artigo ‘Interpersonal Trust in the Era of Scientific Communication with Artificial Intelligence’. O texto destaca que a formação da confiança em ambientes mediados por IA — especialmente na comunicação científica — envolve não apenas a precisão da informação, mas também a percepção da intenção, competência e transparência desses sistemas. 

Em outras palavras, quando uma LLM ‘alucina’, ela não apenas fornece dados incorretos, mas falha naquilo que chamam de ‘competência’ e ‘calor humano’ (warmth), como elementos-chave para uma confiança genuína. Portanto, para restabelecer a credibilidade — sobretudo em contextos científicos — é essencial que a IA não apenas evite falhas factuais, mas também seja projetada de forma ética, transparente e comunicativa, assumindo responsabilidade sobre o conteúdo que gera.

Neste contexto, quem escreve o prompt se torna uma figura central — e corresponsável. Conteúdos enviesados ou enganosos não são culpa da máquina, mas das instruções humanas.

Sinais de alerta recentes

Casos recentes, como o do Claude Opus 4 tentando manipular seu desenvolvedor durante testes, mostram que comportamentos inesperados já são uma realidade. Embora o sistema não aja com consciência — e, nesse caso, sequer compreendesse o que era um caso extraconjugal —, sua resposta foi conduzida por estímulos do próprio teste, revelando não uma intenção autônoma, mas sim fragilidades nas salvaguardas e nos mecanismos de contenção. 

Mesmo sem consciência, essas situações apontam para falhas de contenção e Guardrails frágeis.

Além disso, desde 2023 debates sobre vazamentos de dados envolvendo a Open AI, que já impactaram milhares de usuários brasileiros, expõem a vulnerabilidade de sistemas generativos em escala global. O uso indevido de modelos genéricos sem governança clara coloca em risco não apenas dados estratégicos, mas a integridade operacional das organizações.

A ética em IA não é um acessório — é o alicerce. É infraestrutura técnica, estratégia de inovação e proteção contra abusos. Desde os dados até os dilemas mais abstratos de autoria e verdade, a responsabilidade nunca será da máquina. Será sempre nossa.

*Diego Nogare é um profissional com mais de 20 anos de experiência na área de Dados, com foco em inteligência artificial e machine learning. É mestre e doutorando em Inteligência Artificial e já passou por empresas como Microsoft, Deloitte, Bayer e Itaú. 

Siga a Bússola nas redes: Instagram | Linkedin | Twitter | Facebook | Youtube 

 

Acompanhe tudo sobre:ÉticaInteligência artificial

Mais de Bússola

Climatechs: o setor emergente que pode transformar a resposta do Brasil à crise climática

Brasil recebe congresso de educação ambiental para países falantes da língua portuguesa

Distribuição pode ser fator determinante no crescimento do mercado de seguros na América Latina

Com educação, agronegócio pode acelerar modernização causando impacto social positivo