Faculdade Exame

O que é preconceito algorítmico?

O preconceito algorítmico ocorre quando algoritmos reproduzem e ampliam vieses sociais, resultando em injustiças como reconhecimento facial incorreto e desigualdade em plataformas digitais. Combater isso exige ética e diversidade

O preconceito algoritmico pode causar impactos significativos na sociedade.  (SDI Productions/iStockphoto)

O preconceito algoritmico pode causar impactos significativos na sociedade. (SDI Productions/iStockphoto)

Faculdade EXAME
Faculdade EXAME

Faculdade EXAME

Publicado em 29 de agosto de 2024 às 20h38.

Tudo sobreFaculdade EXAME
Saiba mais

Antes de abordarmos o preconceito algorítmico, é essencial esclarecer o que são algoritmos. Podemos pensar neles como uma espécie de "receita" que os computadores seguem para entregar os resultados que os usuários procuram.

Esses resultados, por sua vez, são baseados em um banco de dados alimentado por conteúdos já existentes na internet. Quanto mais informações semelhantes o algoritmo receber, mais informações semelhantes ele reproduzirá.

É aqui que entra o preconceito algorítmico: a produção e reprodução de conteúdo que pode refletir preconceitos e discriminações presentes na sociedade. É como ensinar um robô com informações incorretas.

No vídeo abaixo, o diretor de inteligência artificial da EXAME e coordenador do MBA em Inteligência Artificial para Negócios, Miguel Lannes Fernandes, explica de uma maneira bem didática como tudo isso funciona. Confira:

Qual o impacto do preconceito algorítmico na sociedade?

preconceito algorítmico pode ter um impacto significativo em nossa vida cotidiana e, como qualquer forma de discriminação, pode resultar em injustiças para parte da população.

Em 2015, um usuário do Google Fotos denunciou a plataforma por ter rotulado a foto de um casal negro com a legenda "gorilas". Na época, a gigante da tecnologia afirmou que tomaria as medidas necessárias para evitar a repetição de erros como esse. 

Nos EUA, foi criado um sistema para descobrir a probabilidade de pessoas cometerem crimes a partir do cruzamento de informações biométricas do rosto e de fichas criminais. Como a tecnologia se alimentou de dados de criminalidade racialmente carregados, seus resultados se tornaram enviesados.

Em 2020, um homem negro foi preso em Detroit (EUA) acusado de um roubo. O software de reconhecimento facial reconheceu a pessoa errada, e tanto o suspeito quanto a pessoa presa por engano eram negros. 

Nas redes sociais, os usuários também estão atentos. Recentemente, uma pesquisa demonstrou que artistas mulheres são pouco sugeridas pelo Spotify, criando um enviesamento e impactando as preferências dos usuários. 

O Twitter também teve seu algoritmo acusado de não reconhecer o rosto de pessoas não-brancas nas imagens postadas pelos usuários. Em maio de 2021, foi divulgado pela própria plataforma um relatório com dados que confirmam as denúncias dos usuários:

  • O algoritmo de recorte de imagens do Twitter tende a favorecer pessoas brancas, em média, em 4%.
  • Quando se trata de mulheres, a diferença é ainda maior, sendo 7% mais favorável às mulheres brancas em relação às negras.

A rede social se comprometeu a resolver esse problema, permitindo que os usuários visualizem previamente o resultado final de uma imagem antes de publicá-la.

Regulamentação e combate

Em 2020, o Comitê para Eliminação da Discriminação Racial da Organização das Nações Unidas fez um apelo para a regulamentação dos algoritmos de reconhecimento facial, devido ao potencial de perpetuar ou ampliar casos de preconceito contra grupos minoritários.

Combater o preconceito algorítmico é um desafio significativo no mundo da tecnologia. À medida que incorporamos cada vez mais algoritmos em nossas vidas, é fundamental garantir que sejam justos, éticos e não prejudiciais.

Existem formas de lidar com o preconceito em algoritmos, como buscar maior diversidade nas bases de dados, tornar os algoritmos mais justos, selecionar dados imparciais e conduzir testes rigorosos.

Além disso, é preciso responsabilizar as pessoas e as empresas que desenvolvem esses algoritmos, cobrando ética e justiça em todas as etapas do processo.

Acompanhe tudo sobre:Faculdade EXAME

Mais de Faculdade Exame

Sozinhos, dados não convencem

Conheça o bot no GPT que pode ajudar sua empresa a tomar decisões melhores

O que são aquisições hostis e o que elas significam para o mercado?

Veja o que é core business e como encontrar o seu